2026年,想用FPGA做‘智能小车多传感器融合’的本科毕设,在资源有限的平台上如何实现激光雷达与视觉的实时数据同步与融合?
老师建议我做智能小车相关的毕设,想用FPGA实现一个低成本的多传感器融合系统,核心是处理激光雷达点云和摄像头图像。我手头只有一块Zynq-7010开发板。最大的困惑是,如何设计硬件架构,才能让两种不同速率、不同数据格式的传感器数据在FPGA里实现时间同步和初步融合(比如目标检测框和点云的关联)?是应该用AXI Stream搭建多个并行处理流水线,还是在PS里用软件做融合更现实?硬件资源(LUT、BRAM)该如何预估和分配?