2026年,想用FPGA和Zynq MPSoC平台做一个‘边缘侧多模态传感器融合’的毕设(如摄像头+毫米波雷达),在PL和PS之间如何合理划分AI推理、传统信号处理和数据同步的任务,以实现低功耗和低延迟?
本科毕设选题,导师建议做传感器融合,偏向自动驾驶或机器人感知。我打算用Xilinx的Zynq UltraScale+ MPSoC开发板,接入摄像头和TI的毫米波雷达。核心难点是如何在FPGA可编程逻辑(PL)和ARM处理器系统(PS)之间高效分工。比如,图像的目标检测用PS上的AI加速器(DPU)跑量化模型,雷达点云处理用PL做CFAR滤波和聚类,那时间戳同步、坐标系转换、融合算法(如卡尔曼滤波)放在哪里更合适?怎么设计数据通路和DMA传输才能避免瓶颈?希望有系统设计经验的前辈给一些架构划分的原则和参考案例。我要回答answer.notCanPublish回答被采纳奖励100个积分