2026年,想用一块AMD Xilinx的Versal AI Edge系列开发板完成‘端侧实时多模态感知融合(摄像头+毫米波雷达)’的毕设,在利用其AI Engine、可编程逻辑(PL)和处理器核(APU)时,如何划分传感器数据预处理、特征提取、融合决策的任务,并解决异构计算单元间数据搬运的带宽瓶颈?
我的毕业设计想做一个前沿的端侧多模态感知融合系统,使用Versal AI Edge平台。传感器计划用摄像头和毫米波雷达。我了解到Versal有AI Engine(向量处理器)、可编程逻辑PL和ARM处理器核APU。现在很困惑如何合理地进行软硬件任务划分:1. 图像预处理(去噪、畸变校正)和雷达点云预处理(滤波)放在PL还是APU?2. 视觉特征提取(如CNN)和雷达特征提取放在AI Engine还是PL?3. 最后的融合决策算法(如卡尔曼滤波)放在哪里?最关键的是,这些异构单元之间(如PL到AIE,AIE到APU)的数据交互带宽可能成为瓶颈,应该如何设计数据流和片上存储(如DDR、NoC)来优化?有没有类似的设计参考或最佳实践?