2026年,想用Xilinx Zynq MPSoC(如ZCU104)完成‘边缘AI视频分析盒子’的毕业设计,在实现YOLO目标检测时,如何协同设计PS端(ARM A53)的视频流解码、预处理与PL端(FPGA)的神经网络加速,并通过AXI总线实现高效数据搬运?
我的毕设题目是基于Zynq MPSoC做一个边缘AI视频分析盒子,从HDMI输入视频,实时做目标检测和框显。我打算用PS端的ARM处理器跑Linux,负责视频捕获、解码和显示,用PL端的FPGA逻辑来加速YOLO网络。现在最大的技术难点是如何让PS和PL高效协同工作。比如,视频数据流怎么通过AXI总线从PS内存搬到PL端处理?处理完的结果又如何搬回去?DMA该怎么配置?PS和PL之间的任务划分和同步(比如中断)怎么做比较合理?有没有类似的开源项目架构可以参考?希望有Zynq开发经验的老师同学能给一些系统架构设计上的指导。