2026年,想用FPGA做‘实时视频超分辨率(Real-Time Video Super-Resolution)’的本科毕业设计,在Zynq UltraScale+ MPSoC平台上,如何划分PS和PL的任务,并利用DPU对轻量级SRCNN或ESPCN模型进行硬件加速?
我是电子信息工程专业大四学生,毕设想做一个有挑战性的FPGA+AI项目。初步想法是基于Zynq MPSoC平台,实现一个实时视频超分辨率系统。摄像头输入低分辨率视频,输出高分辨率视频。我的困惑在于:复杂的图像预处理(如对齐)和简单的后处理是否放在PS的ARM核上用C++做更灵活?而计算密集的CNN推理部分用PL端的DPU加速。但具体如何设计数据流,如何高效地在PS和PL之间传递视频帧数据(比如用VDMA),以及如何选择并部署合适的轻量级超分模型到DPU上,完全没有头绪。希望有经验的学长学姐能给一些架构设计上的指导。