2026年,想用一块Xilinx Zynq-7000 SoC平台完成‘基于FPGA的智能视觉导览机器人’的本科毕设,在实现VGA摄像头采集、OpenCV算法移植(如目标检测)和电机控制时,如何高效进行PS(处理器系统)与PL(可编程逻辑)的软硬件协同设计与任务划分?
我的毕设题目是基于Zynq的视觉机器人,需要用PL部分做图像预处理加速,PS部分跑Linux和高级算法。目前对Zynq的架构有基本了解,但具体到项目,很困惑哪些模块应该用硬件(Verilog)实现,哪些用软件(C/Python)实现。比如,边缘检测用HDL写进PL会不会比用OpenCV在PS上跑更快?如何设计AXI总线进行PS和PL之间的高速数据交互?有没有类似项目的开源框架或设计思路可以参考?希望得到一些软硬件划分的原则和具体实现建议。