想用PYNQ-Z2开发板做‘基于FPGA的轻量级YOLO目标检测’毕设,在PS和PL之间传输视频流和数据,用什么架构最高效?
我的毕业设计题目定了,要用PYNQ-Z2(Zynq-7020)实现一个轻量化的YOLOv3-tiny目标检测系统。我知道需要把神经网络模型部署到PL端做加速,PS端跑Python做预处理和后处理。现在最困惑的是PS和PL之间的数据交互架构:是用AXI DMA通过HP口进行高速数据传输,还是用更简单的AXI GPIO或者AXI Stream?视频流(比如来自USB摄像头)是应该先在PS端用OpenCV解码成帧,再传给PL,还是可以让PL直接通过VDMA接收原始数据?希望有做过类似项目的大佬能给个高效的架构建议,避免我走弯路。