2026年,全国大学生FPGA创新设计大赛,选择‘基于FPGA的实时手势识别与机械臂控制’作为赛题,在实现摄像头输入、CNN手势识别模型加速和PWM控制信号生成时,如何在一个Zynq平台上高效划分PS与PL的任务,并保证识别到控制的端到端低延迟?
我们团队计划用Xilinx Zynq-7000系列开发板参加FPGA大赛,题目是手势控制机械臂。技术链比较长:摄像头采集、图像预处理、CNN推理、结果解析、生成PWM控制机械臂。主要困惑在于软硬件协同:1. 哪些部分必须放在PL(可编程逻辑)做硬件加速(比如CNN卷积层)?哪些适合放在PS(ARM处理器)上跑软件(比如图像解码、控制逻辑)?划分的原则是什么?2. 如何设计PS和PL之间的数据通路(比如通过AXI DMA)来最小化数据传输延迟,避免成为瓶颈?3. 整个系统从识别到动作的延迟,如何测量和优化?有没有一些常用的 profiling 方法或工具?希望有做过类似项目的学长学姐分享经验。