想用FPGA和HLS做一个‘实时双目视觉深度计算’的竞赛项目,在Zynq上如何划分PS和PL任务以达到最佳性能功耗比?
我们团队想参加一个嵌入式AI竞赛,选题是基于Zynq MPSoC平台的双目视觉深度估计。计划用PL部分做图像预处理(去畸变、校正)和代价计算,用PS部分运行SGM等优化算法。现在纠结架构设计:1. 用HLS将整个代价计算单元实现为硬件加速器,通过AXI Stream与PS交互,这样设计效率高吗?2. PS和PL之间的数据搬运(比如两路高清图像)会成为瓶颈吗?应该用HP端口还是ACP端口?3. 在资源有限的平台上,如何权衡计算精度(定点数位宽)和资源消耗/功耗?有没有类似的开源项目架构可以参考?求大神给些设计思路。