2026年,全国大学生FPGA创新设计大赛,如果选择‘基于FPGA的实时双目立体匹配与深度图生成系统’,在实现代价计算、聚合优化和视差计算时,如何利用FPGA的流水线和并行性来突破软件实现的实时性瓶颈?
准备参加2026年FPGA大赛,选题想做一个计算机视觉相关的硬核项目。看到双目立体视觉在机器人、自动驾驶中很重要,但软件实现(如OpenCV SGBM)很难实时。想用FPGA实现一个实时双目立体匹配系统,输出深度图。我知道核心步骤是代价计算(如Census)、代价聚合、视差计算。但具体到FPGA实现,如何为这些算法设计高效的流水线?如何利用并行性同时处理多个像素行或窗口?在资源有限的FPGA上(比如Zynq 7020),如何平衡处理速度、精度和资源消耗(BRAM、DSP)?有没有类似的开源项目架构可以参考?