2026年,全国大学生FPGA创新设计大赛备赛,如果选择‘基于FPGA的实时双目立体匹配与深度测距系统’,在实现高精度视差计算时,如何平衡算法复杂度与FPGA资源及实时性要求?
我们团队准备参加2026年的全国大学生FPGA创新设计大赛,选题初步定为‘基于FPGA的双目视觉深度测距系统’。核心难点在于立体匹配算法,像SGM(半全局匹配)虽然精度高,但计算量和存储访问需求巨大,对FPGA的BRAM和逻辑资源是极大挑战。而简单的局部匹配(如SAD)又怕精度不够。我们使用的开发板是Zynq-7000系列,资源中等。想请教一下,在FPGA上实现实时双目立体匹配,通常有哪些有效的优化路径?是应该对SGM等算法进行大幅简化(比如缩小视差搜索范围、降低路径数),还是采用更硬件友好的算法变种?在架构设计上,如何通过流水线和并行化来榨干FPGA性能?