2026年,全国大学生电子设计竞赛,如果选择做‘基于FPGA的激光雷达与视觉融合目标检测系统’,在实现点云与图像的时间同步、坐标转换和决策级融合时,如何利用FPGA的并行性优化算法并满足实时性要求?
我们团队准备参加明年的电赛,选题想挑战一下自动驾驶感知相关的方向,计划用FPGA做激光雷达和摄像头的融合。我们知道核心难点在于异构传感器数据的对齐和融合算法在硬件上的高效实现。FPGA有并行优势,但我们对点云处理(如聚类)和图像处理(如YOLO)的硬件加速架构了解不深。想请教一下,在资源有限的赛用FPGA开发板上,应该如何设计系统架构?是分别加速两种传感器的处理流程再融合,还是设计一个统一的处理流水线?有哪些关键模块(如坐标转换矩阵计算、特征提取)最适合用FPGA硬件加速?