2026年,想用一块中低端FPGA(如Artix-7)完成‘基于CNN的微型无人机实时避障系统’毕设,在资源极度受限下如何实现算法压缩与硬件协同优化?
我是自动化专业的大四学生,毕设题目定了,想用FPGA实现一个微型无人机上的实时避障系统。受限于成本和体积,只能用像Xilinx Artix-7这类中低端FPGA,DSP和BRAM资源都很有限。我计划用一个小型的CNN(比如MobileNet或Tiny-YOLO的变种)来处理摄像头图像。现在最大的困惑是:如何在这么紧张的资源下,把神经网络模型部署上去并保证实时性(比如30fps)?我知道需要做模型剪枝、量化,但具体到FPGA上,该如何进行硬件架构设计才能最高效地利用有限的DSP块和BRAM?是应该用全流水线还是分时复用的方式?有没有一些针对资源受限场景的开源参考项目或设计方法论可以学习?