2026年,全国大学生FPGA创新设计大赛,选题‘基于FPGA的实时神经网络风格迁移系统’,在实现VGG网络特征提取与风格损失计算时,如何针对FPGA设计高效的卷积计算单元与矩阵运算模块,并在Artix-7这类资源受限平台上平衡处理速度与艺术效果?
我和队友计划参加2026年FPGA大赛,想做点有AI色彩又有展示度的项目,最终选了‘实时视频风格迁移’。我们参考了经典的Gatys算法(使用VGG网络),但知道全精度浮点模型在FPGA上不可能。目前思路是:对VGG网络做大幅度的剪枝和量化(比如到8位定点),然后在FPGA上实现卷积、池化等层。具体困惑在于:1. 风格迁移对特征图的质量要求较高,过度量化会导致艺术效果很差。如何确定一个合理的量化位宽(比如从浮点到8位定点)?有没有自动量化工具或协同设计方法?2. 在Artix-7上,如何设计一个既能复用又足够快的卷积计算单元?是用传统的滑动窗口,还是用im2col+矩阵乘?哪种更适合风格迁移这种需要多个卷积层串联的场景?3. 除了卷积,风格损失计算涉及大量的Gram矩阵运算(特征图的外积),这部分在硬件上如何优化?希望有做过类似AI+FPGA项目的朋友能给些架构设计和优化思路,避免我们走太多弯路。