2026年,全国大学生FPGA创新设计大赛,做‘基于FPGA的实时视频风格迁移’项目,如何平衡神经网络模型的精度与硬件推理速度?
我们团队计划参加今年的全国大学生FPGA创新设计大赛,选题想做一个‘基于FPGA的实时视频风格迁移’系统。初步调研了AdaIN、Fast Style Transfer等轻量级模型。现在最大的挑战是:在有限的FPGA资源(比如Zynq-7020)上,要实现视频流(如720p@30fps)的实时处理,必须在模型精度和推理速度之间做权衡。想请教:1. 有哪些特别适合FPGA硬件部署的、兼顾速度与效果的风格迁移网络或压缩方法?2. 在硬件架构设计上,是采用全流水线还是分块处理更优?如何充分利用片上BRAM和DSP资源?3. 大赛评委对于这类AI+FPGA的项目,更看重创新性、工程完整性还是最终演示效果?我要回答answer.notCanPublish回答被采纳奖励100个积分