2026年,想用FPGA实现一个‘实时视频插帧’的本科毕设,在Zynq平台上,如何对DAIN或RIFE这类深度学习模型进行硬件加速,并设计低延迟的帧生成流水线?
我是电子信息工程专业的大四学生,毕设想做一个基于FPGA的视频插帧系统,提升视频流畅度。看论文发现DAIN、RIFE这些深度学习模型效果很好,但计算量大。我手头有Zynq-7020开发板,资源有限。想知道如何对这些模型进行有效的剪枝、量化,并设计硬件架构(比如用HLS还是手写RTL)来实现实时处理?整个视频流的输入、处理、输出流水线又该如何设计才能保证低延迟?希望有具体的设计思路和优化技巧。