2026年,想用FPGA实现一个‘实时视频去雨’的本科毕设,在资源受限的Artix-7平台上,如何对基于物理模型的算法进行硬件加速,并与基于深度学习的轻量级去雨模型进行效果与实时性对比?
我是电子信息工程专业的大四学生,正在做毕设选题。想用FPGA做一个实时视频去雨系统,目标是能在Artix-7这类资源有限的开发板上跑起来。我调研发现,去雨算法有基于物理模型(如导向滤波)的传统方法,也有基于CNN的深度学习模型(如轻量化的RainNet)。我的困惑是:1. 如何在硬件上高效实现传统算法的流水线,比如如何并行化处理?2. 如果要用轻量CNN,如何对模型进行极致的定点量化与硬件架构映射,以在有限的DSP和BRAM资源下满足实时性?3. 如何设计一个公平的对比框架,从PSNR/SSIM指标和帧率/功耗两方面评估两种方案的优劣?希望有经验的学长或工程师能给一些架构设计和优化思路。