2026年,想用FPGA实现一个‘实时视频去雾’的本科毕设,在资源受限的Artix-7平台上,如何对暗通道先验等传统算法进行硬件加速,并与轻量级深度学习去雾模型进行效果与性能的对比?
导师建议我做图像处理方向的FPGA毕设,目前对视频去雾很感兴趣。看到有基于暗通道先验的传统方法和一些轻量级CNN模型(如AOD-Net)。我的开发板是Artix-7 35T,资源比较紧张。想请教:1. 如何设计高效的硬件流水线来实现暗通道、透射率估计等核心步骤?2. 如果也想尝试部署一个极简的CNN去雾模型,在资源评估和性能权衡上,和传统方法比哪个更可行?希望有具体架构和资源分配思路。