2026年,想用FPGA复现一篇顶会论文的‘近似计算(Approximate Computing)’硬件加速器作为科研项目,在算法误差容忍度和硬件资源/功耗优化之间,应该如何进行系统性的权衡与评估?
导师给了一个方向,让我用FPGA实现一个基于近似计算的图像处理或AI推理加速器,参考的是DAC或ICCAD上的论文。我大概懂原理,比如用近似加法器、乘法器来换功耗和面积。但具体做的时候很迷茫:怎么定量评估我引入的误差对最终应用(比如分类精度)的影响?除了仿真,有没有成熟的框架或指标(比如EDP、误差距离)来做这种权衡分析?在写论文时,这部分评估应该怎么做才能有说服力?希望有经验的学长学姐指点一下。