2026年,芯片行业‘AI推理芯片’需求爆发,FPGA工程师转AI加速方向,需要掌握哪些关于模型量化和稀疏计算的新技能?
我是一名工作3年的FPGA工程师,主要做通信基站中的数字信号处理。看到AI推理芯片市场火爆,想转行做AI加速。听说现在FPGA上做神经网络推理需要掌握模型量化(如INT8/INT4)、稀疏计算和HLS工具链,但不知道具体要学哪些框架和协议?比如Xilinx的DNNDK、Vitis AI和TensorRT有什么区别?自学的话,推荐从哪个开源项目(如YOLOv5的FPGA实现)入手?