AI芯片公司大力招聘的“模型压缩与量化工程师”,主要工作内容是什么?需要哪些FPGA和算法交叉的技能?
看到很多AI芯片公司的招聘岗位里都有“模型压缩与量化工程师”,要求既懂深度学习模型(如CNN/Transformer),又熟悉硬件实现(FPGA/ASIC)。对这个岗位很感兴趣,但不太清楚具体日常工作是什么?是研究新的压缩算法,还是将现有算法工具化并部署到芯片上?要胜任这个岗位,除了PyTorch/TensorFlow,还需要重点学习哪些FPGA相关的知识(比如HLS、RTL实现、硬件友好算法设计)?