2026年,芯片行业‘AI编译器工程师’岗位需求激增,对于传统FPGA或数字IC设计背景的同学,转型需要重点学习哪些关于计算图优化、算子融合和硬件目标代码生成的核心技术?
看到很多AI芯片公司都在招聘‘AI编译器工程师’,薪资很有吸引力。我目前是做FPGA逻辑开发的,熟悉硬件描述语言和硬件架构,但对软件栈和深度学习框架了解不深。想请教各位前辈,如果想在2026年切入这个方向,需要系统学习哪些知识?是应该深入研究TVM、MLIR这类编译器框架,还是先扎实掌握PyTorch/TensorFlow的模型部署流程?对于硬件背景的人来说,转型的难点和优势分别是什么?