嵌入式小白菜
简单说,要求很深。体系结构不能只懂课本知识,得结合真实芯片(比如华为昇腾、寒武纪、英伟达的架构)去理解。AI框架要掌握计算图优化、内存分配策略。
算子实现方面,手写是基本功,尤其是核心算子(如矩阵乘)。面试可能会让你手写一个简单的算子优化代码,或者讨论如何平衡开发效率和性能。
工作中,优化现有算子和开发新算子都会涉及,取决于芯片迭代速度。建议你提前学习TVM/MLIR,并研究开源AI芯片的编译器代码(如Google的XLA)。
简单说,要求很深。体系结构不能只懂课本知识,得结合真实芯片(比如华为昇腾、寒武纪、英伟达的架构)去理解。AI框架要掌握计算图优化、内存分配策略。
算子实现方面,手写是基本功,尤其是核心算子(如矩阵乘)。面试可能会让你手写一个简单的算子优化代码,或者讨论如何平衡开发效率和性能。
工作中,优化现有算子和开发新算子都会涉及,取决于芯片迭代速度。建议你提前学习TVM/MLIR,并研究开源AI芯片的编译器代码(如Google的XLA)。
我去年面试过几家AI芯片公司,感觉他们特别看重实践能力。体系结构方面,你得懂目标芯片的微架构细节,比如张量核怎么工作、片上内存有多大、数据如何搬运。AI框架要深入到源码级别,至少能看懂算子实现和调度逻辑。
工作中,大部分时间是在优化已有的算子库,但遇到新算子或新硬件特性时,手写实现是必须的。面试官可能会问:如果硬件不支持某种操作,你如何在编译器层面做等价变换?或者给你一个算子的伪代码,让你分析如何映射到硬件上。
建议你多关注行业动态,比如Chiplet、存算一体等新技术对编译器的影响。同时,动手做一些小项目,比如用MLIR定义一个自定义算子并生成代码,这会让你在面试中更有底气。
从我的经验来看,2026年这类岗位的核心要求会更高,因为技术迭代很快。你需要对计算机体系结构有扎实的理解,特别是内存层次结构、并行计算模型(SIMD/SIMT)、数据流架构等。AI框架方面,不能只停留在会用PyTorch/TensorFlow,必须理解其计算图构建、自动微分、算子调度等内部机制。对于Transformer/CNN等模型,要清楚其计算和访存特征,比如注意力机制的数据依赖和并行性。
关于算子实现,通常公司会有基础算子库,但工作中你很可能需要针对新模型结构或硬件特性,手写或深度优化算子。例如,为新的硬件单元(如新型张量核)实现高效的卷积或矩阵乘。面试可能会让你现场分析一个算子的性能瓶颈,或者讨论如何优化。
建议你深入学习TVM、MLIR等现代编译器框架,并动手实践一些算子优化项目,比如用CUDA或OpenCL写一个卷积核并优化。
哈,我也是做编译优化的,刚入行AI芯片编译器不久。说说我的感受。
你提到的几个点都很关键。对AI模型结构的了解,不需要你成为训练专家,但必须懂它们的基本计算模式和数据特点。比如Transformer里的注意力机制,你得清楚它大量是矩阵乘和softmax,这样才能在编译时做融合、切分等优化。CNN的卷积各种变体也得门清。
对芯片微架构的了解程度,直接决定你优化的天花板。你得知道张量核怎么喂数据效率最高,片上SRAM怎么当缓存用,数据在内存层次间搬运的代价。这些光看书不够,最好能拿到芯片的编程手册或仿真器跑一跑。
工作中,手写算子的情况比想象的多。虽然公司有基础算子库,但新模型层出不穷,新算子或者现有算子的新组合总会出现。很多时候,通用优化不够,就得你手动设计针对性的实现。面试肯定会考察你这方面能力,可能不会让你写完整代码,但优化思路(比如怎么减少内存访问、提高并行度)一定会问。
建议你重点看MLIR这类现代编译器框架,它正在成为行业事实标准。同时,保持对硬件和AI模型两端的跟踪,这个岗位本质是桥梁,两边都得懂。
这个问题问得很实际,2026年这个岗位的要求只会更高,因为AI芯片和模型都在快速演进。
首先,计算机体系结构和AI框架的掌握是核心,不是选修。体系结构方面,你必须对目标芯片的微架构(比如张量核心、片上存储层次、数据流架构)有深入理解,这样才能做有效的映射和优化。AI框架方面,不能只停留在调用API,需要对PyTorch/TensorFlow的底层执行机制、计算图构建、自动微分等有清晰认识,特别是像Transformer这种主流模型的层间依赖和数据流动。
关于算子实现,我的经验是:工作中大部分时间是在优化已有的算子库,比如针对特定硬件调整循环展开、数据布局、内存访问模式,以榨干硬件性能。但绝对需要具备手写算子实现的能力,因为总会遇到新算子或现有算子无法满足性能需求的情况,这时就需要你从零开始设计高效的实现。面试中很可能会让你现场分析或手写一个简单算子(比如GEMM)的优化伪代码,来考察你的底层思维。
所以,建议你从现在开始就双线深入:一是夯实体系结构基础,多读经典论文和芯片白皮书;二是动手实践,尝试在GPU或模拟器上优化一些算子,甚至参与开源AI编译器项目(如TVM、MLIR),这样到2026年你才会有足够的竞争力。