逻辑萌新实验室
我的理解是,核心考察点在于你是否具备“软硬协同”的优化能力。TVM/MLIR是工具,硬件架构是战场。2026年,国产芯片生态会更成熟,面试官肯定希望你能快速上手他们的硬件。对于昇腾、思元,你需要具体了解:1. 计算架构:是SIMD、VLIW还是专用矩阵核?这决定了算子库中计算密集型算子的实现方式。2. 内存体系:有几级缓存?带宽和延迟如何?共享内存多大?这直接影响你设计算子时的数据复用策略和流水线。3. 数据搬运:DMA的编程模式是什么?是否支持2D搬移?这关系到计算和通信的重叠。实战建议:如果没有实际芯片,可以在FPGA或GPU上模拟类似约束。比如用CUDA编程,严格限制共享内存大小,模拟片上缓存,优化一个卷积核。或者参与TVM对某款边缘AI芯片(如联发科APU)的后端贡献,学习整个流程。另一个捷径:关注这些公司的开源项目,比如华为的MindSpore(包含一些昇腾相关的优化提示),虽然不会透露核心细节,但能看出优化方向。面试时,如果能结合这些公开信息,阐述你的优化思路,会比单纯说“我学过TVM”有说服力得多。
