2026年秋招,应聘‘AI芯片系统架构师’岗位,除了常见的面试题,现在是否会深入考察对Transformer模型硬件友好性优化、片上存储层次设计与数据流编排的实战理解?
我是一名有3年经验的数字IC设计工程师,目前想转向AI芯片架构方向。看到一些AI芯片公司开始招聘‘系统架构师’,要求对Transformer等大模型有硬件层面的理解。除了常规的计算机体系结构、性能建模问题,现在的面试是否会深入考察如何针对Transformer的注意力机制、FFN层进行硬件优化(如稀疏化、量化策略)?以及如何设计高效的数据流和片上存储(SRAM/HBM)来缓解带宽瓶颈?我应该如何准备这些可能出现的深度技术问题?