2026年,芯片行业‘AI大模型推理芯片’成为热点,对于从事传统ASIC或FPGA设计的工程师,想切入这个领域,需要优先学习Transformer模型的结构特点、注意力机制的硬件实现,还是片上存储与数据流优化?
工作三年,一直在做通信或图像处理的ASIC/FPGA设计。看到现在AI大模型推理芯片招聘很火,薪资也高,很想转型。但感觉知识缺口很大,不知道从哪里下手效率最高。是应该先去啃透Transformer的论文和架构,还是重点研究如何用硬件高效实现矩阵乘、Softmax和LayerNorm?或者更应该学习像Google TPU、NVIDIA Hopper这种先进架构的存算一体、数据流设计思想?希望能有一个清晰的学习优先级和资源推荐。