2026年,芯片行业热议‘GPU和AI芯片的架构创新’,对于做传统CPU或ASIC设计的工程师,是否有必要系统学习CUDA、张量核心(Tensor Core)以及相关编译优化技术?
在数字IC设计岗位工作了几年,一直做的是通用处理器或特定领域加速器(DSA)的前端设计。明显感觉到现在招聘市场上,对AI硬件、GPU加速经验的需求越来越大。虽然我的背景是硬件描述语言和微架构,但对软件栈(如CUDA编程、AI框架底层)了解不深。想问:
1. 为了不被时代淘汰,甚至抓住AI芯片的机会,像我这样的硬件工程师,需要深入学习CUDA、GPU架构(如NVIDIA的SM、Tensor Core)以及TVM/XLA这类编译器吗?学到什么程度才算有竞争力?
2. 这种‘软硬结合’的学习,对提升传统硬件设计能力(比如提升自己对并行性和内存层次的理解)有帮助吗?还是说这完全是另一个赛道?