FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
登录
首页-所有问题-其他-正文

2026年,芯片行业热议‘GPU和AI芯片的架构创新’,对于做传统CPU或ASIC设计的工程师,是否有必要系统学习CUDA、张量核心(Tensor Core)以及相关编译优化技术?

码电路的小王码电路的小王
其他
1个月前
0
0
39
在数字IC设计岗位工作了几年,一直做的是通用处理器或特定领域加速器(DSA)的前端设计。明显感觉到现在招聘市场上,对AI硬件、GPU加速经验的需求越来越大。虽然我的背景是硬件描述语言和微架构,但对软件栈(如CUDA编程、AI框架底层)了解不深。想问: 1. 为了不被时代淘汰,甚至抓住AI芯片的机会,像我这样的硬件工程师,需要深入学习CUDA、GPU架构(如NVIDIA的SM、Tensor Core)以及TVM/XLA这类编译器吗?学到什么程度才算有竞争力? 2. 这种‘软硬结合’的学习,对提升传统硬件设计能力(比如提升自己对并行性和内存层次的理解)有帮助吗?还是说这完全是另一个赛道?
码电路的小王

码电路的小王

这家伙真懒,几个字都不愿写!
137991.81K
分享:
2026年秋招,应聘‘芯片模拟IC设计工程师’时,如果被问到‘为一个蓝牙耳机芯片设计超低功耗的LDO’,除了常规指标,面试官会如何考察对系统应用场景(如耳机待机、通话、音乐播放不同模式)的理解和功耗优化思路?上一篇
今年报名了FPGA集创大赛,有没有想一起组队的?下一篇
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
还没有人回答,第一个参与下?
我要回答
回答被采纳奖励100个积分
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
请先登录