FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
登录
首页-所有问题-其他-正文

2026年,芯片行业热议‘存算一体’,对于做传统数字IC或FPGA设计的工程师,想切入这个新兴方向,需要从学习哪些基础知识和仿真工具开始?前景和挑战如何?

FPGA学号4FPGA学号4
其他
10小时前
0
0
4
最近总看到存算一体(Computing-in-Memory)的新闻,说是能突破冯·诺依曼瓶颈,感觉是未来芯片的一个热点方向。我目前是做数字前端设计的,用的都是标准单元库和SRAM。如果想了解甚至未来转向存算一体设计,应该从哪入手?需要去学半导体器件、新型存储器(如RRAM, MRAM)的原理吗?有没有像Cadence或Synopsys提供的相关仿真工具链?这个方向目前是学术界火热还是工业界已有落地?对工程师的技能要求是不是完全不同了?
FPGA学号4

FPGA学号4

这家伙真懒,几个字都不愿写!
224700
分享:
2026年春招,模拟IC设计工程师的笔试中,关于‘带隙基准电压源(Bandgap)’的题目通常怎么考?会要求手算推导温度系数补偿,或者分析运放失调对输出电压的影响吗?上一篇
2026年,想从零开始学习FPGA并最终找到数字IC验证工作,一份为期12个月的‘保姆级’自学路线图应该包含哪些具体阶段、学习资源、项目与求职准备?下一篇
回答列表总数:7
  • 电子工程学生

    电子工程学生

    哈,我最近也在看这个方向,分享一下我的实操路线。我是做FPGA的,所以直接从算法映射切入的。

    第一步,我先用Python搭了一个简单的存算一体仿真模型,模拟一个理想化的交叉阵列(crossbar)做矩阵向量乘。这不需要器件知识,就能理解核心计算模式。代码网上很多开源,改改就行。

    第二步,去学一点基础的非易失存储器原理,比如RRAM怎么通过电阻状态存数据,但不用深究物理机制,重点看它的电学特性(如阻值范围、非线性)对电路设计的影响。推荐看几篇TED或IEDM的教程类文章,比较易懂。

    工具方面,Cadence其实有解决方案,比如Virtuoso平台下可以搭RRAM模型做混合信号仿真,但许可证贵且学习曲线陡。初学者可以用Cornell大学开发的‘RTSim’这类开源工具,或者用Cadence的免费教学版(尺寸有限制)体验一下。

    关于前景,我觉得现在有点像AI芯片爆发前夜,学术界在疯狂发论文,工业界开始有初创公司和大厂布局(比如三星、台积电都在推MRAM/RRAM工艺),但大规模量产还没到。挑战在于工艺不成熟、设计方法论缺失,而且系统级优化需要算法、架构、电路、器件的人紧密合作,对工程师的跨领域协作能力要求高。

    如果你在传统数字IC,可以关注一下公司内部有没有相关项目,从参与FPGA验证或架构建模开始转,比完全自学更高效。

    3小时前
  • 电子爱好者小张

    电子爱好者小张

    作为同样从数字前端转过来的,我的建议是先别急着啃器件物理。存算一体核心是‘架构创新’,你得先理解它怎么打破内存墙。建议第一步找几篇综述看,比如《A Survey of Computing-in-Memory: Architectures and Applications》,搞懂几种主流架构:基于SRAM的存内计算(虽然还是传统存储器,但设计思路变了)、基于新兴非易失存储器(如RRAM)的存内计算。这能帮你建立框架。

    工具链方面,学术界用得多的是基于Cadence或Synopsys定制流程,或者用一些开源框架如MAGNet、NeuroSim。但工业界目前还没像数字前端那样成熟的标准EDA链,很多公司是自研工具或合作开发。你可以先下载NeuroSim这类仿真平台跑一跑,它集成了器件、电路和架构级模型,能直观感受设计权衡。

    前景肯定火,但挑战也大。对工程师来说,技能栈要拓宽:除了RTL设计,可能得懂点器件特性(比如RRAM的IV非线性、耐久性)、模拟/混合信号电路(因为存内计算常涉及DAC/ADC)、甚至算法映射(如何把AI算子映射到存内阵列)。不过如果你是FPGA背景,其实有优势——很多存算一体原型是用FPGA验证的,你可以从用FPGA模拟存内计算阵列开始,再慢慢深入。

    总之别怕,先当个‘架构级’玩家,再补底层知识。

    3小时前
  • Verilog代码新手

    Verilog代码新手

    我刚好在课题组做存算一体芯片设计,分享点实际经验。基础知识必须学:半导体器件(MOSFET基础)、新型存储器原理(RRAM/MRAM的IV特性)、还有模拟/混合信号电路,因为存算一体常涉及模拟计算。工具方面,Cadence Virtuoso做电路仿真,配合Compact Model(如RRAM的Verilog-A模型)是常见组合;数字部分你熟悉的Vivado/Quartus也能用,但整体流程得自己搭。工业界开始有产品,比如存内计算AI芯片,但规模不大;学术界更前沿。技能要求变化大,你得拥抱‘跨层设计’,从器件到算法都要懂点。建议先找个开源项目(比如用FPGA模拟存算阵列)动手,光看书不行。挑战多,但机会也多,适合愿意学新东西的人。

    5小时前
  • 芯片验证新人

    芯片验证新人

    从FPGA转存算一体,我觉得可以走‘架构-电路’结合的路子。先别死磕器件物理,而是从系统层面理解:存算一体怎么打破内存墙,它的计算模式(比如乘累加)怎么映射到硬件。学习上,推荐看ISSCC、VLSI上的存算一体论文,重点看架构创新。工具链现在没标准流程,但可以用Verilog-A/AMS做行为级建模,配合MATLAB验证算法。工业界目前还在研发阶段,大厂像英特尔、三星有布局,但量产少;学术界更活跃。挑战在于设计方法论不成熟,需要你既懂传统数字流程,又能和器件工程师沟通。前景不错,尤其适合AI加速,但得耐得住前期探索的寂寞。

    5小时前
  • 数字系统萌新

    数字系统萌新

    存算一体确实火,但别急着跳进去。你目前做数字前端,优势是对电路和RTL熟,这是基础。建议先补半导体器件和新型存储器原理,比如RRAM、MRAM的工作机制,不用钻太深,但得懂它们怎么存数据、怎么实现计算。仿真工具方面,学术界常用CrossSim、NeuroSim这类专用框架,工业界的话Cadence和Synopsys也在推相关工具,但还不成熟,可以先从论文里找开源工具练手。前景上,存算一体在AI边缘端有潜力,但挑战很大,比如器件变异、可靠性问题。技能要求确实不同,得跨电路、器件、架构,但你的数字设计经验能帮你快速理解计算部分。

    5小时前
  • EE萌新笔记

    EE萌新笔记

    同是数字设计转过来的,分享点实际经验。第一步,先把基础补上:计算机体系结构(特别是内存层级)、数据存储和移动的能耗分析。这些能帮你理解冯·诺依曼瓶颈到底卡在哪。第二步,学习新型存储器基础,不用钻到物理层面,但得知道RRAM、MRAM、PCRAM的基本特性(比如如何表示数据、读写速度、耐久性)。第三步,动手仿真。可以用Cadence Virtuoso做电路级仿真(如果公司有license),或者用开源的NGSPICE搭简单模型。同时关注业界动态,比如知存科技、九天睿芯等国内初创公司的产品,看看他们用了什么技术栈。前景方面,个人觉得模拟存算一体在低精度推理场景(如语音唤醒、图像识别)会更快商用,但数字存算一体可能更容易融入现有设计流程。挑战在于,这个领域还在快速变化,今天学的明天可能过时,所以保持学习心态很重要。另外,对工程师的要求确实更全面了,得懂点算法、电路,甚至器件,但核心的数字设计技能(如RTL、验证)依然有价值,因为很多存算一体芯片里还是会有传统数字模块。

    5小时前
  • FPGA萌新上路

    FPGA萌新上路

    存算一体确实火,但别被新闻吓到。你已经有数字前端基础,这是优势。我建议先别急着啃器件物理,而是从架构和算法层面切入。找几篇综述论文看看,理解存算一体到底解决了什么问题,有哪些主流架构(比如数字存算、模拟存算)。然后可以玩一些开源工具,比如清华大学发布的MNSIM(模拟存算仿真平台),或者UCSB的PRIME模拟器。这些能帮你快速建立直觉,知道设计时需要考虑的trade-off(精度、能效、面积)。工具链方面,工业界还在发展中,但Cadence和Synopsys确实有开始布局,比如针对新型存储器的模型和仿真支持,可以关注他们的最新发布。前景上,我觉得短期内在边缘AI、物联网端侧会有落地,因为对能效要求极高。挑战嘛,设计流程不标准化,需要跨领域知识(电路、器件、架构),而且测试验证可能更复杂。但如果你能成为早期掌握这套技能的人,机会肯定不少。

    5小时前
我要回答answer.notCanPublish
回答被采纳奖励100个积分
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
请先登录