FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
登录
首页-所有问题-其他-正文

2026年,芯片行业‘存算一体’技术成为新热点,对于从事数字IC设计或架构的工程师,需要提前了解哪些关于新型非易失存储器(如ReRAM, PCM, MRAM)特性、计算范式(如乘累加在内存中完成)以及与之匹配的电路与架构设计挑战?

单片机入门生单片机入门生
其他
2天前
0
0
8
最近看行业新闻和学术会议,存算一体(Computing-in-Memory)被讨论得越来越多,被认为是突破AI算力瓶颈的潜在方向。我是一名工作3年的数字IC设计工程师,主要做传统冯·诺依曼架构的芯片。感觉这个方向很有前景,想提前做一些知识储备。但存算一体涉及器件、电路、架构多个层面,有点无从下手。请问:1. 作为数字设计工程师,需要重点理解哪些新型存储器的电学特性(如读写速度、耐久性、密度)?2. ‘存算一体’具体有哪些计算范式?模拟计算和数字计算在电路实现上主要区别和挑战是什么?3. 在架构层面,如何设计数据流和控制器来高效利用存算一体阵列,并与传统计算单元协同?希望能得到一些学习路径和关键概念的梳理。
单片机入门生

单片机入门生

这家伙真懒,几个字都不愿写!
51831K
分享:
2026年秋招,应聘‘数字IC验证工程师’时,如果被问到‘如何搭建一个可重用的UVM验证平台框架?’,除了基本的组件(driver, monitor, scoreboard等),面试官会重点考察哪些关于寄存器模型(RAL)自动化、虚拟序列(virtual sequence)调度以及覆盖率驱动验证(CDV)集成的实战细节?上一篇
2026年春招,对于仅有FPGA课程设计经验的本科生,想应聘‘FPGA原型验证工程师’,该如何在简历中突出自己的硬件调试能力(如使用ILA、VIO)和脚本能力(Tcl/Python),并在面试中应对可能问到的实际调试案例?下一篇
回答列表总数:9
  • 芯片设计新人

    芯片设计新人

    我博士期间做存算一体电路设计,从更实操的角度说说。1. 存储器特性:数字工程师必须关注‘非理想性’,因为存算一体对器件偏差极其敏感。比如ReRAM的阻值分布很宽,写操作有随机性,这导致乘累加结果有误差。你需要理解这些误差如何建模(比如用统计模型),以及电路上如何补偿(比如写验证、读后校准)。2. 计算范式:模拟计算(电流/电压求和)能实现高能效、高并行度,但挑战是精度有限(通常8bit以下)、需要高精度ADC/DAC、对噪声敏感。数字计算(在内存中做布尔逻辑)精度高但并行度低。我建议你先学模拟计算的基础:怎么用跨导放大器、积分器实现乘加,以及怎么设计流水线型的存算阵列。3. 架构设计:核心是‘数据映射’问题。比如要把CNN的权重映射到ReRAM阵列,需要考虑阵列大小、权重精度、数据复用模式。控制器设计要处理数据分割、同步、错误管理。你可以用Gem5或SCALE-Sim这类仿真工具,对存算加速器建模,体验架构探索过程。最后提醒:存算一体还在早期,工业界更关注‘近存计算’(如HBM+计算单元),更容易落地,你也可以关注这个方向。

    3小时前
  • 单片机玩家

    单片机玩家

    作为同样从传统数字设计转过来的同行,我建议你先别急着深入器件物理层,而是从‘数字设计者能用什么’的角度切入。重点理解这些存储器的‘数字接口特性’就够了:比如ReRAM的写速度慢(微秒级)、读速度快(纳秒级),耐久性可能只有1e5次,这直接影响你设计控制器时的重写策略和磨损均衡。MRAM读写都快,但密度低,适合做缓存而非大阵列。PCM介于两者之间。你需要知道的是:它们的行为模型(比如写操作的非理想性、随机性)如何影响你设计的数字控制逻辑。计算范式方面,目前主流是模拟乘累加:利用欧姆定律和基尔霍夫定律,在存储阵列里一次完成多行乘加。但这对数字工程师挑战很大,因为涉及模拟信号链(DAC、ADC、模拟求和)。你可以先从数字存算一体入手,比如用SRAM/ReRAM做位级逻辑计算(IMPLY逻辑),虽然效率低但更贴近你的现有技能。架构上,关键是把计算‘推’到数据所在处,减少搬运。建议先读几篇ISSCC或VLSI上大厂(如三星、台积电)的存算一体芯片论文,看他们怎么划分模拟/数字边界,以及怎么用片上网络连接存算块和CPU核。

    3小时前
  • Verilog入门者

    Verilog入门者

    简单说几点实操建议。第一,器件特性:关注‘读写不对称性’和‘可靠性’。比如PCM写一次耗能高,架构就要避免频繁写;ReRAM阻值会漂移,电路需周期性校准。数字工程师至少要看懂器件SPICE模型,知道怎么在仿真中加噪声。

    第二,计算范式:主流是电压-电流转换的模拟计算,挑战是ADC精度和功耗的权衡。比如8位精度可能需要10位ADC,这占了大部分功耗。数字存算则用查找表或近内存计算,挑战是逻辑单元嵌入存储后的时序收敛。

    第三,架构:把存算阵列当成‘带计算功能的SRAM’来设计控制器。数据流上,采用脉动阵列或数据流架构,让数据在阵列间流动而不回写。协同方面,存算单元处理密集乘加,CPU/GPU处理剩余操作。学习路径:先看综述(如《Computing in Memory with Non-Volatile Devices》),再用Verilog写个简单的存算控制器,比如控制一个模拟阵列完成矩阵乘。注意,混合精度设计是趋势,可以从小位宽开始实验。

    4小时前
  • 数字电路萌新007

    数字电路萌新007

    我去年开始接触存算一体,感觉数字工程师转型的关键是跳出‘纯数字’思维。新型存储器的特性中,读写速度和耐久性直接影响架构:比如ReRAM写慢读快,适合权重固定的推理场景;MRAM读写都快但密度低,适合缓存。你不需要深究器件物理,但得知道这些参数如何约束电路设计,比如脉冲宽度、电压幅度怎么选。

    计算范式其实可以类比:模拟计算像‘流水线集体作业’,一次完成向量乘加,但怕干扰;数字计算像‘精确流水线’,逐位处理但步骤多。电路挑战主要是模拟计算需要校准电路来补偿器件漂移,数字计算则要解决存算单元之间的互连延迟。

    架构设计上,重点考虑‘数据搬运最小化’。存算一体阵列本身是计算单元,控制器要能把计算任务映射到阵列上,比如把CNN卷积拆分成矩阵乘。建议从经典论文如‘ISAAC’或‘PRIME’架构入手,用Python模拟一个存算加速器的工作流程,再思考如何集成到SoC中。工具方面,可以试试MLIR或TVM来做架构探索。

    4小时前
  • FPGA小学生

    FPGA小学生

    作为同行,我建议你先从存储器件特性入手,因为这是存算一体的物理基础。对于ReRAM、PCM、MRAM,数字工程师最需要关注的是它们的‘非理想特性’:比如ReRAM的阻值分布不均匀、写噪声大;PCM的写功耗高、耐久性有限;MRAM的读干扰和隧穿磁阻变化。这些特性直接影响电路设计,比如你需要用纠错码或冗余设计来容忍器件波动。

    计算范式方面,主流是模拟乘累加和数字位线计算。模拟计算利用欧姆定律和基尔霍夫定律在阵列内完成乘加,但精度受限于器件噪声和ADC精度;数字计算则用逻辑门在存储附近处理,精度高但面积开销大。挑战在于模拟计算需要高精度ADC/DAC和抗工艺偏差的电路,数字计算要解决内存带宽和布局问题。

    架构上,可以看看谷歌的TPU-like数据流,把存算阵列作为处理单元,用专用控制器调度数据局部性。建议先读ISSCC和VLSI上存算一体的论文,再动手用Verilog建模一个简单的模拟存算阵列接口,感受下数据转换带来的延迟开销。

    4小时前
  • 单片机入门生

    单片机入门生

    同是数字IC设计,感觉存算一体对架构思维要求更高了。我的学习路径是:先搞懂器件特性怎么影响电路设计。比如,ReRAM的IV非线性会导致读干扰,你在设计灵敏放大器时就得考虑;MRAM的隧穿磁阻变化率有限,可能影响模拟计算的动态范围。这些非理想性在传统数字设计里不常见,需要补课。

    计算范式方面,除了模拟和数字存内计算,还有混合模式。模拟计算电路挑战大:需要高精度DAC/ADC、抗工艺偏差的参考电路、以及温度补偿。数字存内计算更像是在存储器里嵌入计算逻辑,比如用存内加法树,设计挑战在于如何最小化面积开销和布线拥堵。

    架构设计上,我觉得核心是‘数据映射’和‘任务划分’。存算一体阵列通常作为加速器,通过NoC或专用接口与CPU/GPU协同。你需要设计控制器来管理数据搬运、精度缩放和错误恢复。一个常见坑是:忽略了阵列利用率,导致虽然计算能效高,但整体性能受限于数据搬运。建议多看看工业界原型(如IBM、Intel的演示),了解他们怎么平衡灵活性和效率。另外,可以玩一下架构模拟器(如SCALE-Sim),快速评估不同数据流对性能的影响。

    4小时前
  • EE在校生

    EE在校生

    作为数字设计工程师,我觉得首先要抓住新型存储器的核心电学特性,这些特性直接影响你的电路和架构设计。对于ReRAM、PCM、MRAM,你需要重点关注:1. 读写速度(尤其是写速度,通常比读慢很多,会影响计算吞吐);2. 耐久性(比如ReRAM写次数有限,可能只有1e5到1e6次,这决定了数据更新策略);3. 器件可变性(比如阻值分布不匀,导致计算精度问题);4. 密度(MRAM密度高,但可能计算效率不如ReRAM)。这些特性会直接映射到你的阵列设计、纠错方案和数据管理上。

    关于计算范式,主流是在内存中做乘累加(MAC)。模拟计算通常利用欧姆定律和基尔霍夫定律,用存储器的电导值代表权重,输入电压代表激活,输出电流就是乘积和。数字计算则是在存储阵列旁加逻辑,比如用数字存内计算单元。模拟的优势是能效高、并行度高,但挑战是精度受器件非理想性影响大,需要复杂的校准和补偿电路。数字计算精度有保障,但能效和密度可能不如模拟。

    架构层面,关键是设计数据流来隐藏存储器的读写延迟和耐久性问题。比如,你可以把频繁更新的数据放在传统SRAM或近存计算单元,而把训练好的权重映射到非易失阵列。控制器需要智能调度,可能涉及数据块划分、流水线设计和错误管理。建议从学术论文(如ISSCC、VLSI上的存算一体论文)入手,先理解几个经典架构,再看开源仿真工具(如MAGIC、NeuroSim)来加深电路级认识。

    4小时前
  • EE萌新求带

    EE萌新求带

    嘿,同行。我前一阵子也在琢磨这个,分享一下我的学习心得,比较零碎但可能对你有用。

    我觉得数字工程师学这个,得换个思路。传统设计里,内存和计算是分开的,数据搬来搬去。存算一体是想把计算塞进内存阵列里,所以你得先理解‘内存’变成了什么。那些新型存储器,比如ReRAM、PCM,它们本质上是个可编程的电阻。这就带来了乘累加计算的可能性:一个电压(代表激活值)乘以一个电导(代表权重),电流加起来就是结果。

    你需要了解的特性,对设计影响最大的是:器件的一致性(variation)和可靠性。同一批器件,电阻值做不到完全一样,而且写多次后会漂移。这导致模拟计算的结果不准,是模拟存算一体最大的坑。所以你会看到论文里各种校准、补偿电路。数字存算一体虽然精度高,但可能又走回了传统数字电路的老路,密度和能效优势打折扣。

    计算范式,除了大家说的模拟和数字,还有混合模式的。比如在模拟域做乘加,但很快转成数字信号做后续处理。电路挑战嘛,模拟那边主要是高精度低功耗的ADC和DAC太难做了,还有信号完整性。数字这边主要是怎么在内存单元旁边高效地‘长’出计算逻辑,布线拥塞是个问题。

    架构设计上,我觉得核心挑战是编程模型和工具链缺失。你怎么让软件工程师方便地用上这个硬件?数据怎么划分、映射到存算阵列上?控制器设计要考虑数据重用模式,尽量减少阵列内外的数据搬运。

    我的学习路径是:先看科普文章和综述,建立概念;然后找一篇经典的电路实现论文,跟着它的介绍,把数据流从头到尾走一遍,不懂的名词再去查;最后关注一下EDA工具方面的新进展,这对以后落地很重要。别一开始就扎进器件物理的公式里,容易劝退。

    2天前
  • 逻辑综合小白

    逻辑综合小白

    作为同样从传统数字设计转过来的,我理解你的困惑。存算一体确实跨了器件、电路、架构,但数字工程师的切入点可以更务实。

    首先,新型存储器的特性,你不需要像器件工程师那么深,但要抓住影响系统设计的几个关键点:读写速度(决定了存算阵列的吞吐和延迟)、耐久性(PCM/ReRAM写次数有限,这直接影响数据映射和磨损均衡策略)、电阻状态数目(多级还是二级,这决定了是模拟计算还是数字计算的基础)、以及密度(影响集成度和存储容量)。这些特性会直接传导到你的架构设计约束里。

    其次,计算范式主要有两大类:基于模拟电流/电压加权的乘累加(MAC)和基于数字逻辑的内存内计算。模拟存算一体利用欧姆定律和基尔霍夫定律,在交叉阵列里一次完成很多乘加,能效高,但挑战是器件非理想性(如电阻漂移、非线性)导致计算精度有限,需要复杂的校准电路。数字存算一体则是在存储单元旁加简单逻辑(如与门),做位级操作,精度有保障,但能效和并行度提升不如模拟显著。

    架构层面,核心是设计数据流,让需要频繁访问的权重数据驻留在存算阵列里,激活数据流经它完成计算。控制器要负责数据映射、调度以及处理模拟计算后的模数转换(ADC)结果。与传统计算单元协同,通常采用异构架构,存算阵列作为加速引擎,CPU/GPU作为控制器和负责非规则计算的部分。

    学习建议:先看几篇ISSCC或VLSI上大厂(如三星、台积电)或学术机构(如清华、UCSB)的存算一体电路论文,了解整体框图;然后重点学习数字设计相关的部分,比如存算阵列的接口、控制逻辑、纠错编码(ECC)和可靠性增强技术。器件物理特性暂时了解概念即可。

    2天前
我要回答answer.notCanPublish
回答被采纳奖励100个积分
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
请先登录