芯片行业最近热议的‘存算一体’技术,对FPGA架构和编程模型会产生什么影响?
经常看到新闻和论文里提‘存算一体’(Computing-in-Memory),说是能突破冯·诺依曼瓶颈,是下一代AI芯片的重要方向。我主要做FPGA开发,好奇这项技术如果成熟并普及,会对现有的FPGA架构(比如Xilinx的CLB、Intel的ALM)产生什么冲击?FPGA需要集成新型的非易失存储器吗?更重要的是,对开发者而言,编程模型会不会发生根本性变化?我们以后写HDL代码的方式,或者用HLS的方式,需要怎么适应这种近存计算或存内计算的范式?现在有必要提前学习相关概念吗?