算力赛道“奇兵”:模拟计算芯片破壁而来

近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统,相关成果10月13日刊发于《自然·电子学》期刊。据报道,该款芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。
这样一则技术性极强的新闻“刷屏”各大媒体平台,其“破圈”背后不仅仅是芯片技术的重大突破,更因为它击中了当前数字算力增长放缓、能耗激增的全球性痛点,为AI、自动驾驶等关键领域的算力困境提供了一个全新的解决思路。
从算不准到精准计算的复兴
据了解,数字计算的统治地位并非与生俱来。在计算机的早期岁月里,模拟计算曾是绝对主流,它通过连续的物理量直接表达和处理信息。然而,随着计算任务日益复杂,模拟计算在精度和扩展性上的局限日益凸显,最终让位于能够提供绝对精确结果的数字计算。孙仲谈到:“如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥先天优势,一直是困扰全球科学界的‘世纪难题’。”
对于大多数习惯数字计算机(二进制)的公众而言,模拟计算是一个既古老又新奇的概念。孙仲用生动的比喻对其进行解释:“现在的所有芯片都是数字计算,数据需先转换成0和1的符号串。比如,数字‘十’,需要转译成‘1’和‘0’,计为‘1010’。”同样地,如果用二进制来表示“1+1=2”,则应记作“1+1=10”。
模拟计算则无需这层“转译”,它是一种“类比计算”。一位模拟芯片企业相关负责人对记者解释说,传统模拟芯片的“模拟”,是将自然界的物理常量信号(例如声、光、热等),模拟成同样是常量的电信号(电压、电流)。也就是说,数字“十”,可以直接用10伏或10毫伏的电压来表示。模拟芯片通常处理的都是这种电信号,然后通过模拟数字转换器(ADC)将之转换为数字信号,传输至CPU/MCU进行计算处理。
模拟计算机在计算机发展早期(上世纪30~60年代)曾被广泛应用,但随着计算任务日益复杂,其精度瓶颈凸显,逐渐被数字计算取代。孙仲指出,此次研究的核心正是要解决模拟计算“算不准”这一痛点。
据悉,研究团队在试验中成功实现了16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10<sup>﹣7</sup>量级。这种精度水平足以满足绝大多数科学计算和人工智能训练的需求。更令人惊叹的是研究成果的性能表现:在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128矩阵时,计算吞吐量达到顶级数字处理器的1000倍以上。这意味着传统GPU需要处理1天的任务,这款模拟计算芯片仅需1分钟即可完成。
这种性能飞跃源于模拟计算的本质优势。当前的CPU和GPU均采用冯·诺依曼架构,将计算和存储单元分离,形成了著名的“内存墙”问题——数据需要在存储器和处理器间频繁搬运,消耗了大量时间和能量。而基于阻变存储器的模拟计算芯片,实现了真正的“存算一体”,取消了将数据转化为二进制数字流的过程,直接利用物理规律进行运算,从根本上消除了数据搬运的能耗。一位芯片工程师向记者介绍说:“阻变存储最大的特点就是既能存储又能计算。现在,计算的很大瓶颈在于带宽,而用阻变存储结构计算就不用搬运数据,也就不受带宽限制了。”
汽车产业计算革命新引擎
作为早期计算机的核心技术,模拟计算通过物理定律直接运算,具有高并行、低延时、低功耗的先天优势。然而,由于传统模拟计算精度低、难扩展,逐渐被高精度、可编程的数字计算取代,成为存于教科书中的“老旧技术”。尤其随着人工智能、互联网、大数据拓展至更多应用领域,对数据、算力、算法的需求成倍增长,高性能芯片成为重要的硬件载体。
以往,数字芯片负责思考和计算,模拟芯片负责感知和执行。如今,随着科学研究的进展,这一格局或发生改变。关于应用前景,孙仲认为,模拟计算在未来AI领域的定位是强大的补充,最有可能快速落地的场景是计算智能领域,如机器人和人工智能模型的训练。
在汽车产业加速迈向电动化、智能化的今天,模拟计算技术的突破也具有特别意义。随着自动驾驶等级提升和智能座舱功能丰富,汽车对算力的需求正呈指数级增长。传统的数字芯片虽然能够提供可靠的算力基础,但功耗和散热问题逐渐成为制约因素。
乐观派人士认为,模拟计算芯片的低功耗、高能效特性,恰好契合了电动汽车的能效管理需求。当解决128×128矩阵求逆问题时,模拟计算芯片的计算吞吐量达到顶级数字处理器的1000倍以上,而能耗仅为传统方案的千分之一。这种能效优势直接转化为电动汽车的续驶里程提升,也为配装更复杂的感知与决策系统提供了可能。
孙仲特别指出,与其他“存算一体”方案相比,他们团队的特色在于专注于更具挑战性的矩阵方程求解——这正是AI二阶训练的核心。在自动驾驶领域,这意味着车辆能够更快地处理多传感器融合数据,实时完成复杂的环境感知和决策计算。传统GPU需要数小时完成的训练任务,在新款模拟计算芯片上可能仅需几分钟,有望大幅缩短自动驾驶算法的迭代周期。
然而,产业界的看法更为审慎。一位就职于智能芯片企业的工程师刘峰(化名)告诉记者:“我研究生阶段的课题,就是围绕阻变存储器展开的。而该项技术在我涉足之前的10多年便已启动研究,至今仍未能实现规模化落地。因此,我对这一模拟计算技术的应用持观望态度。”在他看来,除非阻变存储器能够在容量上突破TB级别,否则难以支撑芯片的大规模实际应用。
另一位汽车芯片企业负责人则从概念层面进行了辨析:“研究成果应被归类为模拟计算芯片,而非广义上的模拟芯片。我认为,就本质而言,它更接近数字芯片的范畴,因其对标的是CPU与GPU这类数字处理器。”这位汽车芯片企业负责人表示,这一研究在学术界可能受关注程度不低,但在产业领域还是一个新事物。
实验室到产业化长路漫漫
尽管应用前景值得期待,但模拟计算芯片从实验室走向产业化,特别是应用于要求严格的汽车领域仍面临多重挑战。可靠性是首要关卡,汽车电子需要承受-40℃~125℃的温度变化、高强度振动和电磁干扰,而阻变存储器件的耐久性和稳定性在复杂车载环境下尚待验证。刘峰直言:“现在数字芯片够用了,而且汽车工况更复杂,模拟芯片对电磁的干扰问题并没解决,其落地的实用性可能不大。”
成本与供应链是另一大挑战。数字芯片经过数十年发展,已形成成熟的规模化制造和供应链体系。相比之下,模拟计算芯片特别是基于新型阻变存储器的芯片,仍处于实验室到产业化过渡的早期阶段。刘峰强调:“产品要谈规模,数字芯片经过多年发展,以规模平摊了成本,但新型模拟数字芯片量产还早,恐怕短期内成本无法降下来。”这种成本劣势在价格敏感的汽车行业无疑是一大短板。
技术成熟度同样不容乐观。据悉,阻变存储的基础材料体系仍未完全确定,器件的一致性和可靠性距离车规级要求的“零失效”标准还有相当距离。正如刘峰透露的:“阻变存储的材料都还没确定到底用啥,目前还是在实验室阶段。”这意味着从材料选择到制造工艺,整个技术链条都需要重新建立和完善。
面对这些挑战,孙仲保持了理性的期待。他强调,模拟计算在未来AI领域的定位是强大的补充,而非替代。“因成熟度与经济性,CPU作为通用‘总指挥’难以被淘汰。GPU则专注于加速矩阵乘法计算。我们的模拟计算芯片,旨在更高效地处理AI等领域最耗能的矩阵逆运算,是对现有算力体系的有力补充。”这种互补共存的思路,或许是最为现实的发展路径。

