1000倍!一项中国团队的最新基准测试显示,他们研发的新型模拟芯片,在特定任务上的吞吐量(速度)是英伟达H100高端GPU的1000倍,能效更是提升了100倍。

这不仅仅是一次芯片的提速,而可能为人工智能和6G时代海量数据处理构建了一种全新的计算范式。这项重大突破来自北京大学科研团队,研究成果2025年10月13日发表在权威期刊《自然·电子学》(Nature Electronics)。

我们正处在一个数据爆炸的时代。从ChatGPT到6G通信,一切都依赖于超强的算力。但我们赖以生存的数字芯片,正一头撞上“冯·诺依曼瓶颈”这堵墙。

现在的计算架构,就像一个“快手厨师”(处理器)配上一个“远在天边的冰箱”(内存)。厨师90%的时间都浪费在了往返冰箱取食材的路上,耗时又耗电。这就是为什么你的GPU那么烫。

于是,科学家们从故纸堆里翻出了一个“老家伙”——模拟计算。

这是一种古老的技术,它不用1和0,而是直接用物理电路本身(比如电流电压)来进行计算。它的计算和存储是“一体的”。

厨师和冰箱合体了!理论上,它可以快得飞起,且极其省电。

但这个老家伙有个致命缺陷,一个困扰了学界百年之久的难题:它太“糊涂”了。

模拟信号极易受到干扰,算个加减法都可能出错。就像一个喝醉了的数学天才,速度飞快,但你永远不敢相信他的答案。因此,它一直被视为不切实际的屠龙之技。

直到今天,北大团队找到了驾驭这个“醉酒天才”的方法。

他们的思路堪称脑洞大开:我们不强迫他清醒,我们只让他干最擅长的事——快速出个大概,然后再找个清醒的助手来校准。

团队使用了一种叫RRAM(忆阻器)的新型芯片,设计了一套“迭代组合拳”:

 

  1. 第一拳(闪电战):先让一个“低精度”模拟电路(LP-INV)出马,它不管三七二十一,在120纳秒内(比眨眼还快几百万倍)先算出一个“粗略答案”。
  2. 第二拳(精准点穴):马上,另一个“高精度”模拟电路(HP-MVM)登场。它的任务不是重算,而是比较那个“粗略答案”和“标准答案”到底差了多少(即“残余误差”)。
  3. 循环迭代:然后,把这个“误差”再丢给第一个电路去算。

 

通过不断重复这个循环迭代(粗略求解 -> 精确修正误差 -> 再次粗略求解...),奇迹发生了!

北大团队的芯片,仅仅需要3次迭代,就达到了24位定点精度——这已经和英伟达 GPU使用的FP32浮点精度旗鼓相当。

空有理论还不行。团队直接把它用在了未来6G通信最难的“大规模MIMO”信号检测上。结果显示,这个模拟芯片的误码率,与FP32数字处理器算出来的结果“完全一致”。

既要又要还要,它全做到了!

这项研究的意义在于,它用一种巧妙的方式,把模拟计算的“超高速、超低能耗”和数字计算的“高精度”完美结合,一举攻克了百年难题。它不是又一块更快的数字芯片,它可能是一条全新的赛道,一个真正属于AI和6G时代的“存算一体”新计算范式。