北大突破模拟计算芯片技术:能效超GPU千倍,破解AI算力瓶颈
2025-11-11 浏览量:


  • 编译时间:2025-11-07

  • 编译者:刘飞

北京大学团队成功研制出基于阻变存储器的高精度模拟矩阵计算芯片,在求解128×128矩阵逆运算时,计算吞吐量达到顶级GPU的1000倍以上,能耗仅为传统方案的千分之一。该芯片首次实现24比特定点数精度,相对误差低至10??量级,攻克了模拟计算"算不准"的世纪难题。通过"存算一体"架构消除数据搬运能耗,有效突破冯·诺依曼架构的"内存墙"限制。

近日,北京大学人工智能研究院孙仲研究员团队与集成电路学院合作,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一芯片首次实现了在精度上可媲美数字计算的模拟计算系统,其相关成果发表在《自然·电子学》期刊。该芯片在求解大规模MIMO信号检测等关键科学问题时,展现出了百倍至千倍于当前顶级数字处理器(GPU)的计算吞吐量与能效。

模拟计算曾是计算机早期的主流技术,但随着任务复杂度增加,其精度和扩展性不足被数字计算取代。孙仲研究团队此次突破了模拟计算“算不准”的瓶颈,成功实现了16×16矩阵的24比特定点数精度求逆,相对误差低至10??量级,满足绝大多数科学计算和人工智能训练需求。在32×32矩阵求逆问题上,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128矩阵时,计算吞吐量达到顶级数字处理器的1000倍以上。 模拟计算芯片由于取消了数据转化为二进制数字流的过程,直接利用物理规律进行运算,消除了数据搬运的能耗,形成了显著的性能飞跃。这种技术不仅为AI、自动驾驶等关键领域提供了全新解决思路,还具有高并行、低延时、低功耗的优势,特别适用于电动汽车的能效管理需求。 总体而言,这一突破性的研究为未来计算技术的发展开辟了新路径,尤其是在AI和自动驾驶领域,其应用前景广阔,将带来显著的技术进步和能效提升。



Baidu
map