近日,北京大学人工智能学院的孙仲研究员团队搞了个大新闻,他们弄出了一款全新的模拟计算芯片,这下子可就不一样了。这个芯片的能效比,那是直接实现了数量级的突破。要知道现在人工智能发展得越来越快,数据量更是爆炸式增长,谁手里有高效又省电的算力,谁就能抢占先机。传统那种基于冯·诺依曼架构的数字芯片吧,在对付某些复杂计算任务的时候,那真是让人头疼。它计算复杂度高不说,内存访问慢如蜗牛,能耗更是大得惊人。 孙仲团队这次不走寻常路,把目光锁定在了模拟计算上。跟数字计算靠二进制0和1来算不一样,模拟计算直接用电流、电压这些物理量来干活。这种方式天生就适合并行处理、超低延时,功耗也低得让人眼馋,特别适合做矩阵运算这类重活儿。孙仲团队长期搞这一行,这次他们把阻变存储器(RRAM)和模拟计算给合二为一,弄出了全球第一款专门用来做“非负矩阵分解”的求解器芯片。 他们的设计思路很巧妙:一是利用RRAM器件的电导特性来直接表示矩阵数据,做到了计算存储一体化;二是设计了一种特殊电路,只需要最精简的硬件就能把最耗时的步骤一步搞定。这一搞,芯片的面积和功耗就都降下来了。 为了看看这芯片到底行不行,研究团队搭建了测试平台。在图像压缩这个任务上,它处理出来的效果跟全精度数字计算机差不多,还能省下50%的存储空间。在推荐系统训练这一块表现更是惊艳。在MovieLens 100k数据集上,跟主流数字硬件比起来,速度快了212倍,能效更是提升了4.6万倍。 这玩意儿的意义可不止是指标好看。它标志着我国在基础硬件上从理论到实现的链条打通了。而且它给解决算力需求猛增和能耗高的矛盾提供了一个好办法。 虽然离大规模量产还有点远,但这一次突破无疑增强了咱们在人工智能硬件创新上的战略布局。未来这类芯片很可能会在物联网、边缘智能这些领域发挥大作用。