劳伦斯伯克利国家实验室的一群科学家,想出了个好办法,他们在1月10日发表了一篇论文,给

大家都知道,现在AI发展得太快,大家都在关心它的能耗问题。劳伦斯伯克利国家实验室的一群科学家,比如斯蒂芬·怀特拉姆和科内尔·卡塞特,最近就想出了个好办法,他们在1月10日发表了一篇论文,给这事儿开了条新路。传统的计算机用的是晶体管开关状态的二进制逻辑,虽然能干很多复杂活,但这玩意儿特别费电,就像要用水泵把水抽上山一样费劲。随着模型越来越大,数据中心的耗电问题让很多人都发愁。比如训练一个大型AI模型,碳排放可能比一辆普通汽车一辈子的还多。 怀特拉姆他们这次没打算再跟自然对着干了,而是转向了自然界的基本规律。他们搞出了一种叫“热力学计算”的理论框架。简单说,就是把环境里的热噪声利用起来,当成推动计算的动力。这就好比是让水顺着地势自己往下流。研究人员设计了一套精密的物理系统,让计算过程变得特别省力。这种模式要是在图像生成这类任务上用起来,能耗理论上能降到传统数字计算的百亿分之一。 光有理论不行还得看实践。他们在1月20日又发了一篇文章证明可行性。更让人惊喜的是纽约那边的Normal Computing公司已经动手造芯片了。这个原型有八个谐振器连在一起,不用专门加电制造随机性,而是直接利用环境里的热波动来驱动。等系统达到热平衡的时候,谐振器的位置排布就代表了计算结果。这一套办法省去了模拟热噪声的大笔开销。 不过话说回来,现在这东西还只是个雏形离真正替代英伟达GPU这种成熟硬件还差得远呢。要想大规模用起来还得攻克三个大难关:一是找更好的材料让系统更灵敏;二是设计新算法发挥物理计算的特长;三是制定一套完整的工程标准。 这项研究意义重大,它标志着人工智能硬件开始学大自然的做法了。虽然从实验室到商用还有很长的路要走,但它展示出来的节能潜力确实让人期待。毕竟绿色发展现在可是全球都在关注的话题,不管是科学界还是产业界都应该多盯着这事儿看。