在这种新的芯片中,中国科学家们借助ACCEL和LightGen,已经展示出能够把基于光的AI芯片性能推向PetaFLOPS的能力。尤其是清华大学和上海交通大学合作开发的LightGen,被认为是光子技术在生成性AI领域最有力的证据。它拥有超过200万个光子神经元,运行风格迁移、去噪和3D图像处理等任务的速度比NVIDIA GPU快100倍,并且仅需后者十分之一的功耗。另外,清华大学独立研发的混合芯片ACCEL则结合了模拟电子与光子部件。这让它可以用中芯国际(SMIC)的技术来制造。虽然这款芯片在低光照视觉和图像识别方面效率极高,但它只能执行预设的数学运算。 ACCEL和LightGen这类光子芯片并不是要替代CPU或NVIDIA GPU那样的通用计算设备。它们实际上更像是为特定任务设计的模拟设备。这就好比将NVIDIA的GPU比作可编程计算机,那么这些光子芯片就相当于专门设计的工具。它们确实在特定任务上表现出色,比如视频制作和图像合成。但在灵活性和通用性上却不如前者。 要理解这种差异,我们可以看看NVIDIA A100这类产品是如何运作的。它们通过晶体管中的电子流动来逐步执行指令。这种方式让它们具备了运行多个程序的灵活性。但这也导致它们耗电且易发热,并且依赖先进的制造工艺才能生产。相比之下,把光子作为计算媒介的新架构则是利用光学干涉来进行运算。 这种运算速度极快且效率超高。不过这也带来了一些局限性:与NVIDIA GPU相比,这些芯片在灵活性方面相对较低;而且生产它们所需的制造工艺也相对老旧。这些性能指标看似惊人——4.6 PFLOPS代表每秒能处理10^15次浮点运算——但需要注意的是,这些芯片并不运行代码,也不处理像训练模型那样的内存密集型任务。 对于PFLOPS这个单位来说,它代表的是每秒一千万亿次的浮点运算。虽然听起来不可思议,但这些光子芯片永远无法像NVIDIA的芯片那样执行程序或替代电子设备中的GPU甚至CPU。这种专用性使得它们非常适合视觉相关的工作负载。然而这种优势仅限于特定领域。 换句话说,ACCEL和LightGen证明了基于光的人工智能硬件在狭窄任务中能比GPU高出几个数量级的性能表现。它们是专用的模拟机器而非通用替代品。这一点非常重要。