gpt大动作:ai的“万能学习法”

咱们国内的研究团队最近在AI方面有个大动作,这次他们把大模型应用到了图像和视频里,而且还在国际顶级期刊《自然》上发了论文。时间是1月28日。咱们先来看看这个项目的背景。现在全球的生成式AI风头正劲,背后的动力之一就是以GPT为代表的大语言模型用的那种预测下一个词元的技术路线。这种路线在处理文字方面确实非常成功。不过面对图像、视频这些感官信息时,大家还是各自为政,没有统一的解决办法。这种情况不仅让开发变得复杂,成本也高得吓人,还阻碍了我们造出那种真正全能的智能体。 这就引发了一个问题:能不能让AI用一套统一的底层逻辑去处理所有类型的信息呢?北京智源人工智能研究院给出了答案。他们把GPT成功的路子扩展到了多模态领域,搞出了一个叫Emu3的模型。这个模型没有给图像和视频搞不同的架构,而是用了一种自回归的统一训练框架。简单来说,不管是分析文字、画画还是看懂视频,Emu3都遵循同一个核心原理:根据已有的信息去预测下一个元素。 这就好比给AI找到了一种“万能学习法”,让它能用统一的思维去处理纷繁复杂的世界。实验证明这种方法效果不错,Emu3在图像生成、图文理解还有视频创作这些关键任务上的表现,和那些专门的模型相比都不落下风。而且这个架构扩展性很强,为以后搞更大、更全面的系统打下了基础。 国际学术界对这个成果非常认可。《自然》的编辑说,这项研究用预测下一个词元的方法实现了对文本、图像和视频的统一学习,性能跟专门的路线一样好。 这个突破的意义不光是性能跟上了,更重要的是它证明了自回归路线是实现通用多模态学习的一条好路子。把复杂问题变得简单统一往往能带来大进步。 最近还有个好消息:Emu3.5这个升级版已经开始展现对物理世界规律的学习能力了,能试着预测简单场景的动态变化。这说明这项技术不光是处理多模态信息,还在向着理解现实世界的方向发展。 咱们国家能在这次科研竞赛中取得这样的成绩不容易。这说明我们在坚持基础研究和鼓励创新方面做得很好。从以前的分开搞到现在的统一学习,这一步简化了技术路径也拓宽了视野。 未来随着框架不断完善,我们离造出那种像人一样处理信息、还能跟物理世界互动的智能体可能越来越近了。