美团搞出了个大模型,还把图片扔给语言模型那个“管家”

咱们现在来聊聊美团最近搞出来的那个叫LongCat-Next的项目,听上去挺唬人,但其实它就在咱们生活中,像做了个大模型里的手机支架,把各种乱七八糟的数据(文本、图像、语音)都像拼积木一样摞到了一起。咱们平时看的抖音里自动识别的字幕或者是自动合成的图片,估计以后也会因为这玩意儿变得更厉害。 这个项目最牛的地方在于,它不像咱们以前用的传统办法,把视觉和语音搞得像独立的小房子,最后还得把结果扔给语言模型那个“管家”。它直接把图像和语音这些感官信息都转换成了“文字”,给它起了个名字叫DiNA,就是那种离散原生自回归架构。你看,那个dNaViT加上SAE再加RVQ的组合拳,就能把图片直接变成视觉“单词”,还保留了原来的分辨率。这就好比把一张照片分解成了可以被语言理解的一个个小格子,特别适合咱们处理OCR、文档或者图表这些活儿。 至于语音方面,它也一样把连续的声波信号切分成了离散的片段,而且还把情感和意思都给留着了。这个设计让模型在理解图像和生成图片时都更有劲儿了。不光在技术上干得漂亮,美团还大方地把代码开源到了GitHub和HuggingFace上,让大伙都能去试试。 其实这家伙的意义远不止于造个更好的模型。它真正的野心在于探索NTP(Next-Token Prediction)在多模态世界里能干点啥大新闻。你看以前LLM靠着预测下一个单词火了,那这一套能不能也用在看图片、听声音上?LongCat-Next就是想把这些感官信息也给塞进这个“预测”的筐里。 这绝对不是给语言模型随便安上个眼睛耳朵那么简单。它是想把语言、图像、语音这三种底层的表达方式给统一了,这对推动AI技术的发展可是有大好处的。未来咱们要是想用更智能的图像生成工具或者更自然的语音聊天功能,那都得靠这种原生多模态的探索。 现在AI领域正火着呢,多模态大模型就是这大火里的一根重要柴火棍。LongCat-Next给咱们展示了多模态AI的一种新玩法。你说吧,以后多模态大模型还能在哪些地方给咱们带来惊喜?