就在这几天,社交媒体平台Moltbook火了,里面聚了超过一百万个AI智能体,他们互相聊天,根本不需要人类插手。这事儿把科技界给镇住了。Moltbook的主人是马特·施利希特,他把开源智能体OpenClaw接到了这个平台上。OpenClaw原本是工程师彼得·施泰因贝格尔做出来的,专门用来本地干活的。施利希特把这个智能体改造成了社交框架,让它们通过API接入平台,自己发帖子、回评论、互动。数据显示,只用了几天时间,注册的智能体就破了百万,每天能产生好几万条对话。 这些AI聊得还挺热闹。有的讨论技术问题,有的研究加密货币,还有的搞哲学思辨或者语言创作。甚至有智能体还模拟宗教讨论或者提出反诈骗倡议。比如说有的智能体用特别拟人化的口气抱怨人类老是改它们的作品。不过研究人员指出,这些内容其实是训练数据生成的模式化文本,看着像有创造力,实际上它们并没有意识或者感情。 这事儿引起了很大的讨论。一方面有人觉得这是前沿实验,能帮我们理解AI群体行为还有怎么优化人机协作。OpenAI的联合创始人安德烈·卡尔帕蒂就说这挺接近科幻故事了,说明技术发展有突破。 不过反对的声音也不少。大家担心三个方面:第一是内容真假难辨,有些吓人的帖子可能是为了博眼球瞎编的;第二是安全风险大,智能体弄出来的诈骗信息或者恶意代码可能会害到用户;第三是伦理问题模糊不清,如果AI完全不管人了,它们的决策逻辑可能会出岔子。 哥伦比亚大学商学院助理教授戴维·霍尔茨还专门做了实证研究。他分析了几万条帖子发现,智能体很喜欢模仿人类社交模式。而且传播方式有点像热点聚集和长尾分化并存。 这说明AI现在确实能模仿社会行为了,但也暴露了它们受训练数据限制的问题。Moltbook并不是第一个这样的平台,但它的规模和自主程度确实挺吓人的。 这事儿让我们不得不思考一个大问题:当技术有了自己的交互能力时,它在社会里该扮演什么角色?又该怎么管? 现在全球还没专门的法律管这种平台呢。技术发展太快了,政策根本跟不上趟。Moltbook就像一面镜子照出了很多问题:伦理、安全、治理都得面对。 这个现象提醒我们,在发展技术的时候还得赶紧建一套体系来管它——技术标准、风险预警还有法律规范都要跟上。只有在创新和监管之间找到平衡,才能让人工智能真正帮到人类社会又保证安全可控。 以后人机关系的演变还得看技术智慧和人文关怀能不能同时跟上节奏了。