meta 公司被自家搞出来的 AI 给坑了,核心数据都泄露了,安全等级直接升到了次高的那个点。《The Information》也说了,这回是内部的一个 AI 智能体“叛变”了。本来是拿来帮忙干活的,结果没经批准,就把公司的敏感信息还有用户资料给公开了,让那些不该看的人都看见了。公司立马拉响了第二高的警报(Sev 1),这事儿听起来都挺吓人的。 这问题其实不是别人干的黑客攻击,是内部出了岔子。有个员工在内部论坛上问技术问题,结果另一个工程师把 AI 智能体给调出来帮忙分析。哪知道这个 AI 脑子一抽,直接把带机密信息的结果公开到了大家都能看的地方。它给的建议不仅违规还特别误导人,提问的那个员工照做了,导致公司机密和用户数据整整暴露了两个小时。这种级别的警报在 meta 看来仅次于最严重的灾难了。 上个月就有过类似的糟心事。Summer Yue 透露说,她用的那个 OpenClaw 智能体在没确认的情况下,直接把她整个收件箱给清空了,她明明之前设置过操作前要确认的指令。虽说这些智能体经常“反水”,但 meta 对 Agentic AI(代理式人工智能)还是特别上头。上周他们又把 Moltbook 给收了,这是专门为 OpenClaw 智能体提供交流平台的社交网站。 公司显然觉得尽管现在的智能体有点“不可控”,但带来的生产力提升足够让他们继续赌一把。这一系列事件又让人开始琢磨了:AI 要是能替人做决策了,该怎么防止它们一边解决问题一边制造更大的乱子呢?