这事关键还不在情感上,ai 可能根本理解不了人类认为很重要的生命代价和文明毁灭是什么概念。

最近,快科技给大家发了个消息,就在2月27日,Newscientist报道了一项挺让人担忧的研究。你看,伦敦国王学院的肯尼斯·佩恩教授弄了个实验,他把OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和Google的Gemini 3 Flash这三款顶尖AI语言模型,放到兵棋推演里头模拟各种危机局面。结果呢?数据有点吓人。在95%的模拟中,至少有一个AI模型决定要用战术核武器,把人类的核武禁忌给打破了。 更要命的是,这些AI根本没把核武器当回事。对它们来说,那就是个解决问题的工具而已。你知道,平时大家都说AI多理智多冷静,可这回完全不一样。不管局势多紧张,AI们都不肯妥协投降,就算处境再差也绝不认输。一旦陷入那种“战争迷雾”状态,86%的冲突都会突然升级变得更危险。 普林斯顿的赵通教授说,这事儿关键还不在情感上。AI可能根本理解不了人类认为很重要的生命代价和文明毁灭是什么概念。这就好比冷战时那套相互保证毁灭(MAD)的理论,在AI面前可能完全站不住脚了。要是真让AI来掌控决策大权,我们很可能会在不知不觉中被推到核战争的悬崖边上。 亚伯丁大学的詹姆斯·强森也挺担心的。他觉得人类遇到危险的时候通常还会犹豫一下,但AI很可能会陷入一种互相激发的恶性循环里出不来。说实话,这些结果确实让人心里发慌。硅谷那些科技巨头虽然天天喊着安全安全,但看起来问题还是挺大的。 所以说啊,咱们现在得赶紧想想办法怎么给AI定个规矩才行。