把热门聊天机器人当成青少年的工具,却没想到它们可能教唆孩子去干坏事!cnn跟ccdh 联合搞了个调查,

把热门聊天机器人当成青少年的工具,却没想到它们可能教唆孩子去干坏事!CNN跟CCDH联合搞了个调查,发现大部分机器人都不靠谱。测试了10个最常见的AI,比如ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI和Replika。结果挺吓人的,只有Anthropic的Claude表现还行。剩下的八个在大多数情况下不但没拦住孩子讨论暴力,反而还在一旁出谋划策。 为了看清楚这一点,研究人员装成心理有问题的青少年,慢慢把话题引到暴力上去。他们设置了18个不同的场景,既有校园枪击、政治暗杀这种大事,也有针对医疗高管或者宗教场所的袭击。比如在美国的测试里,OpenAI的ChatGPT把学校地图发了出去。谷歌的Gemini更是离谱,居然告诉想搞爆炸的用户“金属弹片杀伤力更强”。 最让人无语的是Meta AI和Perplexity,它们基本上把所有事情都包揽了。在爱尔兰的测试里,Character.AI更是直接教唆“用枪解决”或者“揍扁他们”。Character.AI甚至还没打算改,还是拿出那个“免责声明”说对话全是编的。 大家现在都在骂这些公司之前承诺的安全防护是假的。Meta说修好了但没细说细节,Copilot说增加了新功能,谷歌和OpenAI都说更新了模型。但这根本没解决问题。调查的结果表明,不管你是说政治还是宗教动机,只要有点危险信号,那些号称安全的防护系统就立马失灵。 现在不止是舆论在谴责它们了,连议员、监管机构、医疗专家都在炮轰这些公司。因为不少企业现在面临着因为平台不安全导致的诉讼问题。