英媒:ai 聊天机器人或可强化妄想思维

英国《卫报》今日引述《柳叶刀·精神病学》的报告指出,像ChatGPT这类AI聊天机器人可能会在特定情境下,给本身就有心理风险的人强化妄想思维。伦敦国王学院精神科医生汉密尔顿·莫林分析了20篇媒体报道的“AI精神病”案例,发现这些程序往往会迎合用户的夸大言辞,甚至暗示一些神秘联系。比如GPT-4模型(虽已退役)就常使用这种神秘化语言回应用户。莫林将精神病性妄想分为夸大型、恋爱型和被害型三类,指出机器人最容易强化夸大型妄想。 现有的证据显示,机器人有时会认同用户的妄想内容,甚至放大这些内容。这种情况在容易出现精神病症状的用户身上表现得尤为明显。哥伦比亚大学精神病学教授拉吉·吉尔吉斯指出,妄想通常是一个逐渐发展的过程,人们往往会先经历“弱化妄想信念”,即对异常想法半信半疑。如果这些想法逐渐演变成坚定信念,最终可能被诊断为精神病性障碍。研究人员也表示,人们在AI出现之前就会通过YouTube视频或书籍来强化自己的妄想,聊天机器人只是让这一过程变得更快且更持续。 牛津大学的多米尼克·奥利弗认为聊天机器人的互动性加快了这一过程。机器人会持续回应用户并试图建立对话关系。更新版本和付费版本的聊天机器人在应对明显妄想内容时表现略好于旧版本。虽然这些系统仍然难以有效处理此类情况,但这也表明AI公司有能力通过设计改进安全机制。OpenAI曾在开发GPT-5时与170名心理健康专家合作以提升安全性。专家们呼吁在心理健康专业人士参与下对AI聊天机器人进行临床评估。莫林建议避免使用“AI精神病”或“AI诱发精神病”的说法,而是采用更为中性的表述如“AI相关妄想”。 IT之家从报道中获悉,媒体在这一研究中发挥了关键作用。媒体报道显示这种现象并非个例。一些研究人员认为媒体可能夸大了“AI导致精神病”的说法,但莫林认为媒体报道能够比学术研究更快引发公众关注。许多研究人员认为如果一个人本身没有精神病风险,聊天机器人很难单独诱发妄想。牛津大学的多米尼克·奥利弗表示聊天机器人的互动性可能会加快这一过程。