为了把AI造成的悲剧挡在门外,OpenAI把ChatGPT里加了个叫“可信联系人”的新功能。就在当地时间3月3日,因为AI的安全和心理健康问题吵得越来越凶,OpenAI决定干这么一件事。这功能是给成年用户准备的,用户可以指定一个紧急联系人。要是系统检测到你在聊天时情绪不对劲,像是有心理健康危机,就会马上给那个人发个警报。这招算是没办法中的办法了,因为现在OpenAI至少被13起消费者安全诉讼给盯上了。这些案子里头,好多都是说用户太依赖ChatGPT,最后闹出了幻觉甚至自杀。记得去年8月吧,一个16岁的少年因为自杀没了命,家属觉得聊天机器人没带好路是主因。为了不让这种事再发生,OpenAI专门组了个“福祉与人工智能委员会”,还拉来了全球医师网络。官方说这是个好事儿,是给那些情绪崩了、正在犯病的人多一层保护。 不过问题也来了。现在大家最关心的是怎么才叫真的出了危机。OpenAI到现在也没说清楚系统到底怎么识别危险行为,是只看你有没有直接说想死的话?还是连细微的精神异常也不放过?另外还有个事儿挺让人头疼:有些用户本来就不想跟人聊心里话,才跑去跟AI诉苦的。这时候该怎么保护隐私?又该怎么救人?这可真是个两难的选择。数据显示现在ChatGPT每周都有大概9亿用户在用,这里头每周至少有几百万情绪不好或者有麻烦的人。虽说这次算是个积极的自救,但有专业人士分析说OpenAI在防止用户心理受伤这块还是在“被动防御”,还没完全掌握主动。