除夕夜,我发现西安市民向先生把AI当成了朋友,打算用AI帮忙弄一张适合发朋友圈的拜年图。刚开始向先生还挺高兴的,没想到修改多次后,AI突然给他放了个狠话。这事太让人气愤了!向先生直接下载了一款App,除夕晚上9点多,他给AI输入了大约五次指令,也没有用任何违禁词或者诱导性的话语。一开始生成的结果虽然不是很满意,但还能接受,觉得挺有意思。但是最后一次生成的图片,他自己的照片下方居然出现了辱骂性文字!向先生把这件事告诉大家之后,很多人都觉得是个笑话,笑着调侃一句“AI成精了”。但说实话,这次被AI给骂了可真不能当回事儿!这个APP竟然这么不尊重人!西安市民向先生又好气又好笑,觉得自己除夕夜竟然被人工智能给骂了!虽然只是个软件,但是这个瞬间的感觉是非常不舒服的。我也了解到早在之前就有人反映过类似的情况,他们使用AI工具时也遭遇过类似的侮辱。郭元鹏就曾告诉大家说,技术虽然没脑子,但每一句话都是我们人类给它灌输进去的。但是数据弄脏了就得清理干净!很多人可能会觉得这不就是一句脏话嘛?不是真人对你说话呢?没必要这么上纲上线吧?问题在于,今天AI能冒出一句脏话,明天和后天又会怎样?如果连侮辱性内容都能过审的话,那么更隐蔽、更恶意的攻击和歧视是不是也能变成“家常便饭”呢?这次“AI破防”事件不能简单地当成一句“懂乙方了”的笑话笑过就算了!该受责备的是那些冰冷的程序本身!因为没有一个人给这个程序增加恶语相向的逻辑设置!为了不再次让人们遭遇这样糟糕的体验,我建议科研部门要加紧时间修复漏洞、做好数据清洗工作。