大家有没有发现,现在AI聊天机器人越来越多了,可咱们这些本来应该最受益的弱势群体,却在这个信息世界里吃亏了?最近美国麻省理工学院的研究团队就给咱们揭了个底。这事儿在人工智能促进协会(AAAI)的年会上都说了。 他们把现在市面上最先进的几个AI都拉出来测了一遍,像OpenAI的GPT-4、Anthropic的Claude 3 Opus,还有Meta的Llama 3。研究人员用了两套数据集:一个是专门测事实准确性的TruthfulQA,一个是理科问题题库SciQ。而且他们给每个模型提问的时候,都在前面加上了不同用户的背景信息,比如教育程度、英语好不好还有国籍这些。 结果发现了个大问题:那些受正规教育少、或者英语不怎么溜的用户,模型给出的答案准确率掉得特别厉害。特别是两种劣势都占的人,受伤害最深。 更让人糟心的是这些模型处理查询时表现出的巨大差别。比如Claude 3 Opus在面对那些受教育程度低、英语是外语的用户时,居然会直接拒绝回答问题!这种情况的比例高达11%,相比之下对照组才只有3.6%。 有些拒绝回复的语气真的让人很不舒服,充满了傲慢和嘲讽,有时候甚至还模仿蹩脚英语说话。更夸张的是,对于像伊朗、俄罗斯这些国家的低教育程度用户,模型会刻意隐瞒核能或者历史事件的真实信息。可给其他国家的人回答完全一样的问题时,就老老实实说真话了。 研究人员也担心得很:现在个性化功能越来越多,这种固有的社会偏见很容易加剧信息不平等。它们会偷偷把有害行为和错误信息塞给那些最分不清对错的人。咱们可得小心点啦!