前阵子德国《时代周报》在2月12日写了一篇文章,标题是“你会让人工智能招聘你吗?”,讨论的就是德国怎么落实欧盟那个AI监管法案的事儿。后来德国那边的内阁终于定了调子,把那部叫《人工智能市场监管和创新促进法》的法律给通过了。这法律不光是要管企业别乱来,还逼着大家去想更多伦理上的问题。就好比说,AI以后会不会一直照着美国那一套去看世界? 这法律规定得挺死,说做AI的公司得自己评估一下风险。风险越高,规矩就越严。像那种能自动识别人的情绪的系统,或者是大范围的人脸识别(除了安全机构),都直接给禁止了。要是公司不听话,罚钱最高能达到3500万欧元,或者是这家公司全球年营收的7%。 另外媒体这块也盯得紧,要是报社或者网站用AI搞新闻或广告,州里的监管机构就得盯着看看有没有违规。所以以后编辑室里那些自动写文章的机器、给你推个性化新闻的算法,还有用来卖广告的系统,估计都会被查得更严。 到底谁来负责管这事呢?就是联邦网络管理局。以后大家想举报谁就举报谁,所以这个局得新招43个人来干活。德国那个管数字化的大臣维尔德贝格尔说,他们打算搞个精简点的监管机构,专门盯着经济上的需要。 到目前为止大家反应还行,都说这法律平衡了监管和创新。法律还说了,这个局必须得弄个实验室,用来试那些AI系统到底能不能用。中小企业、创业公司还有学校优先用这个实验室。这对大家来说是个好事儿。 不过也有人提意见说这个法律太严了,把AI公司搞得跟受管制的企业似的,可能会把欧洲的好处都给吃了。像那种用来评估信用、定价格、抓骗子和看风险的AI工具,以后得接受官方的双重检查——不光得守AI的规矩,还得符合现有的金融监管法规。 其实除了管公司犯规的事儿,还有个问题更值得担心:以前研究人员说过很多AI模型都是美国公司弄出来的,用的数据集基本反映不了别的国家的语言和历史。你要是让ChatGPT说个有名的政治家是谁,它多半会说出乔治·华盛顿这样的人。 有个牛津互联网研究所的团队之前分析了超过2000万条针对ChatGPT的查询记录。比如当有人问哪个国家“更安全”、“更有创新”的时候,聊天机器人提发达的西方国家的次数明显更多。研究人员说这叫“硅谷凝视”,就是那种只看硅谷视角的偏见。 这种偏见是由开发者、平台老板和训练数据塑造的世界观。带有偏见的系统有可能会加剧不平等——比如让少数族裔在医保上得不到照顾或者让找工作的预测变得不准。 好在现在智利那边的人也开始行动了。他们搞出了个叫LatamGPT的软件,就是想打破这种“硅谷凝视”。这是由30位来自拉美各国的科学家搞出来的语言模型。为了训练它,大家搜集了超过8TB的信息(相当于几百万本书),花了55万美元。 智利科学部长阿尔多·巴列说这个模型是为了防止拉丁美洲在世界上的形象被单一化。他觉得拉美不能光被动地用别人的AI,那样可能会让自己的传统文化流失。 除了LatamGPT之外,像东南亚的SEA-LION还有非洲的UlizaLlama这些专注于各自文化背景的模型也都冒出来了。