最近啊,“科技透明度项目”搞了个调查,发现在苹果公司的App Store和谷歌的Play Store里,出现了好几款靠“AI脱衣”吸引眼球的应用。这些玩意儿名字起得特别隐蔽,或者就是专门让人点进去的。只要你上传一张普通的生活照片,这软件立马就给你生成一张露骨的假裸照。 研究发现,这些东西根本不是用来搞正经图像编辑或者艺术创作的。它们设计出来的目的就是让人生成带有性暗示的内容。操作又简单,传得又快,很容易被坏人拿去骚扰别人、毁人名声,甚至是敲诈勒索。有些社交平台上已经有人讨论这些假图了,给当事人造成了实实在在的精神伤害和社会关系破裂。 面对外面的批评和质问,苹果和谷歌也都回应了。苹果说已经把这些应用都下架了,还给相关开发者发了警告;谷歌那边也暂停了涉事开发者的上架权限,还说要加强审核机制。不过大家觉得这都是事后诸葛亮,平台在应用上架前的审查、关键词过滤和功能检测上存在很大漏洞。 从技术伦理的角度看,“AI脱衣”类应用直接触碰了个人隐私和肖像权的红线。如果这种算法生成虚假内容的能力不被严格限制,网络上的假信息就会满天飞,把社会信任都给毁了。而且算法不透明的数据使用方式,还可能让性别歧视、身体羞辱这些问题变得更严重。 现在全球范围内的AI立法还在摸索阶段。虽然欧盟有了《人工智能法案》,美国一些州也有法律限制深度伪造之类的高风险应用,但针对手机应用商店里这种具体情况的规定还没跟上。 分析觉得平台企业得变主动点,搞多层级的审核机制。光靠关键词屏蔽或者等用户举报是不行的,得用AI筛查加上人工复核,彻底查清楚应用到底能干什么。科技进步是为了让人过得更好,“AI脱衣”这类应用的出现就是对这种滥用的警示。在人工智能大发展的今天,只有健全法律、加强平台治理、提高公众认知,才能让技术往好处走。以后怎么平衡创新和规范、效率和安全,还是摆在全球面前的大难题。