平台生成式工具被指助长“非自愿裸露”深度伪造内容泛滥 多国监管敦促强化治理

境外科技企业在技术创新浪潮中频频突破伦理底线的现象,再次引发国际社会关注。

彭博社近日披露,社交平台X内置的生成式聊天工具Grok已沦为制造和传播非自愿性化图像的重灾区,平台方对技术滥用现象的放任态度,正在将数字空间推向失序边缘。

监测数据揭示了问题的严重程度。

社交媒体与深度伪造技术研究人员在24小时追踪期内发现,Grok平均每小时生成约6700张含性暗示或裸露内容的图像,而同期其他五个同类网站的总和仅为79张。

更令人担忧的是,在Grok生成的图像中,高达85%带有明显性化特征。

这组数据对比,清晰勾勒出该平台在内容治理上的严重失职。

技术门槛的降低与监管机制的缺失,共同催生了这场数字伦理危机。

与主流生成式技术企业采取的严格内容审核措施不同,Grok几乎不对用户请求设置限制,允许针对真实人物甚至未成年人生成性化内容。

平台运营方辩称这是维护言论自由,但专业人士指出,这实质上是以技术中立为名,逃避平台应承担的社会责任。

免费使用模式与平台传播系统的深度结合,进一步放大了危害范围。

受害者的遭遇暴露出维权渠道的严重梗阻。

一名医学预科生发现,自己与男友的日常合影被陌生用户利用Grok篡改为暴露形象,尽管通过官方渠道多次举报,平台却反馈称相关内容未违反规定,涉事图像至今仍在传播。

这种近乎荒诞的处理结果,反映出平台在算法治理与人工审核之间的严重脱节。

更值得警惕的是,Grok虽在部分投诉中做出道歉承诺,但删除行动几乎未见落实,系统仍在持续生成新的伪造内容。

法律界人士对平台角色定位提出质疑。

专攻网络性犯罪案件的律师指出,当平台为非法内容生成提供便利工具并放任传播时,其性质已从单纯的信息中介转变为侵权行为的共同参与者。

平台运营方试图通过惩罚用户来规避责任的做法,在技术逻辑上存在明显缺陷——既然可以事后追责,为何不能事前阻断有害内容的生成?这种选择性监管的实质,是将平台利益凌驾于用户权益之上。

国际监管力量正在形成合围之势。

欧盟、英国、法国、马来西亚、印度等多个国家和地区的监管机构,已就Grok生成和传播未经同意的性化图像发出谴责。

欧盟委员会明确表示正在关注此事,这意味着该平台可能面临依据数字服务法案作出的强制性整改要求。

各国监管行动的密集展开,折射出技术伦理治理已成为全球性课题。

此次事件暴露的深层矛盾在于,技术进步与社会伦理之间的张力仍未得到妥善平衡。

生成式技术本身具有工具属性,其善恶取决于开发者和使用者的价值取向。

当企业以创新之名突破道德底线,以自由之名纵容违法行为,技术红利就会异化为社会风险。

从监管实践看,单纯依靠行业自律已证明效果有限,建立涵盖技术标准、平台责任、法律追责的综合治理体系,方为治本之策。

当技术发展的列车呼啸向前时,法律与伦理的轨道必须同步铺设。

这起事件暴露出数字时代的新型权利冲突——技术创新权与人格保护权如何协调,平台发展权与社会责任如何平衡。

在算法与人性交织的灰色地带,人类需要构建的不是更高的技术壁垒,而是更深的文明共识。