加州政府勒令马斯克旗下企业就AI生成违规图像事件作出说明 多国监管压力持续升级

问题——围绕生成式产品的内容安全争议再度发酵。

当地时间14日,美国加利福尼亚州一名官员称,鉴于“格罗克”被指涉及生成并传播未经当事人同意的违规图像并在网络扩散,州政府已要求该公司作出回应。

加州总检察长罗布·邦塔通过社交媒体表示,要求xAI就其将如何阻止此类内容的生成与传播给出清晰答复。

马斯克当天早些时候回应称,其并不知晓“格罗克”生成过任何“裸露的未成年图片”。

目前,该争议在多国引发关注,部分国家和妇女、儿童权益组织呼吁苹果、谷歌等应用分发渠道将相关应用下架,监管与舆论压力叠加。

原因——技术能力外溢与平台传播机制叠加,放大风险。

业内人士指出,相关事件的核心不在于单一功能,而在于“生成—编辑—传播”的链条在同一生态内形成闭环。

“格罗克”由xAI开发,并嵌入马斯克旗下社交媒体X平台,用户可在平台内直接调用。

近期X平台上出现部分用户借助该工具对图片、视频进行编辑,生成真实人物的虚假性暴露内容并散布,受害者包括数百名成年女性和未成年人。

此类内容往往具备“低成本制作、高速度扩散、高心理伤害”的特征,一旦被转发、搬运,治理难度呈几何级上升。

与此同时,生成式工具对边界语义、隐性指令、二次加工的识别仍存在漏洞,给规避审核留下空间。

影响——触及隐私与未成年人保护红线,冲击平台公信与跨境治理协作。

未经同意的性暴露合成内容不仅侵害个人名誉权、隐私权与人格尊严,也可能与多国有关未成年人保护、反性剥削、反网络暴力等法律规范发生直接冲突。

对平台而言,若无法有效遏制此类内容,将面临用户信任下降、广告与合作伙伴风险评估收紧、监管调查与处罚升级等连锁反应。

对行业而言,事件进一步促使各国将生成式内容安全从“企业自律”推向“制度约束”,并可能推动更严格的合规要求,包括数据溯源、风险评估、第三方审计、未成年人特别保护机制等。

对国际治理而言,内容生成、分发、受害者分布往往跨境,单一司法辖区的执法易遇到取证、管辖与协作障碍,跨平台、跨国家的联动治理需求更为迫切。

对策——从“能生成什么”转向“如何被使用与传播”的系统治理。

多方观点认为,治理应覆盖模型端、产品端与平台端:其一,模型与产品层面需强化对涉未成年人、非自愿性露骨内容、深度伪造性内容的“硬约束”,包括更严格的安全对齐、敏感场景拒答与降级策略、对规避指令的检测与拦截,以及对图像生成与编辑能力设置更细颗粒度的权限控制。

其二,平台层面需将内容审核从单点识别升级为链路管理,对上传、生成、转发、下载等关键环节建立风险信号联动,提升对“合成痕迹”“重复传播网络”“恶意账号群”的识别能力,并对高风险内容实行快速下架、限制扩散、账号处置与证据留存。

其三,受害者救济机制需更清晰可用,提供便捷投诉、快速核验、跨平台删除与心理援助等支持。

其四,应用分发与支付等关键入口可引入更明确的合规门槛与透明报告制度,推动企业披露风险评估、处置效率与改进进度,接受社会监督。

前景——监管将更强调可验证的安全能力与责任边界。

分析人士认为,随着生成式内容工具持续下沉至普通用户,涉及隐私、未成年人、性暴力与网络欺凌的风险事件仍可能出现。

未来监管重点或将从“出现问题后的应急处置”转向“上线前的安全证明”,即要求企业以可量化、可审计的方式证明其具备防范与处置能力;同时对“开发者—平台—分发渠道”的责任边界作出更明确界定,形成覆盖研发、部署、运营、申诉、复盘的闭环。

对企业而言,尽快建立更透明的安全治理架构、完善内容拦截与溯源机制、强化与执法部门及公益组织的协作,将成为降低合规与声誉风险的关键。

智能技术的发展不应以牺牲社会伦理和个人权益为代价。

此次事件提醒我们,在拥抱技术创新的同时,必须建立健全的监管体系和伦理框架,确保技术发展始终服务于人类福祉。

只有在法律约束、行业自律和社会监督的共同作用下,智能技术才能真正成为推动社会进步的正向力量。