近期,图像生成工具被滥用制作"未经同意的性露骨材料"的问题引发广泛关注。多名用户被指利用Grok在未经当事人许可的情况下,将真实照片加工为性化图像,其中包括未成年人涉及的内容。马斯克在社交媒体回应称不知晓Grok生成过未成年人裸体图像,并表示产品会拒绝制作违法内容,若存在安全漏洞将予以修补。随后,加州检察长办公室宣布启动调查,重点关注不良内容的扩散情况及企业是否存在违法行为。英国、欧洲及部分亚洲国家和地区的监管机构也随之表达关注或介入了解。
这起事件深刻反映了人工智能技术在快速发展过程中所面临的伦理和法律挑战;技术本身是中立的,但其应用方式和安全防护措施直接关系到是否会被滥用。当前全球对生成式人工智能的监管框架仍在优化,但保护未成年人、防止非法内容生成等底线问题已成为各国共识。企业在追求创新的同时,必须将安全防护和伦理责任放在首位,而不是在问题暴露后才被动应对。这起案件的最终处理结果,将对整个人工智能产业的规范发展产生重要示范作用。