问题——"一张照片开播"带来肖像安全风险 记者调查发现,当前"换脸"技术应用呈现隐蔽售卖、公开教学、便捷操作的特点。二手交易平台,虽然直接使用"人工智能换脸"等关键词可能无结果,但改用"视频换脸"等表述后,大量对应的商品链接随即出现,价格多在几元不等,且缺乏必要的风险提示。部分卖家甚至提供实时直播换脸服务和技术指导。 测试显示,仅需上传一张正面照片,配合普通摄像头就能实现面部替换,在正常视角和小幅度动作下几乎难辨真伪。视频平台上的相关教程数量可观,部分通过评论区或私信提供下载渠道,甚至引导用户进行站外交易。某些软件还内置了公众人物面部模型库,支持参数调整,继续降低了使用门槛。 记者测试发现,使用换脸功能进行直播时,平台既未触发明显审核,观众也未能察觉主播并非本人。 原因——技术普及与监管滞后形成风险真空 首先,交易渠道分散隐蔽。卖家通过规避关键词、拆分交易步骤等方式躲避监管,形成灰色市场。 其次,教程传播降低技术门槛。当前软件已能在普通设备上运行,配合详细教程,让非专业人士也能快速上手。部分内容以免费为噱头吸引用户,实则进行商业推广。 最后,平台监管存在漏洞。虽然部分平台发布了合规提示,但在内容识别、风险提示和违规处置等环节仍显不足。根据《人工智能生成合成内容标识办法》要求,平台应对疑似合成内容进行显著标识,但实际执行效果有待加强。 影响——从侵权到诈骗,风险不容忽视 直接风险在于肖像权和个人信息侵害。未经授权的照片可能被用于直播带货甚至不当用途,受害者面临取证难、追责难等问题。更深层次的影响是削弱了社会信任基础,提高了公众辨别真伪的难度。 此外,该技术可能被用于电信诈骗、虚假宣传等违法活动。逼真的"熟人"交流或"权威"形象可能提高诈骗成功率。若形成灰色产业链,治理难度将大幅增加。 对策——构建全链条治理体系 建议从以下上着手: 1. 完善内容溯源机制 对合成内容实施显著标识、元数据标注和数字水印,确保提示信息在直播、回放和二次传播中持续有效。 2. 强化平台监管责任 建立分层管控机制: - 提高人脸替换功能的使用门槛 - 加强实时检测和人工复核 - 严打违规交易和站外引流行为 二手平台应提升关键词识别能力,堵住监管漏洞。 3. 加强执法协作 核查模型来源和素材授权,打击非法定制服务。对侵权行为建立快速响应机制,提高违法成本。 4. 提升公众防范意识 优化举报渠道,提供识别指南。为受害者建立快速维权通道,降低维权难度。 前景——规范发展才是正途 AI换脸技术在影视制作、数字创意等领域具有合法用途。未来应建立行业统一标准,在保护创新的同时防范风险。随着监管完善和技术进步,灰色产业链有望得到遏制。
AI技术本身并无对错,关键在于如何规范使用;当前的乱象反映出监管滞后于技术发展的事实。需要平台、监管部门、企业和用户共同努力,在保护创新和维护权益之间找到平衡。只有建立全方位的防护体系,才能确保技术造福社会而非成为犯罪工具。这既是对个人权利的保护,也是对网络生态健康发展的责任。