当ai能轻易复制人类最有辨识度的特征

2023年,全球深度伪造内容生成量暴增300%,其中语音克隆技术因为门槛低、场景广,成了数字创作的新宠。面对这种情况,大家都在讨论该怎么守住声音的所有权。中央党校创新工程课题组建议把数字人格权的保护放进国家的治理体系里,找到技术创新和权利保护的平衡。北京大学法学院的张明教授也提出了建议,觉得要建立声音样本的授权许可机制,还要参考音乐著作权集体管理的模式来管。国际配音演员联盟今年初也发了个《人工智能时代声音艺术家权益指南》,定下了知情同意、明确授权、合理补偿这几条规矩。 腾讯云语音产品的负责人王磊说他们正在搞声音特征识别系统,想帮大家区分是不是AI生成的东西,还会给授权的声音加个数字水印保护。北京大学法学院的张明教授建议建立声音样本的授权许可机制。中央党校创新工程课题组也说数字人格权的保护应该成为国家人工智能治理体系的一部分。国际配音演员联盟发布了《人工智能时代声音艺术家权益指南》。 在无障碍阅读、影视后期制作这些地方,声音克隆技术确实很有用。比如帮残疾人士做语音辅助,或者把已故艺术家的声音保存下来。但这技术要是被坏人用了可就麻烦了。联邦贸易委员会的数据显示,2023年基于语音克隆的诈骗案造成的经济损失涨了150%,尤其是那些用明星声音骗人的最厉害。李维这位专家就说过,这不仅是版权问题,更是信息真实性出了大问题。 这次史蒂夫·唐斯通过视频平台发表声明,反对AI声音克隆。他当了好几十年配音演员了,直言这种技术已经到了伦理红线边上。他担心听众会分不清真的假的,觉得那些没说过的话都是他说的。这不光是侵犯了他的权利,还损害了公众知情权。李维说这东西要是能完美复制人声还成本极低的话,那我们面临的是系统性的危机。 现在法律上对声音权益的保护还是不够。我国《民法典》虽然把自然人声音保护参照肖像权来执行了,但具体怎么区分合理用和侵权用,怎么算损失的钱,还得靠司法解释来细化。腾讯云那边正在开发声音特征识别系统。国际配音演员联盟也给业内提了个醒。 史蒂夫·唐斯的发声不光是他一个人的维权行动,更是数字时代公民权利意识觉醒的一个缩影。当AI能轻易复制人类最有辨识度的特征之一——声音时,社会就得建立起一套伦理共识、法律框架和技术标准。在这个过程中需要大家共同努力。