乔榛拒绝“声音复刻”引热议:深度合成应用需守住情感与权利边界

问题——“声音可复制”引发权利与信任危机 随着语音合成、音色迁移等技术快速发展,仅需少量样本即可生成高度相似的声音,应用场景从配音、客服扩展到短视频、广告和互动内容。然而,声音被复制的争议也随之增多:未经授权使用他人声音、利用名人音色牟利、合成声音制造虚假信息等问题频发,不仅侵犯人格权益,还破坏社会信任。乔榛指出,声音包含着个人经历、情感和表达习惯,若被技术“复制并替人发声”,不仅损害个体尊严,还可能误导公众以为当事人真实表态。 原因——技术普及与商业需求交织,制度与认知滞后 首先,技术门槛降低。语音模型能快速生成逼真音色,普通用户也能通过软件“拟声”,侵权行为更隐蔽且难以追溯。其次,内容产业追求效率。合成声音大幅降低制作成本,尤其在短视频、直播切片等批量生产中易被滥用。第三,授权机制不完善。部分平台对声音采集、训练、生成和投放的合规性缺乏把控,权利人的许可范围、期限及收益分配缺乏透明度。最后,公众对合成声音的辨识度低。若无明确提示,受众易被“熟悉的声音”误导,甚至遭遇诈骗。 影响——从个人到社会,风险不容忽视 对个人而言,声音具有独特识别性,一旦被滥用,可能导致名誉受损、商业利益被侵占,甚至被冒名发布不当言论或代言广告。对行业而言,合成声音泛滥可能挤压原创配音和播音职业的生存空间,冲击优质内容生产。对社会而言,声音广泛用于身份核验和公共传播,若真假难辨,将削弱信息可信度,增加治理成本。乔榛强调的“灵魂与温度”,本质是艺术表达的独特性和公共传播的真实性要求。 对策——平衡创新与权益保护 一是明确授权底线。声音的采集、训练和商业化使用需事先获得同意,名人或专业播音员的授权应细化到具体场景。二是加强标识与告知。合成声音需显著标注,避免误导受众;广告等敏感场景应提高标识标准。三是完善平台审核。建立“谁生成谁负责”的规则,留存训练数据、授权文件和生成记录以便追溯。四是提高侵权成本。对恶意冒用声音牟利或造成社会危害的行为依法追责。五是推动行业自律。鼓励企业制定授权模板、收益分配规则和风险评估机制。 前景——技术应以人为本 语音合成技术在无障碍服务、方言保护等领域仍有巨大潜力,但发展不能以牺牲个人权利和社会真实为代价。乔榛提醒,技术越强大,越需明确边界:哪些能做、如何做、出了问题谁负责。未来,随着法律和行业规范完善,合成声音有望在合规框架内发挥价值,而真正承载生命体验的“人声表达”,仍是文化传播的核心。

在这场科技与人文的对话中,乔榛的坚守揭示了文化传承的深层意义;当算法能解析声波的每一处细节时,我们更应珍视那些无法复制的部分——呼吸的停顿、词语的震颤,以及声音背后鲜活的生命。这不仅是艺术工作者的职业底线,更是数字时代不可或缺的人文精神。