数字分身技术应用普及引担忧 专家建议加强法律伦理规范

一、问题:从“工具化”走向“泛化”,数字人格边界被频繁触碰 近日,某代码托管平台上线的开源项目以收集公开内容、模拟表达方式为卖点,迅速网络传播。随之而来,“同事数字分身”“离职员工数字人续岗”“付费复刻逝者影像语音”“艺人虚拟分身商用互动”等场景集中出现。一些产品宣称可利用聊天记录、工作文档、公开视频等材料,生成可持续对话、可代为输出文本或语音的虚拟形象,甚至将其包装为“数字永生”服务。 另外,争议也在升温:在未充分授权的情况下模仿形象、声音与表达风格;将“复刻逝者”用于商业化带来伦理冲突;职场“分身替岗”触及劳动关系边界;真假难辨的合成内容更加大社会信任压力。数字分身从小范围试验快速进入日常生活,其权利边界、责任主体与治理规则被推到台前。 二、原因:能力跃升、门槛降低与多重需求叠加共振 其一,技术与生态条件趋于成熟。深度合成与大模型能力提升,使语音、文本、图像的风格化模拟更逼真;开源框架与工具链完善,降低了开发和部署门槛;公开内容、社交记录与办公资料更易获取,也让“用数据训练一个分身”变得更简单。 其二,市场与社会需求明显。企业出于降本增效考虑,尝试让数字分身承接重复性沟通、文案和流程性工作;部分家庭希望借虚拟形象获得情感陪伴、缓解哀伤;一些个人则希望“可被保存的自我”在网络空间延续影响力。 其三,流量与商业化加速外溢。名人风格复刻、逝者“再现”、职场替身等自带话题,容易被包装成可变现的产品形态,也更容易诱发越界采集数据、模糊授权边界等问题。 三、影响:侵权风险、伦理冲突与社会信任成本上升 在法律层面,未经同意生成可识别特定自然人的虚拟形象,可能涉及肖像权、声音权益、名誉权、个人信息保护及著作权等多重问题;训练数据来源不清、授权链条不完整,也会使侵权认定与责任追究更复杂。涉及逝者的合成内容如损害逝者人格利益或造成不良社会影响,同样可能触及法律与公序良俗底线。 在伦理层面,将“复活”服务明码标价,容易把情感与生命尊严变成商品;高度逼真的虚拟形象如果缺乏清晰标识,可能模糊真实与合成的界限,引发误认与依赖,冲击正常社会交往与哀伤处理机制。 在社会层面,职场“数字分身”若被简单用于替代劳动者,可能加剧岗位不安全感与数据被迫交付风险,使劳动者被视为“可被提取与复制的技能集合”。同时,合成内容被用于诈骗、造谣、操纵舆论等的隐患上升,平台治理与社会信任成本随之增加。 四、对策:以规则确权、以标识明示、以治理闭环压缩滥用空间 围绕深度合成与数字虚拟人服务治理,监管已释放清晰信号。国家网信部门出台的《互联网信息服务深度合成管理规定》对数据管理、内容标识、平台责任等提出要求;《数字虚拟人信息服务管理办法(征求意见稿)》进一步强调显著标注,明确未经同意不得生成可识别特定自然人的虚拟形象,并提出不得侵害逝者人格权益等要求。 下一步,业内普遍认为可从三上形成闭环:一是“事前确权”,明确数据来源与授权范围,建立肖像、声音与个人信息的可验证授权机制;二是“事中可辨”,推动强制标识、数字水印、溯源追踪等能力落地,降低公众误认风险;三是“事后可追”,细化平台审核、投诉处置与证据保全规则,提高侵权成本。在职场应用中,还应强化劳动者知情同意与数据最小化原则,避免以管理便利为由过度采集,或变相替代劳动者。 五、前景:从“能不能做”转向“该不该做、怎样做”,应用将回归合规与向善 目前数字分身更多停留在风格与信息拟合层面,并不等同于真实意识的延续,但风险同样不容忽视。随着规则完善与执法强化,数字分身将从“野蛮生长”转向“合规竞争”:合法授权、标识清晰、可溯源的产品更容易获得市场信任;未经许可的名人复刻、逝者商业代言、职场强制“交出数据训练替身”等做法将面临更高合规压力。行业也将更倾向把技术用于可控场景,如客服辅助、知识检索、数字化培训等,在边界清晰的前提下释放效率与价值。

技术进步不应以侵蚀人格权益为代价,也不应以模糊真实边界为代偿。面对“分身复刻”带来的新挑战,需要在鼓励创新与守住底线之间找到平衡:让规则跑在风险前面——让合规成为行业门槛——让每一次技术应用都经得起权利、伦理与社会信任的检验。数字化可以延展记忆与服务,但不应替代真实的人与应有的尊严。