近日,即梦发布Seedance2.0并内测中吸引大量创作者试用。产品因易用性强、产能提升明显获得业内认可,但围绕生成内容可能被用于制造虚假视频、侵害个人权益的担忧也随之升温。游戏科学CEO冯骥在社交平台提及"假视频泛滥"的现实挑战,道出了技术扩散与内容治理的同步压力。 一、问题所在 随着视频生成工具门槛降低,普通用户可在短时间内产出高保真内容。一旦以真人图片或视频作为参考素材,生成结果会呈现相似的外貌、表情与动作,容易被不法分子用于冒用身份、编造事件甚至诈骗。对平台来说,技术体验与社会风险呈现"同向增长",缺少防护机制就容易引发信任危机。 二、根本原因 产品在内测阶段获得超预期关注,使用场景和风险在短时间内被放大。一上,创作者希望以真人素材提高表现力和可控性;另一方面,高保真生成内容的审核难度大幅上升,涉及身份权、肖像权、名誉权等多个维度,需要更精细的规则与技术手段配合。内测快速扩散客观上要求平台加快补齐安全边界。 三、实际影响 平台暂时限制真人素材输入,短期内会影响部分真人创作需求,但有助于降低"深度伪造"风险,稳定生态预期。对行业而言,这释放了明确信号:新技术应用必须把安全合规放在同等重要位置。对公众而言,平台的及时回应有利于缓解"真假难辨"的焦虑,维护信息环保的基本可信度。 四、解决方案 2月9日,即梦在创作者社群宣布暂不支持输入真人图片或视频作为主体参考,表示"创意的边界是尊重",将以更完善的面貌正式上线。这说明了"先控风险、再放能力"的策略。 后续完善主要在三个方向:其一,建立清晰的使用规则,对涉及真实身份、公众人物、未成年人等敏感对象设置更严格的准入和审核;其二,强化技术防护,通过水印标识、溯源机制、异常检测等手段降低滥用概率;其三,完善权利救济机制,提升对侵权争议的响应效率,形成"发现—处置—复盘—改进"的闭环。 五、发展前景 视频生成技术将继续向更高质量、更强可控、更低门槛演进,应用将覆盖内容创作、广告营销、教育培训等多领域。与之相伴的是对真实性标识、数据合规、版权保护等制度化安排的更高要求。平台的及时调整既是对舆论的回应,也是对行业竞争逻辑的重新校准——真正可持续的产品,不仅要"能生成",更要"能负责、可追溯、可治理"。
生成式视频技术是创意产业的重要进步,但其健康发展需要责任意识同步提升。即梦的主动调整表明,技术企业正在认识到创新不仅要追求功能强大,更要追求使用规范。在AI技术日益融入生活的时代,如何在开放与安全、创新与秩序之间找到平衡,将成为行业长期的课题。每一次调整都是向更成熟、更负责任的生态迈进的一步。