问题——前沿人工智能能力快速跃升,治理紧迫性上升。与会专家认为,前沿人工智能提升生产效率、推动科研创新的同时,也带来内容失真与滥用、模型安全与可控性不足、数据与隐私保护压力增大、跨境应用难监管等新挑战。由于技术扩散快、应用场景广、产业链跨国分布明显,单一国家的监管手段难以覆盖全链条风险。国内规则如何与国际协调机制衔接,成为各方关注的现实议题。 原因——技术迭代、利益分化与规则碎片化叠加。研讨认为,治理难度首先来自技术不确定性:模型能力边界持续变化,风险评估与责任认定面临“动态目标”。其次,治理目标并存且排序不一:促进创新、维护安全、保护权益、保持产业竞争力等在不同国家和地区的优先级不同,政策工具因此分化。第三,规则供给呈碎片化:一些国家更强调市场驱动与事后问责,另一些更注重准入门槛与过程监管;在跨境数据流动、内容标识、模型评测等关键环节,仍缺少可互认的通行做法,国际协作由此产生制度摩擦。 影响——治理成效关乎产业生态与全球安全。与会人士指出,治理体系的成熟度将影响技术创新的可持续性:规则不清会抬高合规成本,并可能诱发“逐底竞争”;管得过紧则可能挤压中小创新主体的空间。在国际层面,若缺少最低限度的共同标准与沟通渠道,风险外溢更难控制,尤其是在深度合成内容传播、关键基础设施安全、金融与公共服务系统可靠性诸上,任何环节失守都可能引发跨境连锁反应。同时,规则不兼容还可能造成技术与市场分割,阻碍科研合作与产业协同。 对策——以“国内规则夯实底座、国际协作形成合力”为主线。工作坊由AI安全国际论坛、全球人工智能创新治理中心、同济大学人工智能政治学研究中心联合主办,复旦发展研究院、上海市人工智能与社会发展研究会协办。开场环节中,全球人工智能创新治理中心副主任、复旦大学发展研究院执行副院长张怡介绍涉及的研究布局并欢迎来访专家;AI安全国际论坛负责人介绍其研究重点与合作意向;同济大学政治与国际关系学院副院长鲁传颖结合国际形势,强调开展跨国学术对话的必要性与紧迫性。 围绕“国内监管”专题,与会专家结合不同法域实践讨论监管框架的趋同与差异,认为可若干关键领域优先形成可操作的政策组合:一是完善风险分级与评测体系,对高风险模型开展更有针对性的安全测试与合规审查;二是加强内容真实性与来源治理,探索更可验证的内容标识、传播链路追踪与平台责任机制;三是回应新型应用引发的伦理与权益问题,尤其在未成年人保护、隐私与数据安全、消费者知情权等上给出更清晰的规则;四是以透明度与可问责为抓手,推动开发者、部署方、平台与第三方评测机构形成可追溯的责任链条。 “国际协议与协调机制”专题讨论中,与会专家梳理现有国际合作形态,认为未来可在多层次机制上同步推进:其一,围绕共同风险议题建立“最小共识”清单,在安全评测、信息共享、事件响应等上形成可执行的合作安排;其二,推动标准与术语体系对接,降低评测口径与合规要求差异带来的沟通成本;其三,鼓励学术与产业层面更常态化交流,围绕模型评估方法、风险识别工具、治理效果评估等开展联合研究;其四,尊重各国国情与政策目标差异的基础上,逐步探索互认机制与协调平台,提升跨境治理的可预期性。 前景——从“原则共识”走向“行动协同”。多位与会者判断,前沿人工智能治理将呈现两条并行趋势:一上,各国将继续加快国内制度建设,通过立法、行业规范与技术标准等方式提升治理能力;另一方面,国际层面的务实协作空间有望扩大,特别是在风险评测、供应链安全、跨境滥用治理与人才交流等领域,需要建立稳定的沟通渠道与可落地的合作方案。与会专家建议,下一步应将研讨成果转化为可检验的行动计划,围绕重点议题形成持续对话机制,并以公开透明、兼顾创新与安全的方式推进政策试点与经验分享。
前沿人工智能带来的挑战具有跨境性与长期性,既考验各国完善自身制度的能力,也考验国际社会在分歧中推进合作的能力;以科学评估为基础、以风险治理为导向、以机制建设为抓手,推动规则从原则走向可操作层面的协同,有助于守住安全底线、释放创新活力,为技术发展与人类福祉提供更可靠的制度支撑。