问题——技术快速外溢带来新型法律挑战。 随着生成式技术持续迭代,人工智能从“提供信息”走向“执行任务”,智能体能够代用户发出指令、沟通交易、作出决策,嵌入工作与生活的关键环节。另外,“幻觉”造成的错误信息被采信并引发损害、智能体越权操作与责任归属、算法驱动的竞争失序等问题集中显现,既考验既有法律规则的适配性,也对监管工具与治理能力提出更高要求。围绕上述现实,有关高校研究机构发布年度十大议题,意在以可落地的研究回应实践难题。 原因——技术形态变化与权责结构重构叠加。 其一,角色从“工具”向“代理”迁移。智能体在多场景中替代人工完成连续动作,传统意义上“行为人—工具—结果”的清晰链条被拉长,行为边界与授权范围更难被准确界定。其二,信息环境由“可核验”转向“强依赖”。在复杂业务中,用户对内容真实性的核验成本上升、能力相对弱化,平台输出被赋予更强的可信期待,一旦发生错误更易造成现实损失。其三,产业竞争从“产品竞争”转向“生态竞争”。智能体可能通过数据、接口、算力、平台规则等形成新的竞争壁垒,原有反不正当竞争与平台治理框架面临更新压力。其四,免责条款泛化带来治理空转风险。实践中“仅供参考”等提示常见,但若与服务实际功能、使用场景不相匹配,容易造成权利救济困难与责任规避。 影响——从个体权益到产业秩序再到国家安全的多层外溢。 对个体而言,错误内容被采信可能导致财产损失、名誉受损,甚至在医疗、金融、出行等场景引发人身风险;对企业而言,授权不清与责任不明会抬高合规成本,影响创新节奏与商业信任;对市场秩序而言,智能体可能改变流量分配、交易撮合和信息可见性,诱发新的不公平竞争形态;对公共治理而言,人工智能在公共服务、司法辅助、城市运行等环节应用加深,若缺乏可审计、可问责的制度安排,风险可能向公共安全与国家安全层面传导。与会专家据此提出,研究议题应更紧贴产业实践与国家战略需求,同时补齐公众和消费者视角,形成可操作的治理方案。 对策——以“边界—责任—工具—协同”为主线完善制度供给。 一是明确智能体行为边界与授权机制。建议围绕“可理解、可撤回、可追踪”的授权原则,细化默认授权与特别授权的适用场景,建立关键操作的二次确认、权限分层与日志留存制度,降低越权与误操作风险。二是构建与“合理信赖”相匹配的责任分配规则。对“幻觉致损”等情形,应结合应用场景的专业性、服务定位、提示义务履行情况、用户可预见性与可核验性等因素,形成可裁判、可执行的判断标准;对泛化免责声明,应防止以格式条款替代实质安全义务。三是完善分级分类治理与规制工具组合。立法与监管需在促进创新与防范风险之间保持动态平衡,探索将行政监管、行业自律、第三方评测认证、技术标准与伦理规范协同嵌入研发、训练、部署、运营全链条,推动从“事后追责”更多转向“事前预防+过程控制”。四是强化公平竞争与生态治理。针对接口开放、数据使用、模型调用、平台规则等关键环节,研究适配智能体时代的竞争规则与执法路径,维护开放有序、透明可预期的市场环境。五是将安全要求前置到基础设施与关键环节。围绕芯片、算力、数据与关键系统应用等,探索以法治手段促进能力建设与安全保障并重,防范系统性风险。 前景——在统筹发展和安全中形成可复制的治理经验。 业内普遍认为,人工智能法治建设正从“框架搭建”走向“精细治理”。随着智能体深入产业链条、生成式应用向高风险场景渗透,相关规则将更强调场景化、可审计与可问责,治理方式也将更注重多主体协同与标准化支撑。推动研究成果转化、形成面向产业的合规指引与可操作制度,将成为下一阶段的重要着力点。同时,面向公众权益保护的制度供给有望加强,消费者视角与社会参与将更充分嵌入规则制定与实施评估之中。
人工智能法治化是技术与规则的深度对话。只有立足现实、前瞻布局,才能在创新与规范间找到平衡,为数字时代奠定坚实的法治基础。