问题:人工智能正在从“会说”走向“会办事”。
在智能体能够调用工具、调度资源、连续决策的应用场景中,传统以“人—工具”为基本框架的法律关系面临重塑:谁有权授权智能体行动、授权边界如何设定、结果损害由谁承担、平台与开发者承担何种注意义务、市场竞争秩序如何维护、跨境业务如何合规,均成为现实且紧迫的治理难题。
围绕上述焦点,由中国政法大学人工智能法研究院、西南政法大学科技法学研究院等机构联合主办的“探寻人工智能法治研究的真问题(第二季)”研讨会近日在线举行,并发布《人工智能法治研究十大议题(2026)》,为未来规则布局提供研究路线图。
原因:一方面,生成式技术与工具链的快速成熟,使人工智能从对话式辅助进入任务型执行阶段,智能体在办公、营销、投研、客服、编程等场景加速落地,呈现“可行动、可扩散、可迭代”的新特征。
另一方面,技术的不确定性仍广泛存在,例如生成内容可能出现“幻觉”、数据与模型偏差、黑箱决策难以解释,以及多主体参与导致的责任链条拉长。
再叠加平台化分发、开源生态、云端部署与跨境提供服务等产业形态,使既有的授权规则、产品责任规则、竞争规则与安全规则出现适配压力。
与会专家指出,智能体在一定程度上改变了法律理论所依赖的稳定环境,单靠既有条款“套用”难以覆盖新型风险。
影响:首先是权利与责任的边界风险。
智能体执行交易、生成建议、调用第三方服务时,一旦造成财产损失或人身权益受损,用户、平台、开发者、模型提供方、数据提供方等多方之间如何分担责任,直接关系到纠纷解决效率与产业预期稳定。
其次是市场秩序与公平竞争风险。
智能体可能形成新的“注意力”与“数据”优势,算法推荐、捆绑调用、默认设置等行为在新的技术形态下更隐蔽、更难识别,竞争治理亟需更新工具箱。
再次是安全与极端风险的前移。
面向更高阶能力的系统,传统事后追责可能不足以应对潜在的系统性风险,需要强化事前可控、可审计、可干预的制度安排。
最后是跨境合规压力上升。
企业“走出去”过程中将同时面对数据跨境流动、内容治理、消费者保护、知识产权与当地监管要求等差异化规则,合规成本与不确定性增加。
对策:研讨会提出以“小切口深挖掘”的方式,聚焦智能体授权与行为边界、拟人化风险、生成式内容“幻觉”致损、前沿安全与极端风险防控、出海合规等关键领域,推动构建可操作、可落地的治理方案。
最高人民法院咨询委员会副主任姜伟在致辞中强调,人工智能法治研究要坚持问题导向,推进形成具有自主性、系统性的知识体系,实现科技创新与良法善治双向赋能。
围绕责任分配,多位专家建议在技术难以完全消除“幻觉”等缺陷的现实条件下,综合考量各方控制能力、获益程度与过错程度,细化平台提示义务、产品与服务提供者的注意义务以及用户合理信赖边界,避免“一刀切”抑制创新。
围绕安全治理,专家认为应推动从“事后追责”向“事前可控”转变,完善风险分级、评测审计、关键能力限制、应急处置与可追溯机制,形成发展与安全相统一的制度闭环。
会议同期还宣布启动“AI善治·新智新声”人工智能法治在线课堂,强化跨学科青年人才培养与协同研究,为规则供给储备后续力量。
前景:从治理逻辑看,智能体时代的法治建设将更强调可预期性与可执行性:既要通过明确授权、透明提示、审计评估等制度安排,稳住权利边界与责任链条,也要为新技术留出试验空间,形成鼓励创新、包容审慎、底线清晰的制度环境。
随着相关研究议题持续深化,围绕数据、算法、平台与应用场景的规则将加快从原则走向细化,从单点规制走向系统治理。
可以预期,在司法实践、行业标准与合规体系的共同推进下,人工智能将更有可能在可控轨道上释放效率红利,并为产业升级与社会治理提供稳定支撑。
人工智能从工具向智能体的演变,本质上是一场技术革命,但更是一场法律理念和治理方式的革命。
这十大议题精确瞄准了当前人工智能发展最前沿、最迫切、最具有争议的法律难题,代表了学术界对未来的深刻思考。
这些问题的解决,不仅关乎人工智能产业的健康发展,更关乎整个社会的安全与秩序。
只有通过系统的法治建设,建立清晰的规则框架,才能既释放人工智能的创新活力,又有效防范其可能带来的风险。
在这个过程中,中国正在努力探索符合自身国情的人工智能法治之路,这种自主性和前瞻性的探索,将为全球人工智能治理提供有益的借鉴与参考。