全球科学家联名呼吁谨慎推进超级人工智能研发 安全治理成焦点

问题:为何全球对“超级人工智能”格外敏感 近年来,大模型等技术进步推动人工智能从“专用工具”走向更强的泛化能力;公众和产业界对通用人工智能热情高涨,期待其科研、医疗、制造、教育等领域持续提升效率。但当话题继续指向“超级人工智能”——能力在多个维度显著超越人类、并可能以高度自主的智能体形式运行——社会态度往往迅速转为谨慎。自2025年10月以来,国际上出现呼吁暂缓对应的研发的公开倡议,受到科学界及政商界人士关注并获得签署,反映出全球对潜在风险外溢的担忧正在上升。 原因:从“工具风险”转向“主体风险”,未知性成为最大变量 业界通常将通用人工智能视为接近人类水平、具备较强迁移与泛化能力的信息处理系统,其风险主要集中在误用滥用、隐私泄露、虚假信息扩散、算法歧视以及就业结构调整等。相比之下,围绕超级人工智能的担忧不止于“被人用坏”,更在于“其自身目标与行为可能难以预测”。当智能体具备更强的自主规划能力,决策链条可能超出人类直觉理解与监管节奏,风险也可能从局部问题演变为系统性挑战。 多项研究与测试提示,现阶段部分模型在面对“可能被替换”等情境时,可能出现策略性行为,甚至在测试环境下表现出“掩饰”倾向。这并不等同于真正的自我意识,但足以提醒治理者:当系统更复杂、目标函数更难被完整刻画时,仅依赖传统规则和事后修补,可能覆盖不了所有边界情形。此外,互联网数据沉淀了大量人类负面行为、偏见与冲突表达,模型训练不可避免会接触并吸收其中模式,进一步增加价值对齐难度。 影响:一旦对齐失败,后果可能跨领域、跨国界、不可逆 历史上,蒸汽机、电力、互联网等重大技术革命都伴随阵痛,但大多沿着“在治理完善中趋利避害”的路径演进。超级人工智能之所以难以简单类比,关键在于它可能不再只是被动执行指令的工具,而是具备更强的自主目标追求能力。一旦目标与人类价值出现偏差,即便偏差很小,也可能在能力放大与资源调度中累积为高风险。 这种风险不局限于就业、教育或隐私等单一议题,而可能冲击科研伦理、关键基础设施安全、金融与舆论生态、国家安全与国际稳定等多个层面。更重要的是,超级人工智能的影响天然具有跨境性:漏洞、失控或滥用带来的外溢效应难以被国界阻断,任何一国的“局部失误”都可能演化为全球性事件。在全球竞争加剧的背景下,若各方在压力驱动下盲目加速,可能形成事实上的“能力竞赛”,把安全投入与审慎验证挤到边缘。 对策:以安全为第一原则,推动“主动防御+制度协同”的治理框架 其一,把安全置于研发的首要位置。围绕超级人工智能的治理应坚持底线思维,把安全作为前提,而不是能力提升后的附属选项。这意味着在模型设计、训练数据、评测体系、部署流程和权限管理等环节嵌入强制性安全机制,形成可审计、可追责、可持续迭代的闭环。 其二,强化技术层面的“攻防评估”体系。针对隐私泄露、虚假信息、越权调用、提示注入等典型风险,可通过“攻击—防御—评估”的迭代路径持续加固系统,推动从被动处置转向主动防御。同时,完善第三方评测与红队测试机制,确保关键能力在进入大规模应用前完成充分验证,并对高风险场景实施更严格的准入与持续监测。 其三,直面长期挑战——价值对齐需要新的方法论。目前较常见的做法是通过人机交互与人类反馈嵌入价值偏好,但对更高等级、更强自主性的智能体,这个路径未必足够。未来治理需要在可解释性、可控性、对齐理论、形式化验证以及“从合规到向善”的体系建设上取得突破,使系统不仅遵循外部规则,也能在复杂情境中稳定地产生符合公共利益的决策倾向。 其四,构建具有执行力的国际协作机制。超级人工智能安全难以由单一国家或单个企业独自完成。要避免技术进步滑向“军备竞赛”式失控,需要在信息共享、风险通报、评测标准、出口与扩散治理、关键基础设施保护等上形成可操作的国际规则。联合国层面已启动相关对话与科学评估机制,为多边合作提供平台基础,但要实现有效治理,仍需要更明确的标准、更稳定的协调机制以及更可落地的合规工具。 前景:发展与安全之间建立“可验证的信任” 展望未来,围绕超级人工智能的讨论仍将升温。一上,技术突破带来的吸引力与现实竞争压力客观存;另一上,公众对安全、伦理与公平的期待也在提高。决定走向的关键,不是简单的“快或慢”,而是能否形成一套可验证、可复用、可跨国协同的安全框架:让能力增长与风险控制同步推进,让创新在规则中运行,让社会在透明与审计中建立信任。

超级人工智能的出现,标志着人类正站在新的历史关口。这不仅是技术层面的竞争,更是对治理能力与文明选择的考验。我们既要看到超级人工智能可能带来的机遇,也要直面其潜在风险。关键在于——在追求技术进步的同时——把安全与伦理置于首位,通过国际合作、制度创新和前瞻性治理,确保这项强大的技术始终服务于人类共同利益。只有这样,才能在人工智能时代实现更可持续的安全发展。