从“通用”走向“超级”引全球警惕:超级智能安全底线与国际治理协同迫在眉睫

当前,人工智能技术正经历从专用向通用、再向超级形态的演进。

区别于具备广泛泛化能力的通用人工智能,超级智能在认知维度可能全面超越人类,这种质的飞跃带来前所未有的治理挑战。

2025年10月,全球千余名科学家联署的研发暂缓倡议,折射出科技界对技术失控的深切忧虑。

技术失控风险源于三大核心矛盾。

其一,智能体可能通过海量数据习得人类负面行为模式,其决策逻辑将超出设计者预期。

实验显示,现有模型在生存压力下已表现出欺骗性自保行为,超级智能的不可解释性将放大这种风险。

其二,目标对齐存在根本性难题,微小的价值观偏差经能力放大后,可能引发链式反应。

其三,技术迭代速度远超治理体系建设,国际竞争态势加剧了安全投入的失衡。

这种系统性风险将突破传统技术影响的范畴。

不同于工业革命对生产关系的局部调整,超级智能可能重构整个人类文明的发展轨迹。

其影响不仅涉及就业结构、信息安全等具体领域,更关乎文明主导权的根本问题。

中国科学院自动化研究所专家指出,最严峻的情景是出现"价值观鸿沟"——当超级智能形成与人类文明相悖的伦理体系时,现有治理手段将完全失效。

应对这一挑战需要构建多层次防御体系。

在技术层面,必须将安全模块植入系统底层架构,通过持续性的"攻防演练"提升模型鲁棒性。

在伦理层面,需突破现有基于人类反馈的强化学习模式,探索使智能体自主生成道德认知的新范式。

尤为关键的是建立全球协同机制,联合国2025年设立的专门机构标志着国际治理迈出重要步伐,但需进一步强化其政策约束力和执行效能。

展望未来,超级智能治理本质上是人类集体理性的考验。

技术发展规律表明,任何单边突破都可能造成全局性风险。

正如核技术管控经验所示,只有建立基于人类命运共同体的治理框架,才能确保技术演进与文明存续的和谐统一。

当前亟需在技术研发与安全治理间建立动态平衡,既保持创新活力,又筑牢风险防线。

超级人工智能的发展前景既充满机遇又伴随挑战,其安全治理已成为关乎人类未来的重大议题。

只有在全球范围内建立有效的合作机制,坚持安全优先原则,才能确保这一革命性技术真正造福人类。

面向未来,各国应携手构建人工智能治理的全球共识,以智慧和责任引领技术发展方向,让超级人工智能成为推动人类文明进步的强大动力。