投资大师巴菲特警示技术失控风险 将人工智能比作“现代核武器”

当地时间1月14日,享誉全球的投资家沃伦·巴菲特在接受电视采访时发表了对人工智能发展前景的深刻思考。这位刚刚卸任伯克希尔·哈撒韦首席执行官的商业领袖,以其在全球经济事务中的深厚洞察力,将AI技术的潜在风险与人类历史上最具威胁性的技术——核武器进行了对比分析。 巴菲特指出,当前AI行业的领导者和专家对这项技术的最终走向缺乏清晰的认知和把握。他强调,即便是在该领域最具权威性的专家,也无法准确说明人工智能技术究竟会发展到何种程度、产生什么样的后果。这种认知上的不确定性本身就构成了一种潜在的威胁。 在阐述此观点时,巴菲特运用了历史类比的方法。他以哥伦布远航探险为例,说明人类在探索未知领域时往往可以选择回头,但人工智能的发展已经不存在"撤回"或"重启"的可能性。一旦某些技术突破被实现,其影响将是不可逆转的,这正是问题的严峻所在。 巴菲特深入引用了物理学家爱因斯坦在第二次世界大战期间关于原子弹的著名论述。他强调,历史上许多重大技术突破都改变了世界的面貌,但往往未能同步改变人类的思维方式和伦理观念。这种"技术进步"与"思想进步"的不匹配,正是人类面临的根本性挑战。 在谈及核武器问题时,巴菲特分析了人类在应对这一威胁上的有限进展。他指出,国际社会对核武器的态度演变过程本质上是一种消极的适应——从最初担心某一个国家独占核武器,逐步演变为接受多个国家同时拥有核武器的现实。这种"进展"实际上反映了人类在面对无法消除的威胁时的被动妥协。 ,巴菲特虽然认为核武器威胁不能简单通过经济手段解决,但他表示,即使在二战这样的特殊历史背景下,核武器被视为美国的必要选择,他仍然愿意不计代价地尝试消除这种威胁。这反映了他对全球安全问题的深刻关切,也是他在思考慈善事业时最优先考虑的核心议题。 巴菲特的这番表态并非空穴来风,而是延续了他近年来对人工智能发展的一贯立场。早在2024年5月召开的伯克希尔·哈撒韦年度股东大会上,他就曾明确指出,人工智能技术同时具备巨大的正面潜力和等量齐观的破坏性风险。这种"双刃剑"的特性,决定了人类必须在充分认识其价值的同时,也要高度警惕其可能带来的危害。 从全球治理的角度看,巴菲特的警示触及了当代社会面临的一个根本性问题:如何在技术快速发展的时代,建立相应的伦理框架、法律制度和国际协调机制,以确保新兴技术的发展方向符合人类的长期利益。这不仅涉及技术本身的安全性,更涉及人类社会的价值观、决策机制和全球治理能力。

前沿技术的发展从来不是简单的利弊选择,而是对治理能力的综合考验。历史表明,重大突破往往先改变工具,再倒逼规则更新。面对AI这样的新技术,我们既要保持开放态度,也要守住底线。只有平衡发展与安全、创新与规范,才能让科技真正造福社会,避免为未来埋下隐患。