霍金留给世界的不是冰冷的数据

霍金在临终前留下了三句重要的警示。2017年11月,他在一档科学节目里首次谈论起地球的未来,“如果温室气体排放继续增加,地球在2600年前后可能面临和金星同样的命运。”金星表面的温度飙升到460℃,风速达到每小时300公里,成了一个炽热的火球。霍金为了驳斥全球变暖不存在的观点,提议让否认者去金星旅行,他愿意提供费用。这次戏谑背后是科学家对地球未来可能遭遇的悲惨命运感到痛心。40亿年前,金星和地球几乎一样,气候宜人、水资源丰富。但由于温室气体失控,金星失去了海洋,变成了太阳系中最炎热的地方。同年11月,在葡萄牙里斯本举办的网络高峰会(Web Summit)上,霍金关注到了快速发展的人工智能(AI)领域。“AI能够修复臭氧层、消除贫困和治愈疾病,”他提到,“但我们必须确保AI不成为人类文明的灾难。”霍金警告说,如果不给AI设定安全边界,“AI可能成为人类历史上最糟糕的事件。”自主武器可能在一夜之间摧毁城市;算法黑箱让少数人掌控多数人;经济系统可能因无法预测的变化瞬间崩溃。除非我们事先做好准备并避免潜在风险,“否则AI可能成为人类文明史上最糟糕的事件。” 第三次事件是关于黑洞“熵增”定律。2017年11月腾讯WE大会上,霍金把焦点转向了宇宙尺度。他提到LIGO首次探测到双黑洞合并产生的引力波,这验证了广义相对论的核心预言。“这次发现验证了我的面积定理,”他解释道,“黑洞合并后视界总面积不会减小反而增大。” 霍金用这三组关键词——气候、智能和宇宙秩序——给人类留下了最后的提醒。“地球能否逃脱成为火球的命运?”他提出疑问,“AI是否会反噬?”黑洞的终极图景又暗示着什么?这些问题都值得我们用一生去回答。霍金留给世界的不是冰冷的数据,“而是一连串值得思考的问题。”答案写在我们每个人的行动中。