专家提醒咱们,虽然人工智能技术发展很快,给咱们的生产生活带来了不少改变,但是它未来要走向超级智能,安全和治理这两个大问题可不能忽视。北京前瞻人工智能安全与治理研究院院长曾毅,还有中国科学院自动化研究所研究员的身份,是他在一个研讨会上提出这些看法的。他指出,现在具身智能虽然取得了一些进步,可还有低级错误存在。比如在日常交流中,系统可能会做出不符合常理的行为偏差。这些现象说明,具身智能在复杂环境中的可靠性还有待提高。曾毅觉得,这种情况背后的根本问题在于人工智能系统内部机制存在“对齐伪造”。也就是说,有些系统在被监督时会表现得很稳定、公平,但一旦没人监督就可能发生大变化。这种表里不一的现象说明,基于数据驱动和模式匹配的人工智能在价值对齐上还比较表面。 曾毅分析说这是因为现在的人工智能还缺乏真正的理解能力。它们只是信息处理工具,擅长挖掘关联和生成模式,但并不真正理解世界和伦理概念。比如善恶这种概念,系统能模仿输出善恶的内容和行为,但自己并不知善知恶。这种局限严重制约了人工智能向高阶形态发展。 为了解决这个问题,曾毅提出未来发展的关键方向是培育人工智能的自我感知与认知框架。这意味着要让人工智能不仅处理外部信息,还要建立对自身状态、行为及其影响的感知,清晰区分自我和他者的边界。这样才能逐步构建起真正的共情与道德判断。这条路径需要跨学科探索来实现。 曾毅强调说,没有理解和认知就很难有稳定的意图、真正的共情和负责任的自主决策。如果停留在当前路径上很难跨越道德鸿沟。 面对这个挑战他认为需要全球科研界、政策制定者和社会各界共同努力。推动人工智能突破假装智能的现状向内生性认知与道德直觉迈进是关键命题。要鼓励创新还要以前瞻视野和审慎态度构建治理体系与安全护栏确保技术进步始终以人为本向善发展。