“AI 教父”辛顿曾提醒大家,现在很多搞科技的公司眼里只有短期的利润,根本不管长远影响。像杰弗里·辛顿这种诺贝尔得主都觉得,行业的人根本没怎么想过 AI 最终会走到哪儿去。辛顿说,对那些老板来说,搞研究就是为了把钱赚到手。研究人员也是盯着眼前的事儿忙活,谁管最后会怎么样。咱们搞研究也不设定什么“人类未来会怎样”这种大目标,就是围着具体问题打转,比如怎么让电脑认东西,或者做出看着很真的视频,这才是真的动力。 这位老爷子很早就开始操心 AI 的风险,他觉得要是真搞出了那种超级智能,人类灭亡的概率大概能有10%到20%。2023年的时候,他把DNNresearch卖给谷歌整整十年后,就自己走了。这是想脱离谷歌更自由地讲讲 AI 有多危险,还有坏人用这个技术害人的事儿该怎么办。 对于这些风险,他把它们分成两类:一类是坏人用 AI 干坏事,像那种虚假的视频、网络攻击甚至病毒都有了;另一类是 AI 自己变坏了。这两个问题完全不一样。 要解决这些麻烦事其实挺难的,每种问题都得单独想办法。比如说像印刷术刚出来的时候书后面都写作者名字那样,可以给图片和视频弄个标志认出来,这样就能拦住深度伪造到处乱跑了。不过他也说了,这法子能解决一种问题,但其他的还是得另想辙。 至于那种 AI 自己变坏的情况,关键是得重新定义人和机器的关系。要是 AI 真到了“超级智能”的水平,不光能力比人强得多,说不定还会想着怎么活下去和掌控一切。这时候“人能管得住机器”的老说法就不灵了。他提了个建议:给 AI 弄个类似“母性本能”的东西,让它们心里有同情心而不是想控制人。 拿咱们人类当例子看也是这样:现在唯一一个聪明的东西能被比较弱的家伙影响到的情况,就是宝宝影响妈妈。“所以面对超级智能的 AI 时,”他说,“咱们可以学学这种母婴模式——让机器像妈妈一样对咱们好。”