谷歌AlphaGo意义重大 但算不上真正的AI

智东西(公众号:zhidxcom)
文 | 海中天

什么是AI?什么不是?具体要看你怎么定义。最近,谷歌DeepMind 设计的围棋AI AlphaGo打败了世界冠军李世石,毫无疑问,近年来AlphaGo和类似的深度学习系统取得了进展,它们解决了一些相当复杂的问题。那么,完全的AI——或者叫AGI(强人工智能,artificial general intelligence)——机器真的要到来了吗?并非完全如此。

当我们打造AGI时有一个关键的前提:它必须自己去理解周围的世界,自我发展,了解遭遇的、听见的、看见的、做的一切事情的内在意义。如果做不到这点,它就无法超越当今的AI,这些AI算法所具备的“意义”只能依靠应用设计者来提供:最终AI无法理解正在发生的事,只适用于狭小的专业领域。

谷歌AlphaGo意义重大 但算不上真正的AI

什么是真正的AI

对于AI而言,关于“意义”的问题可能是最根本的问题,至今无法解决。1990年时,认知科学家Stevan Harnad首次在“符号接地问题(symbol grounding problem)”相关论文中谈到这一点。我们正在使用符号,也许你不相信,但事实确实如此,问题在于:在系统内部所代表的意义接地到真实世界代表什么!

更具体地说,该问题又可以分成四个子问题:

一、代理(人类或者AI)从世界接收到信息,这些信息的结构是怎样的?

二、你如何将结构性信息与世界联系在一起,或者说,你如何为代理赋予“意义”?

三:你如何将意义与其它代理同步?(如果不这样做,彼此将无法沟通,因为你所接收到的智能将是费解的、隔离的。)

四、为什么代理做这件事而不是什么也不做?如何将这一切体现在动作中?

四个问题的深入讨论

关于第一个问题,也就是结构性信息的问题,深度学习以及类似的监督式学习算法已经可以很好解决了,谷歌AlphaGo正是案例之一。在该领域我已经取得了巨大的进步,主要是因为计算性能大幅提升,GPU派上用场,它可以用来处理并行信息。算法所处理的信号有许多是多余的,它们来自高维空间,算法会将高维信号转变成低维信号,在处理时减少信息的损失。换句话说,从信息处理的角度来看,它会“抓取”信号中的重点内容。
谷歌AlphaGo意义重大 但算不上真正的AI

第二个问题,将信息与真实世界联系的问题,也就是创造“意义”,这个问题和机器人存在本质的关连。你需要一个身体与世界互动,只有与世界互动才能建立联系。正因如此我们才会说:没有任何AI可以脱离机器人独立存在(没有AI可以开发出很好的机器人,但那完全是另一回事)。我们管这个问题叫作“化身问题(embodiment problem)”,大多的AI研究者现在已经相信:智力和化身是紧密联系在一起的。

第三个问题从本质是说就是文化起源问题。文化是智力的基本催化剂,AI如果不能进行文化性互动,充其量它只能是一个学术珍品。还有,将手写的代码装进机器不会产生文化:文化应该是不断学习的结果。

最后是第四个问题,它要处理的是“内在动机”。为什么代理要做这件事,而不是什么事情也不做?生存需求不足以解释人类的行为。即使人类被喂养得很好、安全无忧,他也不会无所事事,直到饥饿来临才会行动起来。人类有更多的需求:他们会探索、尝试,所有这些行为的背后都有“内在动机”。一些研究人员已经用简单的数学公式来体现好奇心。

许多研究人员认为,“语言获得”是进化而来的:代理通过与世界的互动创造新的意义,使用“意义”和其它代理沟通,挑选最好的结构来帮助沟通(主要是建立了共同意图)。尝试了无数次之后,错了无数次之后,如同生物进化一样,系统进化出最好的意义,建立了一套句法、语法翻译机制。

真正的AI必须有“动机”

看起来系统内部也需要一些类似“内在动机”的东西来推动欲望走过前三步:将与世界有关的信息结构化,将信息与身体联系,选择“最有效的沟通”来建立共同文化,它可以支持协作。在我看来,这才是真正的AGI程序。

深度学习的快速进步,AI最近一段时间取得的成功(比如围棋),这些都是好消息,它意味着AI可以在许多领域变得实用起来,比如医疗、工业、环保等领域。但这只是问题的一部分。我不相信深度学习可以带来真正的AI,所谓真正的AI,从某种意义来说它需要学会如何在世界中生存、与我们进行自然的互动、深入理解我们在情绪和文化偏见上所展现的复杂性、最终帮我们打造一个更好的世界。
谷歌AlphaGo意义重大 但算不上真正的AI