大牛预测2018年深度学习走向:大批AI硬件初创将失败

智东西(公众号:zhidxcom)
编 | CJ

导语:本文作者Carlos E. Perez是Intuition Machine公司的创始人,曾经编写《人工直觉与深度学习手册》( Artificial Intuition and the Deep Learning Playbook),他将会在2018年3月1日至2日在阿姆斯特丹举行的2018年信息能量大会(Information Energy 2018)上做关于交互认知模型的演讲。本文的十大预测涉及到很多领域,如AI芯片、深度学习的可解释性、AlphaGo的自对弈学习、交互性认知等问题。

我对2018年有一种不祥的预感,因为今年可能会发生翻天覆地的变化。2017年,深度学习已经有了巨大进展,而这样的势头将在2018年继续。2017年的许多研究成果将在2018年运用到日常应用当中。

就像我去年做过的一样,今年我也要对2018年深度学习的走向做出十大预测:

一、绝大多数的深度学习硬件初创将失败

很多做深度学习硬件的初创公司将在2018年开始推出他们的硬件产品(编者注:比如专用的AI芯片、AI板卡)。他们大部分都会失败,因为他们没有足够好的软件来适用他们的新硬件产品。而这些公司的硬件产品就像是他们的DNA。不幸的是,在深度学习这个领域中,软件和硬件一样重要。可几乎所有类似的初创企业都不懂软件也不知道砸钱开发软件。这些公司就知道做硬件,然后没有任何软件能和这些硬件配合使用。

因为一些容易实现的收缩列阵方案(Systolic Array Solutions)被提出,人工智能的性能得到十倍提升,但正因为如此,这样的好事不会年年都有,我们也不要期待2018年里人工智能的性能还能被这么轻易的大幅提升。未来,张量处理器(TPU)不仅会被研究员们用来推理,还会被用来加速AI训练。

英特尔的产品发布依然在延迟,谁都在想英特尔啥时候能发布新产品,不过我觉得推迟了这么久,就算发布了也是个令人失望的东西。(编者注:智东西不久曾经深扒过英特尔的这块AI芯片《三年半了!英特尔这颗AI芯片鱼雷要发射了吗》)

大牛预测2018年深度学习走向:大批AI硬件初创将失败

谷歌会持续用TPU的发展成果惊艳所有人。我觉得未来谷歌可能会通过授权知识产权给其他半导体公司的方式进入硬件市场。如果是这样,那英伟达在这个行业中唯一的对手可能就是谷歌了。

二、元学习(Meta-Learning)会成为新的随机梯度下降法(SGD)

2017年,有很多很棒的元学习的研究出现。因为研究领域普遍对元学习了解更为深入,这种结合开发性和探索性搜索的方式更为有效,所以旧的随机梯度下降模型(SGD)将被淘汰。

非监督学习会有巨大进展,但是进展多少取决于元学习算法的发展。

三、生成模型(Generative Model)会引领新一代建模风潮

生成模型将会更多地被运用到科学探索领域中。目前看来,这方面的研究内容更多的是关于生成图像和语音。但是,我们可以看到它结合其他工具运用于复杂模型建模的可能性,尤其是和深度学习相结合运用在经济模型建模中。

四、“自我对弈”其实是一种知识的自动生成

大牛预测2018年深度学习走向:大批AI硬件初创将失败

AlphaGo Zero和Alpha Zero的“自我对弈”和从碎片信息中学习的能力是一个跨越式的进步。我的个人观点是,这个成果的重要性相当于深度学习的出现。深度学习发现了一个通用的可以无限接近一个函数模型的方法。强化学习(Reinforcement Learning)的“自我对弈”则发现了AI自己产出通用知识的方法。

我真的非常期待看到更多的这一方面的发展成果。

五、直觉机器将补全语义间隙

这应该是我做的最大胆的推测。我们将补全直觉机器和理性机器之间的语义间隙。在如何建造新型人工智能的领域中,双过程理论(Dual Process Theory)将会是最为流行的理论。人工直觉(Artificial Intuition)的概念也会在2018年被更广泛地接受,而不再是一个边缘概念。

六、可解释性是不可能达到的-但我们可以“造假”

可解释性存在两个问题。大家更为了解的一个问题是中间有太多太多条件,而这是一个人类不可能完美掌握的。第二个问题,也是很少人知道的,那就是一个机器所能提出的概念可能根本不是人话而且完全无法解释。这些我们已经在AlphaGo Zero和Alpha Zero身上看到了。人类会认为人工智能的一步棋走得非同寻常,但与此同时,人类也完全不能理解这步棋背后的逻辑是什么。

就我个人看来,可解释性是个不可能解决的问题。相反的,可能发生的情况是机器可能会变得非常善于“伪造”解释。简单来说,可解释机器的任务就是去理解什么样的解释是人类可以接受的或者是在一定程度上是可以理解的。然而,在大部分情况下,一个所谓完整的人工智能做出的解释是人类绝对无法理解的。

我们一定要从“伪造解释”这个方向去突破深度学习中的可解释性的问题。

七、深度学习的研究成果会如洪水爆发一样一发不可收拾

2017年对于很多关注深度学习研究领域的人来说是非常难熬的一年。2018国际学习表征会议(ICLR conference 2018)收到了大约4000篇论文。这就意味着每一个研究员每天读十篇论文也只是刚好能掌握单单这一个会议的内容。

在这个领域中,这个问题今年会变得更为棘手,因为理论框架还在形成过程中。在理论研究中,我们需要找到更加高级的算法去得到更深入的研究成果。这将会是一次壮举,因为大多数深度学习研究人员都没有足够的数学理论背景能理解这种系统的复杂性。深度学习研究员需要完备复杂的理论背景,然而符合条件的研究员少之又少。

这种状况导致的结果就是发表的论文太多而且理论方面十分粗糙,于是我们今天才会处于这样窘迫的境地。

同样缺失的还有强人工智能(AGI)研究的方向和目标。因为理论基础薄弱,所以我们现在最需要做的就是研究出一个包含人类认知里程碑的方向。我们需要从认知心理学中的一些理论猜想提取出一个大概的框架。这情况很不妙,原因就在于这些领域现有的经验还根本上不了台面。

2018年深度学习的研究论文数量可能会是2017年的三倍或者四倍。

八、教学环境(Teaching environments)将体现工业化

要让深度学习系统变得更可预见也更可操控,教学环境的研究进展非常关键。我曾经在我的文章中详细说过,不再赘言。如果想了解最原始的教学技术,你只需要去看看深度学习网络是如何被训练的。我们也将会在这个领域看到更多的发展成果。

鉴于这么多公司开始大规模布局深度学习领域,我期待看到更多公司将其有关的内部基础设施公之于众。

九、交互性认知(Conversational cognition)的崛起

我们衡量强人工智能进程的依据已经跟不上时代发展了。因为真实世界是动态的、复杂的,因此新的交互式认知模型急需建立。在即将到来的这一年,将有更多关于这一新的领域的探索。

十、我们需要在伦理道德范围内使用人工智能

2018年,有关人工智能的伦理道德方面的要求将会更高。人们已经越来越能意识到不加任何约束的自动化的后果可能是灾难性的。就算是在Facebook、推特、谷歌、亚马逊等等网站上,我们能看到的一些简单化的自动生成都会对社会产生一些不利影响。

我们需要明白,使用能预测人类行动的机器背后存在道德伦理问题。我们现在常用的面部识别就是这些危险应用的其中之一。除此之外,试想如果人工智能利用算法就可以生成真假难辨的、和现实中可能看到的东西无异的媒体内容,这会是个很大的问题。我们现在就要开始提出要求,应用人工智能的目的只能是造福社会而不是用来加深人与人之间的差距和不平等。

我期待在今年看到更多关于人工智能方面的道德伦理的讨论。不过,我并不希望看到相关的管理条例的出台。因为政府人员信息落后,他们完全不能理解人工智能可能对社会造成的影响。我根本不抱有任何期待,让他们停止玩弄权术然后去真正解决社会问题是不可能的。就像美国民众已经饱受安全漏洞的侵袭,但是我们仍然看不到能解决问题的任何新的有关立法或是提案公布。所以真的别想着掌权者会幡然醒悟,不存在的。

结语、准备好感受冲击吧!

综上所述,2018年将会是至关重要的一年,让我们拭目以待。

原文来自:Medium

大牛预测2018年深度学习走向:大批AI硬件初创将失败