智东西(公众号:zhidxcom)
文 | 十四
今天,扎克·伯格表示要把自家的人工智能硬件平台开源化,供程序猿“散修”们免费地使用、学习和修改,并承诺会公开完整的人工智能任务创建方法。
上一次这么做的“冤大头”是谷歌,两者玩的都是时下人工智能最为流行的“深度学习”。十一月,谷歌以开源方式免费提供自家TensorFlow机器学习软件,它能用于安卓手机的语音控制,也能帮助出国旅游的用户实时地理解看不懂的地标、说明等。
Facebook是怎么做人工智能的?
Facebook这次开源的代码名为“Big Sur”,是一种易于组装的计算机服务器,可以运行最新的人工智能算法。与一般服务器不同的是,它包含了8个图像处理单元,也就是NVIDIA的Tesla M4 GPU板。
GPU是一种适用于深度学习算法的微处理器,每个GPU都包含了数十个功耗300瓦的芯片。与CPU类似,GPU是专为执行复杂的数学和几何计算而设计的。
据称,经过一年半的试验,Big Sur运行深度学习算法的速度比Facebook之前使用的服务器翻了一番。换言之,它能是计算机同时运行更多程序,实现更高层次的人工智能,能进一步推动计算机的人脸识别和使用自然语言的功能。
不要小看社交网站,新闻排序、图像识别等都涉及大量的数据处理。更何况Facebook还搞了一个用自然语言为盲人描述照片的软件。所以说,Facebook的运转一直依赖着大量人工智能技术的支持。
值得一提的是,之前企业做服务器都只能找戴尔、惠普、IBM等大公司,但随着Facebook、谷歌、亚马逊等越来越多公司开源设计,现在企业们能自己联系亚洲芯片制造商,比如正和Facebook合作的广达,节约大量成本。
“深度学习”究竟什么鬼?
近几年的实际应用,已经充分论证了“深度学习”在图片识别等计算机领域的优越性。
举几个栗子:谷歌萌萌的猫脸识别软件、澳大利亚协助放射科图像诊疗的Enlitic软件、微软的Skype翻译、Yelp的餐厅菜单勾选功能,以及大boss——智脑沃森,都运用了“深度学习”。
“深度学习”是一种模仿神经构造的算法,被认为是未来计算机可能性的所在。随着研究的进展,Facebook、谷歌、百度等公司已经发现,GPU在构建神经网络结构上更有优势。
而Facebook此次公布的硬件平台,主要突破在于拓展深度算法的层次,推动深度算法的演变。用深度算法大牛(一说“深度算法之父”),也就是现在Facebook人工智能负责人Yann LeCun的话来说:卷积神经网络构造得越大,它们工作得就越好。
大佬们都这么无私搞开源?
开源这件“蠢事”能获利,最直观的例子就是安卓手机的逆袭。由于开源,安卓系统创建了强大的开发者社区,才逐步夺回了手机市场。日前,苹果也把Swift开源化了。
而做人工智能开源这件“慈善事业”的,不止是谷歌和Facebook,还有微软、IBM、百度等。当然,大佬们也不傻,开源的大都是比较顶层的算法。
与手机软件不同的是,“深度学习”算法相对来说比较年轻,借用Facebook发表的声明:共享工艺和技术,这种开放式的合作,不仅有助于促进设计的创新,也能帮助人类进一步构建复杂的人工智能系统。
换言之,“深度学习”这一领域需要通过开源来吸引更多的开发者加入,来推动技术的进步;同时,这也是科技公司们集思广益,减少自己科研经费压力的一种方式。
总结
就像LeCun说的,越多的人使用一个平台,这个平台就会变得越来越好,这是一种网络效应。因为在某个特定的平台和标准上,团结到更多的人,才能让这个平台,或标准为更多的人服务。
也许这就是为什么,距离谷歌推出TensorFlow才短短几个星期,Facebook就急不可耐地宣布要开源硬件平台。这是一场“深度学习”技术的“圈地战争”。