为人工智能植入仇恨会发生什么?

智东西语(公众号:zhidxcom):

不同的意识可以拥有不同的存在形式,人工智能不会在根本上与我们相似。没有注入共情的人工智能只能沦为一个没有意识的玩偶。真正的强人工智能将给我们带来比以往更沉重的道德困境。(连然)

为人工智能植入仇恨会发生什么?

文/ Zoltan Istvan

近年来,人工智能已经成为了一个热门话题。这不再是科幻迷、书呆子和谷歌工程师的专属领域,我在聚会、咖啡店甚至是饭桌上都听过其他人谈论人工智能:我五岁大的女儿在一天晚饭上提起了这个话题。我问她是不是在学校里看到了什么有趣的东西,她说她的老师在课堂上讲到了智能机器人。

对于智能的探索(无论是人类智能还是人工智能)最终都会归结为认识论的范畴。自从古人开始思考创造人工智能的想法以来,认识论在如何实现人工智能的讨论上似乎一直都占上风。我从公众身上听到过最多关于这个领域的问题是:如果我们人类不能理解自己的意识,我们怎么可以创造出另一种智能意识呢?

这是一个值得谨慎思考的问题。虽然人类大脑只有大约 3 磅的重量,但它是我们了解程度最低的一个人体器官。就这个拥有 10 亿个神经元和100万亿个突触的器官来说,我们可以肯定人类距离完全解开大脑之谜还有相当长的一段时间。

总体而言,科学家们认为人类的意识是大脑中多种化学物质的编译结果,其中产生的认知意识可以同时感知自身和外界的存在。

有人提出意识的关键在于感知能力。法国哲学家和数学家勒内·笛卡尔(René Descartes)在这方面首先提出了“我思,故我在”的说法。但是思考不足以成为意识的决定性因素。能够证明思考的存在会更为接近意识的本质,所以这种说法其实应该改成:“我相信自己拥有意识,所以我存在”。

但是在我看来,即使是感知能力也不能完全覆盖意识的内涵。我们可以教一个机器人坚称自己拥有感知能力,但是我们不能教它证明自己不是一个“缸中之脑”(brain in a vat)——即使是我们人类本身也不能做到这点。

艾伦脑科学研究所(Allen Institute for Brain Science)的首席神经学家克里斯托弗·科赫(Christof Koch)对意识给出了一个更为独特和全面的定义。他认为意识可以出现在任何复杂的处理系统之中,包括动物、蠕虫,甚至是互联网。

在一次访问当中,科赫回答了“什么是意识?”这个问题:“威斯康辛大学的朱利奥·托诺尼(Giulio Tononi)发展了一个集成信息理论(Interated Information Theory),根据这个理论,任意大脑或任意复杂系统的集成程度都可以用希腊字母Φ表示。Φ数值的大小可以为意识提供一个信息论层面的度量标准。任何含有集成信息的系统,只要它的Φ值大于零,它就拥有意识。任何集成都具有一定的意义。”

如果科赫和托诺尼是对的话,那么两个意识将不可能完全等同。正如世界上没有两片完全相同的雪花,我们必须坚决反对使用拟人化的偏见来审视意识。

这样的话,我们通过机器创造的自动超级智能的思考和行为方式将非常不同于我们——它甚至无法理解我们,反之亦然。事实上,我们在未来创造的所有人工智能都会把我们看成是数字宇宙中微不足道的存在——《她》(Her)这部精彩绝伦的电影已经为我们生动地讲述了这个未来。当然,人工智能也有可能会选择自我终结——当它感知到自己的存在和周围的人类所投来的好奇目光时。

无论未来会变成怎样,正如人类学当中的文化相对主义概念,我们也必须认识到意识相对主义的存在——一个意识可能会与另一个完全不同,尽管数学、逻辑与编程有望可以成为两个意识之间的沟通工具。

人类和他们的意识其实非常渺小,当我们认识到这点的时候,上面的观点也显得更为合理。毕竟我们所有的感知几乎都是来自五感,这是我们的大脑理解这个世界的方式。而且我们每一种感官的功能都是非常有限的。举个例子,我们的眼睛能够感知的光线只占所有光谱的1%。

出于这个原因,我无意再坚持意识是非此即彼的,而是更为倾向于认同科赫和托诺尼的观点——不同的意识可以拥有不同的存在形式。

这点也解释了为什么我不愿意相信人工智能在根本上会与我们相似。我认为它们可以学习模仿我们的行为(甚至可以完美地模仿),但它们始终是跟我们不一样的东西。如果只是模仿的话,它们的行为就跟发条娃娃别无二致了。大多数人都希望自己的意识可以拥有更强大的能力。当然,大部分人工智能工程师也希望自己创造的机器能有更强大的意识。

尽管如此,我们仍然会按照自己的价值观和思考方式创造人工智能,比如向它们灌输我们拥有的特点。如果要让我指出一种最应该被灌输到人工智能的人类行为特点的话,我会选择共情。只有共情才能形成人们需要、理解和接受的人工智能意识。

另一方面,如果一个人造的意识可以做到共情的话,那么它也将可以拥有喜欢和厌恶——甚至是爱与恨这样的情感。

这里面有一个难题。如果要让一个意识对价值观作出判断,那么这个系统必须拥有喜欢和厌恶(爱与恨)的功能。但是拥有情感的人工智能是一个更具争议性的问题——尤其是现在的自动武器就掌握在机器的手中。然而,没有注入共情的人工智能只能沦为一个没有意识的发条娃娃。

纽约理工学院的教授凯文·拉格兰德(Kevin LaGrandeur)在最近的一篇论文中写道,“如果我们创造的机器真的能够‘感受到’不同程度的内疚,那么这些机器会感到痛苦吗?机器会‘自杀’吗?”如果我们发明了一种真正的强人工智能,到时我们可能会面临创造一个受苦的存在所带来的道德问题。

这肯定会是一个道德困境。我并不羡慕那些正在打造超级人工智能的程序员,因为我知道他们的作品可能会厌恶其他事物,包括它们的创造主。这种编程工作也许会实现这样一个世界——机器人和人工智能将会遇到现代人类正在面临的烦恼,比如焦虑、偏执、沮丧、寂寞与愤怒。

题图来自: QNEINCHPUNCH/SHUTTERSTOCK

(本文原载于TechCrunch 日报,原作者为由 Zoltan Istvan,原标题为“GoPro尼古拉斯·伍德曼访谈:我可不怕苹果”)

为人工智能植入仇恨会发生什么?