机器_meitu_3

在这10项年度最糟科技创新中 第一名竟颁给了人工智能

连然人工智能2015/12/25

智东西(公众号:zhidxcom) 译 | 连然 为何提名? 信息技术与创新基金会(Technology &a […]

智东西(公众号:zhidxcom)
译 | 连然

为何提名?

信息技术与创新基金会(Technology & Innovation Foundation)日前发布了获得年度提名的Luddite奖,即“一年中最差劲的创新杀手”。今年的提名包括出租车对乘客共乘的允许和对车牌自动辨识器的限制。但把“AI alarmists”也列入了名单,ITIF这次就有点走得太远了。

ITIF是位于华盛顿特区,以鼓励科技创新为目的的非营利性组织。每年,ITIF都会公布它认为的一年中最差劲的创新杀手的名单。这个奖项是为纪念Ned Lud而命名,一个在19世纪初领导摧毁机械化织机运动的英国人。该奖项旨在公布组织,政府或个人的最令人震惊的阻碍技术创新进步的例子。

“Neo-Luddites不再挥舞大锤,但他们挥舞的东西变得更加强大:不好的想法。”Robert D. Atkinson,ITIF的创始人和总裁写道。“他们的工作是说服决策者和公众去把创新当作事业,而不是为了解决我们面临的社会和经济挑战,”他说,“他们寻求的世界,有很多的风险,还有无法控制的变化。”

这里是今年的提名者:

危言耸听兜售人工智能的启示

对“杀手机器人”的禁令的提倡

限制车牌自动辨识器的州

欧洲,中国,和其他允许乘客共享出租车的地方

反对电子标签的造纸行业

否决RFID驾驶执照的加州州长

怀俄明的歹徒公民理论

限制了宽带创新的美国联邦通信委员会

因基因改良食品而发生争斗的食品安全中心

禁止红外摄像机的俄亥俄州和其他州

ITIF公布了今年的提名人的详细报告,如果你想详尽地了解每个项目,可以去看一看。该研究所还推出了在线调查,让市民投票选出他们最喜爱的项目,“最终赢家”将在一月份宣布。

纵观提名名单,会发现最后七个项目还是有意义的,从隐私和安全的角度来看,我们也能理解关于RFID标签的驾照的提名。但将“AI alarmists”也提名为neo-Luddites,就让我们有点忐忑了。

对AI Apocalypse的提防

ITIF之所以将有关人工智能启示录的项目列入列表,是由于生命研究所在今年早些时候的一封公开信。比尔·盖茨,斯蒂芬·霍金,埃隆·马斯克和其他公众人物都在信上签名,警告AI最终将可能从我们的控制中逃脱,并带来世界末日般的威胁。与此同时,签名的人也被推举出来负责监督AI的开发进程,致力于降低风险,并确保该技术的“社会效益”。

1_meitu_4

但ITIF也表示,AI还太遥远,所以显然是没有什么可担心的。“现在的系统是否会发展成全自主的人工智能还是一个有争议的问题,但是没有争议的是这个可能的未来还非常地遥远(有可能要一个世纪之多)。并且对于’Skynet’将会变的自私的说法也有点担心的过早了,”Atkinson表示。“事实上,对人工智能的持续的消极的反对运动可能会拖人工智能的研究的后腿,比如都把钱花在了如何控制人工智能,而不是推进人工智能研究的进展。

Atkinson认科幻小说中的末日场景将使公众,决策者和科学家更不愿意为AI研究支持更多的资金。

ITIF没有提到以埃隆·马斯克为首联合创立的非营利的Open AI。Open AI承诺将用数十亿美元,以造福整体人类的方式推进人工智能。该项目也加入了由著名公司如谷歌,苹果和IBM推出的其他类似的举措。此外还有几个类似的学术活动,包括牛津大学的人类未来研究所的研究以及剑桥大学最近推出的风险中心的研究。

这些举措——还不包括世界各地花在人工智能的开发和研究上的数十亿美元,都显示出Atkinson的想法并不是那么有道理。而且从FLI公开信的精神来看,现在考量人工智能的风险绝对不算过早。人类的生存可能已经在威胁中。尤其是超级人工智能——强大的人工智能的出现将会被证明是人类历史上最具破坏性的技术创新,所以考量它的风险是正确的。显然,我们已经不是在谈论Ned Lud的蒸汽动力织布机。

杀人机器该不该禁止?

再有就是高度智能化的全自主武器的问题。ITIF的一部分理由是FLI的另一封公开信,信中要求彻底禁止全自主杀人机器。签署人包括霍金,马斯克,Steve Wozniak,Noam Chomsky,麻省理工学院的物理学家Max Tegmark和Daniel C. Dennett。联合国在今年早些时候正式举行了有关全自主杀人机器的禁令或限制的审议, 人权观察(Human Rights Watch)和哈佛法学院也都写了专题报告,以敦促暂停对这种武器的研发。

2

Atkinson说,对杀人机器的反对“忽略了军方显然将受益的事实,机器人在战场上取代士兵将提升军事作战能力,同时大幅降低工作人员的风险”,他还称“高度智能化的自主武器可能可以帮助己方更好地理解敌情,并减少平民伤亡。“

Atkinson总结到,“对全自主武器的抗议,就如同对人工智能的抗争,逗是对改善人类生活的创新建设工作的不配合。

ITIF指出机器人武器的确有减少战场死亡率的潜力,但人工智能系统能否正确区分战斗人员和平民是很难保证的。更重要的是,与任何一种军事创新相似的是,敌人肯定也会发展出自己的版本。最后,AI军备竞赛可能会导致对超出人类理解和控制之外的超人工智能系统的军事竞争。如果发生这种情况的话,我们将别无选择,只能坐下来祈祷我们不会在这个过程中被毁灭。

ITIF的一个基本问题是关于人类社会对技术坚定不移的信念。到目前为止,我们这样做基本上都成功了。我们也存活了下来——至少目前如此,尤其是在世界末日级的核武器的存在之下。遗憾的是,在未来还有其他危险在等待着我们,所以我们应该意识到潜在的危险,并为此作好准备。

zhidx1029