智东西(公众号:zhidxcom)
作者| 徐珊
编辑| 云鹏
智东西7月31日消息,据外媒Tech Xplore报道,康奈尔大学的研究人员发现恶意代码很容易隐藏在AI的神经网络系统中,并且人们难以察觉。
研究团队尝试将恶意代码嵌入到一个名为“AlexNet”AI的神经网络系统中,随后他们发现不仅常见的杀毒软件无法发现恶意代码件的存在,而且AI被恶意代码感染之后,运行状态也不会发生变化,人们也更难以察觉系统中存在恶意代码。因此,如果不法分子利用这样的方式入侵AI中,将会很容易盗窃系统里的重要数据。
研究人员表示,在此次实验中,他们将恶意代码添加到神经网络系统中最容易入侵的注入层(injection)。此外,他们选择的是已经训练过的AI系统,而不法分子们可能更愿意选择一些从未经过训练的AI神经网络系统,这样入侵起来会更加方便。
研究人员指出,如果简单地向AI添加一段恶意代码,AI模型并不会受到伤害,因为无论谁将代码插入到AI模型中,都需要找到该代码的执行方式。但如果将恶意代码入侵到AI的神经网络系统中,恶意代码会模仿神经网络的结构运作,悄无声息地“融入”到AI的神经网络系统中。
他们表示,现在人们注意到黑客可以将恶意代码隐藏在AI的神经网络系统中后,可以设计出更加全面的防病毒软件,以免用户损失。
结语:AI时代,技术与安全应并行
康奈尔大学的研究人员发现,恶意代码入侵AI的神经网络系统后,能在无声无息中对用户的数据安全以及财产造成较大的威胁。
随着AI技术快速发展,AI已经逐渐渗入日常生活的各个角落中,但我们也需要关注AI技术背后的安全漏洞,因为这些安全漏洞可能会成为威胁到国家安全的“武器”。近期,俄罗斯黑客组织REvil在9个月内入侵了近180家公司,300家组织,甚至让美国部分能源公司全面瘫痪。
因此,面对AI时代的快速发展,AI时代的安全是不可避免的重要话题,技术应与安全并行。
来源:Tech Xplore