在近期召开的在一次网络安全会议上,100位受访行业专家中的62位认为,首轮AI强化型网络攻击很可能在接下来12个月内出现。
AI的介入会进一步升级目前的网络犯罪与网络安全体系,进而成为攻击者与防御者之间军备竞赛的核心支柱之一。
这种担忧并不是空穴来风。网络安全是一个人力受限的市场,而计算机除了不需要进食与休息之外,还能够以AI自动化的方式,提升复杂攻击的速度与执行效率,这很容易诱使黑客使用AI进行攻击。
虽然目前公共领域的研究,仅限于白帽黑客使用计算机识别漏洞并提出修复建议。然而,以AI的发展速度,攻击者对其大规模应用也是指日可待的事。
AI型网络攻击会带来哪些威胁?
首先,AI能够帮助黑客定制攻击手段。举例来说,鱼叉式钓鱼攻击要求攻击者获取潜在目标的个人信息以及其它详细资料,具体包括银行帐户或者其选择的医疗保险公司。
AI系统能够帮助攻击者快速收集、组织并处理大型数据库,从而对信息进行关联与识别,最终简化攻击实施门槛并加快攻击执行速度。
另外,工作量的降低将使得网络犯罪分子能够发动大量的小规模攻击。由于单次攻击的影响较为有限,因此这类活动即使被检测到也往往会受到忽视。
AI系统甚至可被用于从多个来源处同时提取信息,从而发现那些易受攻击活动影响的目标。
其次,AI能够帮助提升适应能力。AI支持型攻击者在遇到阻力,或者网络安全专家修复了原有漏洞时,能够快速作出反应。在这种情况下,AI可能会在无需人为指示的前提下转而利用另一项漏洞,或者对系统进行扫描以找到新的可行入侵方式。
这意味着防御者将无法跟上AI方案的进攻速度。这极有可能引发新一轮编程与技术性军备竞赛,其中防御者开发出AI助手以发现并抵御攻击活动,甚至打造出拥有报复性攻击能力的AI方案。
第三,AI同样可能带来的危险。AI自主操作可能导致其攻击本不应攻击的对象,甚至可能造成意外损失的系统。
举例来说,原本只打算窃取资金的攻击者,在运行AI软件后,也许会决定将目标指向医院计算机,这极易导致人身伤害甚至是死亡等严重后果。
尽管后果与影响如此重要,但大多数企业在遭遇第一次AI攻击时,并不会注意到此类重大变化。但随着我们不断利用AI系统改进自身家庭环境、工厂、办公室乃至交通运输系统,AI引发的潜在威胁必将不断提升。
使用AI对AI进行攻击
除了AI带来的自动化攻击,黑客使用AI对AI进行攻击,也成为业界最为关注的潜在威胁。
对抗性的机器学习研究表明,AI可能会被黑客攻击,从而做出完全错误的决策。随着人工智能渗透到我们生活的方方面面——驾驶汽车、分析视频监控系统、通过面部识别某人身份——对这些系统的攻击变得更加可能,也更加危险。
例如:黑客修改路边交通标志,可能会导致车祸和人员伤害,对数据机器学习系统的细微改变,也会导致人工智能系统做出的决策出现偏差。
为了防止黑客想要通过篡改数据集或现实环境来攻击人工智能,研究人员转向对抗性的机器学习研究。在这种情况下,研究人员对数据进行修改,从而欺骗神经网络和人工智能系统,让它们看到不存在的东西,忽略存在的东西,或者使得其关于分类对象的决策完全错误。
就像谷歌和纽约大学研究人员所做的那样,在一辆校车的照片上,加上一层对人类来说无形的数据噪声,神经网络就会认为那是一只鸵鸟。
不仅仅是图像可以这样,隐藏的语音指令嵌入到广播中,从而控制智能手机,同时不会让人们察觉。
华盛顿大学计算机安全研究员Earlence Fernandes也从事停车标志研究,他表示:“攻击的范围很广,取决于攻击者处在机器学习模型生成过程的哪个阶段。” 例如:在人脸检测算法中,攻击者可能会用恶意数据对模型施以毒害,从而使检测算法将攻击者的脸识别为授权人。”
另一方面,推理时间攻击则是通过一系列算法——比如快速梯度符号法(Fast Gradient Sign Method,FGSM)和当前最优攻击方法(Carlini and Wagner)是两种最流行的算法——向模型显示精心制作的输入,从而迷惑神经网络。
虽然这类工作现在被描述为一种攻击,但从哲学角度来说,对抗性的例子最初被视为神经网络设计中的一个近乎盲点:我们假设机器以我们同样的方式看东西,它们用与我们相似的标准来识别物体。
2014年,谷歌研究人员在一篇关于“神经网络的有趣特性”的论文中首次描述了这一想法,该论文描述了如何在图像中添加“扰动”元素会导致神经网络出现错误——他们称之为“对抗性示例”。
他们发现,微小的扭曲就可能会骗过神经网络,使其误读一个数字或误将校车当成别的什么东西。这项研究对神经网络“固有盲点”以及它们在学习过程中的“非直觉特征”提出了质疑。换句话说,我们并不真正了解神经网络是如何运作的。
正是基于神经网络的不可理解性,人们也就暂时不用太担心AI攻击事件发生。麻省理工学院的研究员Anish Athalye指出,“据我们所知,这种类型的攻击,目前还没有在被现实世界中的恶意组织所采纳过。”
针对AI攻击的防御措施
那么,对于潜在的AI攻击风险,人们可以做到哪些潜在的防御措施呢?
首先,显而易见的,增加网络防御中AI的使用,并非坏的选择。网络防御已经采用了一种监管和非监管相结合的学习方法,基于现有的模式预测新的威胁和恶意软件。
行为分析是另一种探索途径。机器学习技术可用于监控系统和人类活动,以检测潜在的恶意偏离。
但重要的是,在使用AI进行防御时,我们应该假设攻击者已经对此有所预料。我们还必须掌控AI的发展及其在网络中的应用,以便能够可靠地预测恶意应用程序。
为了实现这一目标,行业从业者、学术研究人员和决策者之间的合作至关重要。立法者必须考虑到AI的潜在用途,并更新关于“黑客”的定义。研究人员应该谨防其研究成果被恶意使用。补丁和漏洞管理程序也应该在企业界得到应有的重视。
最后,用户也应当树立安全意识,防止社会工程攻击,阻止密码重用,并在可行的情况下提倡双因素身份验证。