针对使用人工智能 (AI) 和机器学习 (ML) 的安全软件的数据中毒可能是下一个重大的网络安全风险。根据SANS 技术研究所研究主任 Johannes Ullrich在RSA 2021 的主题演讲中,这是一个大家都应该关注的威胁。
Ullrich 在 RSA 说“在机器学习方面,最基本的威胁之一是攻击者实际上能够影响我们用来训练模型的样本”
随着这种新威胁的迅速出现,防御者必须学习如何发现数据中毒攻击以及如何预防它们。否则,将根据错误数据做出业务和网络安全决策。
什么是数据中毒?
当攻击者篡改用于训练 AI 模型的数据时,实际上会“中毒”。因为人工智能依赖于这些数据来学习如何做出准确的预测,所以算法生成的预测将是不正确的。
威胁行为者现在正在以可用于网络攻击的方式处理数据。例如,他们可以通过更改推荐引擎的数据来做很多事情。从那里,他们可以让某人下载恶意软件应用程序或单击受感染的链接。
数据中毒是如此危险,因为它使用人工智能来对付我们。我们越来越相信人工智能对我们个人生活和工作的许多方面的预测。从帮助我们选择要观看的电影到告诉我们哪些客户可能会取消他们的服务,它无所不能。
随着 COVID-19 的数字化转型加速,人工智能变得更加普遍。数字交易和连接是常态而不是例外。
数据中毒和网络安全工具
威胁行为者也在使用数据中毒来渗透防御者用来发现威胁的工具。首先,他们可以更改数据或添加数据以生成不正确的分类。此外,攻击者还利用数据中毒来生成后门。
对 AI 工具的数据中毒攻击的增加意味着企业和机构可能会犹豫转向这些工具。它还使防御者知道要信任哪些数据变得更具挑战性。
在主题演讲中,Ullrich 表示,解决方案首先要全面了解 AI 网络安全工具使用的模型。如果您不了解是什么保护了您的数据,则很难判断这些技术和工具是否准确。
识别数据中毒攻击
发现数据中毒攻击具有挑战性且耗时。所以,受害者往往发现,当他们发现问题时,损害已经很大了。
此外,他们不知道哪些数据是真实的,哪些数据被操纵过。数据中毒攻击通常是内部工作,并且以非常缓慢的速度进行。两者都使数据中的更改容易遗漏。
在 RSA 会议“规避、中毒、提取和推理:防御和评估的工具”期间,IBM 研究院的 Abigail Goldsteen 建议网络安全专业人士使用Adversarial Robustness 360 Toolbox (ART)来识别、阻止和预防数据中毒攻击。这个开源工具包可以让开发者快速创建、分析和攻击,然后快速为机器学习模型选择正确的防御方法。
使用我们拥有的工具
那么,你不应该使用人工智能吗?在这一点上,完全放弃它是不切实际的。这样做将导致威胁行为者简单地使用AI 和 ML来创建我们无法防御的攻击。
相反,作为捍卫者不能盲目相信拥有的工具和数据。应更加了解算法的工作原理并定期检查异常数据将有助于我们提前防范攻击。