安全和隐私问题是采用人工智能的最大障碍,这是有充分的理由。良性和恶意行为者都可以威胁AI模型和数据的性能、公平、安全与隐私。
随着AI逐渐成为主流并转向他们承诺一系列好处,这是企业不能忽略的发展趋势。实际上,在最近的2020年Gartner新兴技术发展曲线图中,所列技术中有三分之一以上与AI有关。
同时,人工智能也有一个往往无法解决的阴暗面,特别是因为当前的机器学习和人工智能平台,市场上还没有提供一致或全面的工具来保护企业组织和个人的权益。人工智能企业而言,更糟糕的是,根据Gartner的一项调查,消费者认为,使用或提供AI的组织在出现问题时应负责任。
实施应对威胁的安全措施以保护AI投资符合每个组织的利益。对AI的威胁和攻击不仅损害AI模型的安全性和数据安全性,而且损害模型的性能和结果。
犯罪分子通常会以两种方式攻击AI,技术人员可以采取行动来减轻此类威胁,但首先让我们探讨AI的三大核心风险。
人工智能的安全、责任和社会风险
使用AI的组织面临三种风险。随着AI越来越普及并嵌入到关键的企业运营中,安全风险正在上升。例如,自动驾驶汽车的AI模型中可能存在导致致命事故的错误。
由于使用敏感客户数据的AI模型越来越多地影响着影响客户的决策,因此责任风险正在增加。例如,错误的AI信用评分会阻碍消费者获得贷款,从而导致财务和声誉损失。
随着“不负责任的AI”通过做出既不透明也不容易理解的偏见决策,给消费者带来不利和不公平的后果,社会风险正在增加。即使是轻微的偏差也会导致算法的严重错误行为。
罪犯通常如何攻击AI
上述风险可能是由犯罪分子攻击AI的两种常见方式造成的:恶意输入,骚扰和调查攻击。
对AI模型的恶意输入可以采取对抗性AI、操纵数字输入或恶意物理输入的形式。对抗性AI可能会使用AI生成的声音以社会工程学人类的形式出现,该声音可用于任何类型的犯罪,被认为是网络钓鱼的“新”形式。例如,去年3月,犯罪分子使用AI合成语音模仿了CEO的语音,并要求将243000美元的资金以欺诈方式转移到自己的帐户中。
调查攻击涉及犯罪分子向组织的AI模型发送调查,以了解其工作方式,并且可能以黑匣子或白匣子的形式出现。具体来说,黑匣子查询攻击确定了不常见的扰动输入,以用于所需的输出,例如财务收益或避免检测。一些学者已经能够通过操纵输出来欺骗领先的翻译模型,从而导致翻译不正确。
白盒查询攻击会重新生成训练数据集以重现类似的模型,这可能会导致有价值的数据被盗。这样的一个例子是,语音识别供应商成为新的外国供应商伪造他们的技术然后出售它的受害者,这导致外国供应商能够基于被盗的IP抢占市场份额。
最新的安全支柱使AI值得信赖
对于IT领导者而言,承认其组织中对AI的威胁至关重要,以便评估和支持他们现有的现有安全支柱(以人为中心和企业安全控制)和新的安全支柱(AI模型的完整性和AI数据)完整性)。
AI模型的完整性鼓励组织探索对员工的对抗培训,并通过企业安全控制来减少攻击面。将区块链用于AI模型的起源和跟踪以及用于训练该模型的数据也属于这一支柱,作为组织使AI更加值得信赖的一种方式。
AI数据完整性侧重于数据异常分析(如分布模式和异常值)以及数据保护(如差异性隐私或合成数据),以应对对AI的威胁。
为了保护AI应用程序的安全,专注于安全技术和基础架构的技术专业人员应执行以下操作:
- 通过进行威胁评估并应用严格的访问控制以及对训练数据、模型和数据处理组件的监视,可以最大程度地减少开发和生产期间AI应用的攻击面。
- 通过解决四个特定于AI的方面来增强用于保护软件开发生命周期(SDLC)的标准控件:模型开发过程中的威胁,AI模型中缺陷的检测,对第三方预训练模型的依赖以及公开的数据管道。
- 通过保护和维护最新,高质量并且包含对抗性样本的数据存储库,防御所有数据管道中的数据中毒。越来越多的开源和商业解决方案可用于提高针对数据中毒,对抗性输入和模型泄漏攻击的鲁棒性。
除非欺诈者被人发现并随后对该欺诈者的系统进行取证,否则很难证明AI模型何时遭到攻击。同时,企业不会简单地停止使用AI,因此确保其安全对于在企业中成功实施AI至关重要。将安全性改造到任何系统中的成本要比从一开始就内置它要高得多,因此请立即保护您的AI。