生成式人工智能可以为新产品、企业、行业甚至新经济提供信息。但它与传统人工智能不同之处可能使其变得危险。其独特的创造能力引发了一系列全新的安全和隐私问题。
企业突然不得不考虑许多问题,比如是否拥有培训数据的权利?系统本身对未来创建的数据有权利吗?该系统的权利如何受到保护?如何使用生成人工智能来管理模型中的数据隐私……
这也导致了许多企业不敢轻举妄动,因为明显的安全和隐私漏洞,加上对依赖现有的权宜之计解决方案的犹豫,促使许多人完全禁止了这些工具。但还是有希望的。
机密计算是一种新的数据安全方法,可在使用时保护数据并确保代码完整性,是解决大型语言模型(LLM)更复杂、更严重的安全问题的答案。它准备帮助企业在不影响安全的情况下,充分利用生成式人工智能的力量。在解释之前,我们先来看看是什么让生成式人工智能特别容易受到攻击。
生成式人工智能有能力将整个企业的数据,甚至知识丰富的子集,纳入一个可查询的智能模型,从而随时提供全新的想法。这具有巨大的吸引力,但它也使企业很难保持对其专有数据的控制,并保持符合不断变化的监管要求。
如果没有足够的数据安全和信任控制,这种知识的集中和随后的生成结果,可能会无意中使生成人工智能成为滥用、盗窃和非法使用的武器。
事实上,越来越多的员工将机密商业文件、客户数据、源代码和其他受监管的信息提交给llm。由于这些模型部分是根据新输入进行训练的,因此一旦发生泄露,可能会导致知识产权的重大泄露。
如果模型本身受到损害,企业在法律上或合同上有义务保护的任何内容也可能会被泄露。在最坏的情况下,模型及其数据被盗,将允许竞争对手或民族国家行为者复制所有内容并窃取该数据,这些都是高风险的。
另外,企业在投资生成式人工智能时还需要跟上不断变化的隐私法规。在各个行业中,遵守数据要求都有着深刻的责任和动力。例如,在医疗保健领域,人工智能驱动的个性化医疗在改善患者治疗效果和整体效率方面具有巨大潜力。但医疗服务提供者和研究人员需要访问和处理大量敏感的患者数据,同时仍保持合规性,这就带来了新的困境。
为了应对这些挑战以及其他不可避免会出现的挑战,生成人工智能需要一个新的安全基础。保护训练数据和模型必须是重中之重;加密数据库中的字段或表单上的行已不再足够。
在生成式人工智能结果用于重要决策的场景中,代码和数据的完整性及其所传达的信任的证据,对于合规性和潜在的法律责任管理来说绝对至关重要。必须有一种方法为整个计算及其运行状态提供严密的保护。
机密生成式人工智能的出现
机密计算提供了一种简单但非常强大的方法来解决看似棘手的问题。通过机密计算,数据和IP与基础设施所有者完全隔离,并且只能由运行在可信CPU上的可信应用访问。即使在执行过程中,也可以通过加密确保数据隐私。
数据安全和隐私成为云计算的固有属性,以至于即使恶意攻击者破坏了基础设施数据,IP和代码也完全不可见。这对于生成式人工智能来说是完美的,可以降低其安全性、隐私性和攻击风险。
作为安全游戏规则的改变者,机密计算越来越受到关注。每个主要的云提供商和芯片制造商都在投资它,如今,同样的技术,即使是最坚定的云计算反对者也可以成为帮助生成人工智能安全起飞的解决方案。领导者必须开始认真对待它,并理解它的深远影响。
通过机密计算,企业可以确保生成式人工智能模型,仅学习他们打算使用的数据,而不学习其他数据。跨云可信源网络的私有数据集训练提供了完全的控制和安心。所有信息,无论是输入还是输出,都是完全受保护的,都在企业自己的四面墙后面。