当有人问我,“AI 对企业构成什么风险?”时,我会反问:“你担心哪种 AI?” 许多领导者不知道AI有多种形式,所以我需要确保我们谈论的是同一件事。
Naveen Joshi 在一篇很好的《福布斯》文章中讨论了定义或分类 AI 的七种方式,他描述了四种主要的 AI 处理类型:反应型、有限记忆型、心智理论型和自我意识型,然后,他提出了三种广泛的 AI 类型:人工窄智能(ANI)、人工通用智能(AGI)和人工超智能(ASI)。
目前只有前两种 AI 存在。IBM 的 Deep Blue 是反应型的例子(它没有记忆,必须编程完成所有任务),而 Alexa 和 Siri 是有限记忆 AI 的例子。当人们谈论 AI 时,大多数人想到的是有限记忆 AI。
当你想到有限记忆 AI 时,你可能不会用这些术语来考虑它。你想到的是使用机器学习(ML)、预测分析(PA)或具有生成预训练(GPT)接口的大型语言模型(LLM)的工具,例如 ChatGPT。
现在我们定义了术语,你可能在思考 GPT 工具(如 ChatGPT、微软的 Copilot 或谷歌的 Gemini)给你的企业或组织带来的风险。尽管这个话题已经被广泛讨论过,但我会强调主要风险,然后讨论我见过的威胁行为者如何利用它们,以及你可以如何保护你的组织。
GPT工具的四大主要风险
首先,以下是 GPT 工具的四大主要风险。
1. 社交攻击:像 ChatGPT 这样的工具可以从简单的提示中写出极具说服力的钓鱼邮件,其他 GPT 工具可以创建听起来像真人的钓鱼电话或假视频(付费墙),可以在视频通话中欺骗人。我们不能再依赖旧的方法来识别钓鱼邮件、电话诈骗或视频深度伪造。
2. 准确性:GPT 工具可以给出正确、不正确或介于两者之间的结果。问题在于 AI 会极为自信地呈现错误答案。生成的回答可能是 100% 错误的,但听起来 100% 正确。作为工具的用户,你必须已经知道答案是对是错,或者大部分对或错,而且,如果你认为重复性是准确性的标志,那就再想想吧:你不会每次都得到相同的答案。GPT 工具不是确定性的,这意味着你在问问题之前真的需要知道正确答案。
3. 数据隐私:有无数例子表明,员工将敏感或机密的公司数据上传到开放的 GPT 工具中,这些数据随后被纳入该工具的训练数据中。《福布斯》撰稿人 Gene Marks 的一篇文章详细介绍了使用 GPT 工具帮助进行业务流程(如分析电子表格、记录会议记录和总结文件)的风险。你需要知道你的数据在哪里,并确保它不会最终进入 AI。
4.数据中毒:由于生成工具需要大数据集,开发者通常在数十亿个网站上训练工具,如 ChatGPT 和 Gemini。谷歌最近与 Reddit 合作,使谷歌搜索结果中更容易包含 Reddit 的内容,这既有利也有弊。好处是所有人类生成的内容现在都可以快速搜索,但坏处是 Reddit 上那些搞笑的、讽刺的和误导性的帖子也得到了提升。一个例子是谷歌自己的 AI 搜索,当被问到如何让奶酪更好地粘在披萨上时,返回了 Reddit 上建议在披萨上加入无毒胶水的结果。
缓解风险
现在我们已经确定了四个风险,如何缓解这些风险?幸运的是,准备充分且对 AI 了解的网络安全团队正在应对组织面临的风险,以下是一些你可以使用的工具。
1. 社交攻击:网络安全公司已经整合了机器学习和预测分析技术超过十年,以防止钓鱼邮件。不要仅依赖安全工具来防止社交工程攻击,但可以从这里开始。有许多免费的 AI 检测工具可以帮助确定邮件是否由生成 AI 编写。事实上,你甚至可以将邮件粘贴到 ChatGPT 中,问它是否编写了这封邮件。
2. 准确性:虽然正在开发监控生成内容的工具,但最好的工具是人工监督。如果在生成 AI 循环中移除人工监督,企业将面临财务损失。你需要谨慎行事,同时评估 AI 模型的准确性。
3. 数据隐私:最小化员工将组织数据上传到 GPT 系统的风险的解决方案是将政策和治理与数据丢失防护工具结合起来。员工需要知道他们可以和不能上传到 ChatGPT 和其他生成 AI 工具的内容,因此需要向所有员工传达 AI 政策。
4. 数据中毒:为了帮助防止数据中毒,实施数据清理、定期监控和安全数据处理,这些控制措施是你在任何时候将应用程序暴露在互联网时所采取的措施。
如果你的企业打算采用GenAI,请从这些简单的步骤开始,这样,你将能够更好地控制和受益于AI,而不是创造风险。