微软正在全力推广生成式AI工具Copilot,如果你想了解即将召开的公司会议,Copilot可以从邮件、Teams聊天记录、文件中搜集相关资料,给出答案。但有利就有弊,报告显示,Copilot可能会被黑客利用。
在最近举行的拉斯维加斯黑帽技术大会(Black Hat)会议上,研究人员Michael Bargury 展示了5种Copilot被黑客操纵的新方式。例如,利用Copilot给出错误的文件引用、窃取私密数据、避开微软安全防护。
被操纵的Copilot可变成网络钓鱼工具
最让人担心的是,Michael Bargury居然可以把Copilot变成网络钓鱼工具。黑客可以进入用户的工作邮件,用Copilot定期观察,看你经常给谁发邮件,然后模拟用户写作风格进行写作,甚至模拟用户经常使用的表情符号,然后将个性化写作内容发给对方,里面可能有恶意软件链接。
Michael Bargury说:“只要你和某人对过话,我就可以将类似信息发送给他,我可以代表你发送成百上千的邮件。”
Michael Bargury是安全公司Zenity的联合创始人、CEO,他公布视频,证明Copilot完全有可能会被滥用。Michael Bargury还说:“以前一名黑客可能会花几天时间精心制作邮件,引诱他人点击,现在他更厉害了,可以在几分钟内就生成几百封这样的邮件。”
在攻击时,Michael Bargury用到了大语言模型,但黑客可以添加数据或者指令,达成特定结果。事实证明,现在的AI系统仍面临挑战,当我们让系统和企业数据联系时,如果放入不可信外部数据,它往往难以分辨。
当然,完成操作时黑客先要获取邮件账户密码,一些黑客甚至还可以获取更敏感的信息,比如受害者的工资是多少,微软敏感文件防御措施完全失效。即使没有拿到邮件账户信息,黑客也可以发起攻击,它可以先用恶意邮件污染AI数据库,然后操纵与银行信息有关的答案。每一次当AI访问数据时就是一次攻击机会。
在一次演示中,外部黑客获取财报会议相关信息,会议即将召开,黑客可以提前得知业绩是好还是坏;还有,黑客可以将Copilot变成“恶意内鬼”,它向用户发送钓鱼网站链接。
微软AI事件侦测和响应主管Phillip Misner表示,Michael Bargury发现了产品存在的漏洞,公司十分感谢,微软正在与Michael Bargury合作解决问题。
Phillip Misner强调:“滥用AI所存在的PCS(Post-Compromise security,后向安全)风险和其它PCS风险是相似的,通过跨环境、跨事件安全预防和监测可以降低恶意行为的发生,甚至可以阻止该行为。”
外部数据进入AI系统会带来安全风险
不论是OpenAI的ChatGPT还是微软的Copilot,亦或是谷歌Gemini,它们都有可能代替人完成一些工作,比如在线购物、预订会议。但安全专家警告称,允许外部数据进入AI系统可能会带来安全风险。
安全研究员Johann Rehberger称:“到底攻击者的效率已经提升到了什么程度?我们对此并无清晰认知。我们应该担心的是,到底大语言模型生成了什么,它又向用户发送了什么。”
Michael Bargury认为,微软花了许多精力保护Copilot系统,防止工具遭到植入式攻击,但他仍然通过解构系统构造找到了攻击方法。黑客可以抽取内部系统提示语,然后搞清为什么AI可以访问企业资源,背后使用了哪些技术。
Michael Bargury称:“当你与Copilot对话时,这种对话是有限的,因为微软施加了许多控制。但是如果使用一些极少数的魔法式词汇,系统就会门户洞开,然后你就可以为所欲为。”
有些数据问题与企业的长期问题联系在一起,比如企业让太多人访问文件,没有在组织内设置好权限。有时Copilot存在的问题恰好处于此问题之上,如果公司的长期问题不解决,Copilot问题也难以解决。
研究人员普遍认为,我们应该监控AI生成了什么,看看它给用户发送了什么。AI是如何与环境互动的?它是如何与数据互动的?它是如何代表个人执行任务的?这些问题需要好好思考,里面有很大的风险。AI代理(Agent)到底代表人类做了什么?我们很有必要搞清楚。(小刀)