最近一些分析师发出警告,OpenAI开发的聊天机器人ChatGPT可以生成恶意软件。AI生成的代码可能会给网络安全造成严重威胁,人类编写的防护软件无法抵御。
据Tech Monitor报道,不久前OpenAI正式发布ChatGPT聊天机器人,它是根据OpenAI的GPT-3大语言模型开发的。事实证明ChatGPT可以完成多种任务,比如回答客户提问,生成代码,根据提示撰写复杂且精准的散文。
但是,ChatGPT还可以用于网络犯罪,这恐怕是很多人没有想到的。推特网友@lordx64是一名工程师,他用ChatGPT生成了新的恶意软件。他指出,用户可以用OpenAI生成负载,可以具体指定执行何种负载以及如何执行,这可以用于网络战争。
2019年时OpenAI曾做过尝试,用AI软件生成假新闻。给AI一个主题,给出简单提示,它就能生成连贯文章。即使换一个不同主题,AI也不需要重新训练就能上岗。
ChatGPT能不能生成恶意软件?
网络安全行业已经开始引入AI,它可以快速发现攻击并回应。ChatGPT能不能更进一步?能不能生成代码?牛津大学AI、网络安全顾问Raj Sharma给出自己的看法:
“这些代码都是非常基本的代码,但还是可以用来犯罪。AI有一个擅长的技能,那就是自动化。如果黑客能训练AI,让它编写恶意软件,它会不断学习,到时黑客就能拥有一款基于学习的黑客工具。”
Trend Micro技术专家Bharat Mistry认为,ChatGPT在基础层面很容易使用,但想让它生成强大的恶意软件还是很难,许多黑客都做不到。他说:“聊天机器人越来越多,背后的智能越来越高。网络犯罪也越来越复杂,黑客必须知道如何调校引擎,让它做黑客需要引擎做的事。总之,实际操作会比预想的复杂很多。”
Mistry认为,完成这种操作需要很强的技术实力,恐怕只有国家资助的网络间谍才能做到。他强调:“需要非常强大的团队才能做到,这样的工具如果被坏人掌握,那是相当危险的。”
如何抵挡AI生成的恶意软件?
用AI系统生成种族主义内容和仇恨内容不是什么新鲜事,许多人讨论过。OpenAI曾刊发论文,说它开发的系统可以用来降低虚拟信息传播成本。
Sharma认为,可以通过控制措施阻止恶意内容生成,比如,如果请求次数太多,或者某类信息播放的次数很多,就可以启动审查,如此一来机器就会知道它不该这么做。
对于恶意软件,那就是另一码事了。如果想对抗用AI系统生成的恶意代码,最好的办法就是用AI来创建保护机制。Sharma称:“如果有什么黑客工具用到了AI,我们必须用AI来理解其行为,用传统的安全控制措施是无法应付的。”
Mistry也认为在此种环境下应该将AI用作防御手段,因为AI有自己的优势。AI擅于创建“多态”事物,可以改变形态去适应每一次交互——与系统的交互。AI引擎可以高速运行、大规模部署,这是人类做不到的。