进入2024年,攻击面将进一步扩大,威胁可能变得越来越难以捉摸。考虑到基于AI和大型语言模型的工具的功能和可访问性越来越强,必须领先于威胁参与者几步,并了解2024年将采取什么策略。
1.自定义类ChatGPT机器人:精心制作令人信服的社交攻击
OpenAI的定制GPT是黑客将在2024年利用的强大新工具的主要例子,考虑到它们的易用性,那些技术水平低得多的人可以利用它们来设计和发动极具说服力的社交攻击。
设想一个场景,攻击者使用ChatGPT生成的文本伪装成经理或部门负责人,他们向毫无戒心的员工发送一个类似WhatsApp的应用程序的链接,在该应用程序中,他们将与GPT“经理”进行对话,说服他们转账或分享敏感数据,以类似的方式,GenAI服务可以被用来指示受害者与GPT支持的“服务台”或“IT代表”进行对话,这些欺骗性的攻击在整个企业中已经变得更加常见,并且只会随着新的GenAI工具和功能的出现而增长。
仅依靠员工意识不足以识别和预防此类威胁,因此,必须优先维护强大的安全协议。
2.SaaS应用作为隐形攻击载体:向TeamsPhisher学习
2024年,网络犯罪分子将继续利用现代SaaS应用程序,将恶意有效负载嵌入云中,并利用低挂起的安全漏洞。随着疫情的蔓延和远程工作环境的兴起,这些隐蔽的策略继续在雷达下飞行,并在公司的防御中戳出漏洞。
就在今年夏天,威胁参与者使用一种名为TeamsPhisher的恶意开源程序,通过微软团队向毫无戒备的用户发送钓鱼诱饵,以实施随后的网络攻击,包括勒索软件攻击,这突显了SaaS应用作为威胁参与者的无意帮凶的重要性。
公司应该预料到,这种攻击媒介的继续存在是一个强大的网络前沿,并相应地加强他们的安全框架。
3.网络攻击战役中AI驱动的自动化:未来一瞥
在开发人员和安全团队手中,AI提高了生产率,简化了众多业务运营,但在威胁参与者手中,它可以被用来破坏公司的防御并提取敏感数据。
攻击者准备利用AI日益增长的自动化能力,以极高的效率和精确度识别云基础设施中的漏洞,并准确地开展恶意电子邮件活动。因此,尽管AI驱动的自动化可以减轻所有行业办公室员工的大量工作量,但它赋予了威胁参与者同样的奢侈品。
4.深度伪装和多通道ML模型:欺骗的演变
停留在AI领域,多模式ML模型为攻击者提供了生成令人信服的音频、图像和视频的能力,以欺骗毫无戒心的员工。
随着深度假冒活动在2023年增加了惊人的3000%,这项复杂的技术正被用来创建几乎无法与合法信件区分开来的信件,同时也有更便宜、更容易使用的好处。
这种欺骗做法将继续对无数公司构成严重威胁,随着这些模型的复杂性和制造能力的成熟,教育工作人员识别和报告企图的违规和错误信息活动将变得至关重要。
5.防范LLM支持的服务中的敌意提示:创业前沿
随着LLM支持的服务在整个公司工作流程中继续激增,公司领导人将需要建立强大的保护,以抵御恶意即时注入 - LLM的输入被设计为操纵输出或改变标准处理程序。
不幸的是,公司出于垂直或特定于运营的培训目的而选择将内部数据输入LLM的情况很容易暴露。通过输入精心设计的提示,黑客可以操纵LLM泄露敏感数据,这可能会违反合规规定并被罚款,数据安全中的此类漏洞需要积极主动的解决方案。
因此,对于依赖LLM支持的服务的公司来说,在缓解这些挑战方面的远见卓识将是至关重要的,这将为一套新的解决方案奠定基础,这些解决方案致力于防止敌对提示危及数据安全。
领先一步
随着AI的不断成熟,威胁格局也在不断成熟,应对AI系统带来的网络攻击将是整个2024年的一个关键商业目标。
通过部署工具和分层解决方案来识别和解决正在进行的打击黑客的新战线,公司将能够领先于他们的数字对手一步。