网络安全研究人员发现,借助大型语言模型(LLMs),可以大规模生成新型恶意的JavaScript代码变体,这些变体将更难被安全防护设备检测。
Palo Alto Networks旗下的Unit 42团队指出:“尽管LLMs难以独立创建恶意软件,但犯罪分子能利用它们重写或混淆现有恶意软件,从而加大检测难度。罪分子可通过提示LLMs执行更自然的转换,使这种恶意软件更难被发现。”
长期来看,通过大量转换,这种方法可能降低恶意软件检测系统的性能,甚至使其误判恶意代码为良性。尽管LLM提供商不断加强安全防护,防止其产生不良输出,但不法分子已开始利用恶意AIGC工具如WormGPT,自动化设计高针对性的网络钓鱼邮件,甚至创造新的恶意软件。
早在2024年10月,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络。
Unit 42表示,他们利用LLM反复重写现有恶意软件样本,目的是规避机器学习(ML)模型的检测,例如Innocent Until Proven Guilty(IUPG)或PhishingJS,从而成功创造了10000种新JavaScript变体,且功能不变。
这种对抗性机器学习技术通过变量重命名、字符串拆分、垃圾代码插入等方法转换恶意软件,每次输入系统时都进行变换。
“最终产生的新恶意JavaScript变体,行为与原脚本相同,但恶意评分大幅降低,”该公司表示,并补充说,其贪婪算法能将自身恶意软件分类模型的判断,从恶意翻转为良性的概率高达88%。
更糟糕的是,这些重写的JavaScript代码在上传至VirusTotal平台时,也成功逃避了其他恶意软件分析设备的检测。LLM相关混淆技术的另一优势在于,其重写效果比obfuscator.io等库更自然,后者因改变源代码的方式而更容易被检测和识别。
Unit 42指出:“借助生成式人工智能,新恶意代码变体的规模可能会大幅增加。然而,我们也可利用相同策略重写恶意代码,以帮助生成训练数据,提高ML模型的鲁棒性。”
这一发现正值北卡罗来纳州立大学一组学者设计出名为TPUXtract的侧信道攻击,该攻击针对Google Edge张量处理单元(TPU)执行模型窃取攻击,准确率高达99.91%,可能被用于知识产权盗窃或后续网络攻击。
研究人员表示:“将展示一种超参数窃取攻击,能提取所有层配置,这是首次全面攻击能提取以前未见过的模型。”
本质上,是这种黑匣子攻击捕获了TPU在执行神经网络推理时发出的电磁信号,并利用这些信号推断模型超参数。但这种方法依赖于攻击者对目标设备的物理访问权限,以及昂贵的探测设备。
参考来源:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html