据The Hacker News消息,网络安全研究人员披露了 Ollama 人工智能模型中的六个安全漏洞,攻击者可能会利用这些漏洞执行各种操作。
Ollama 是一个开源应用程序,允许用户在 Windows、Linux 和 macOS 设备上本地部署和操作大型语言模型 (LLM)。迄今为止,该模型在 GitHub 上的项目存储库已被分叉 7600 次。
研究员在一份报告中指出,这些漏洞可能允许攻击者通过单个 HTTP 请求执行广泛的恶意操作,包括拒绝服务 (DoS) 攻击、模型中毒、模型盗窃等。
这 6 个漏洞的简要描述如下 -
- CVE-2024-39719(CVSS 评分:7.5):攻击者可以使用 /api/create 端点利用该漏洞来确定服务器中是否存在文件(已在版本 0.1.47 中修复)
- CVE-2024-39720(CVSS 评分:8.2):越界读取漏洞,可通过 /api/create 端点导致应用程序崩溃,从而导致 DoS 情况(已在 0.1.46 版本中修复)
- CVE-2024-39721(CVSS 分数:7.5):在将文件“/dev/random”作为输入传递时,重复调用 /api/create 端点时,会导致资源耗尽并最终导致 DoS 的漏洞(已在 0.1.34 版本中修复)
- CVE-2024-39722(CVSS 分数:7.5) :api/push 端点中的路径遍历漏洞,暴露了服务器上存在的文件以及部署 Ollama 的整个目录结构(已在 0.1.46 版本修复)
- 无 CVE 标识符,未修补 漏洞:可通过来自不受信任的来源的 /api/pull 终端节点导致模型中毒
- 无 CVE 标识符,未修补 漏洞: 可能导致通过 /api/push 终端节点向不受信任的目标进行模型盗窃
对于上述两个未解决的漏洞,Ollama 的维护者建议用户通过代理或 Web 应用程序防火墙过滤哪些端点暴露在了互联网上。
研究人员称,发现了 9831 个运行 Ollama 面向互联网的独特实例,其中大多数位于美国、中国、德国、韩国、中国台湾、法国、英国、印度、新加坡和中国香港。其中有四分之一的服务器被认为容易受到这些漏洞的影响。
另外,云安全公司Wiz在四个多月前披露了一个影响Ollama的严重漏洞(CVE-2024-37032),该漏洞可被利用来实现远程代码执行。
研究人员表示,因为Ollama 可以上传文件,并具有模型拉取和推送功能,因此将未经授权的Ollama暴露在互联网上,就相当于将Docker套接字暴露在公共互联网上,从而容易被攻击者利用。