网络安全 频道

人工智能漏洞悬赏计划揭露开源工具34个安全漏洞

  作为Protect AI的huntr漏洞悬赏计划的一部分,近34个开源人工智能(AI)和机器学习(ML)工具中的漏洞被公开。

  这些发现包括三个关键漏洞:其中两个位于Lunary AI开发者工具包中,另一个则位于名为Chuanhu Chat的ChatGPT图形用户界面(GUI)中。10月的漏洞报告还列出了18个高严重性漏洞,涉及从拒绝服务(DoS)到远程代码执行(RCE)等各种威胁。

  Protect AI安全研究员Dan McInerney和Marcello Salvati表示:“通过我们自己的研究和huntr社区的帮助,我们发现用于构建为AI应用提供动力的机器学习模型的供应链工具面临着独特的安全威胁。这些工具是开源的,每月被下载数千次,用于构建企业级AI系统。”

  Protect AI的报告还指出了LocalAI(一个可在消费级硬件上本地运行AI模型的平台)、LoLLMs(各种AI系统的Web UI)、LangChain.js(一个用于开发语言模型应用的框架)等多个平台中的漏洞。其中,Lunary AI的漏洞可能导致身份验证被操纵,影响外部用户。

  周二通过huntr计划公布的两个最严重的漏洞,均存在于Lunary AI的大型语言模型(LLM)聊天机器人开发者生产工具包中。根据Lunary AI网站,该开源工具包被“公司的2500多名AI开发者”使用。

  这两个漏洞被追踪为CVE-2024-7474和CVE-2024-7475,两者的CVSS评分均为9.1。

  CVE-2024-7474是一个不安全的直接对象引用(IDOR)漏洞,由于对相关API端点的请求缺乏适当的访问控制检查,可能导致已认证用户能够查看或删除任何其他外部用户的用户记录。如果攻击者知道另一个用户的用户ID,他们可以在调用这些API端点时将自己的用户ID替换为受害者的用户ID,从而能够查看和删除用户记录,就像这些记录是他们自己的一样。

  CVE-2024-7475也是由于访问控制不当,这次是关于对安全断言标记语言(SAML)配置端点的请求。该漏洞使攻击者能够向该端点发送精心构造的POST请求,以恶意更新SAML配置,从而导致身份验证过程被操纵,并可能引发欺诈性登录。

  Lunary已经解决了这两个漏洞,升级到Lunary 1.3.4版本即可修复。

  此外,Protect AI周二发布的报告中还披露了另一个关键漏洞,即Chuanhu Chat用户上传功能中的路径遍历漏洞,由于某些输入未经适当清理,该漏洞可能导致RCE、任意目录创建以及CSV文件信息泄露。该漏洞被追踪为CVE-2024-5982,CVSS评分为9.1。

  通过创建一个名称包含绝对路径的用户,并通过Chuanhu Chat界面上传一个包含cron作业配置的文件,即可利用CVE-2024-5982实现RCE。此外,还可以通过“get_history_names”函数创建任意目录,并通过“load_template”函数泄露CSV文件的第一列。Protect AI报告了这些额外的修改用户请求。

  Chuanhu Chat项目在GitHub上拥有超过15,200个点赞和2,300个分支。CVE-2024-5982已在Chuanhu Chat 20240918版本中修复。

  LocalAI是GitHub上另一个受欢迎的开源AI项目,拥有超过24,000个点赞和1,900个分支。huntr社区在该平台中发现了多个漏洞,包括一个被追踪为CVE-2024-6983的RCE漏洞和一个被追踪为CVE-2024-7010的计时攻击漏洞。

  CVE-2024-6983的CVSS评分为8.8,它使攻击者能够上传一个包含指向攻击者控制服务器上恶意二进制的统一资源标识符(URI)的恶意配置文件。当目标系统处理该配置文件时,该二进制文件将被执行。

  CVE-2024-7010的CVSS评分为7.5,它可能使攻击者发动计时攻击,这是一种测量服务器在处理API密钥时的响应时间的侧信道攻击类型。如果攻击者设置一个脚本,向服务器发送多个API密钥猜测,并记录每个密钥的响应时间,他们最终可能预测出正确的密钥,从而获得未经授权的访问权限。

  通过升级到LocalAI 2.19.4版本可以修复CVE-2024-6983,而要修复CVE-2024-7010,则需要升级到2.21版本。

1
相关文章