周四,网络安全公司卡巴斯基在其博客文章中表示,研究人员发现Python包索引(PyPI)上存在恶意软件包,声称提供对OpenAI的ChatGPT和Anthropic的Claude AI模型的API访问,但实际上却包含JarkaStealer信息窃取恶意软件。
研究人员指出,这些名为“gptplus”和“claudeai-eng”的软件包均由一名名为“Xeroline”的用户于2023年11月上传,在被从PyPI移除前,已有超过30个国家的用户分别安装了1,700多次。
软件包中包含了ChatGPT的演示版,以使其看似提供了预期功能,但在后台,软件包中的“init.py”文件会从GitHub存储库中下载Java归档文件“JavaUpdater.jar”。
该Java归档文件包含JarkaStealer恶意软件,这是一种作为服务的信息窃取恶意软件(MaaS),旨在收集系统信息、包括Google Chrome和Microsoft Edge在内的浏览器数据、Telegram和Discord等应用程序的会话令牌以及受害者的系统截图。卡巴斯基研究人员解释说,该恶意软件会检查受害者的机器上是否安装了Java,并在需要时从Dropbox安装Java运行时环境(JRE),然后执行窃取器,收集受害者的信息,将其归档,传输到攻击者控制的服务器,并从受害者的系统中删除。
虽然JarkaStealer的创建者通过Telegram将其作为MaaS产品出售,但研究人员指出,该恶意软件的源代码也已在GitHub上泄露。JarkaStealer没有任何持久性机制,仅在运行gptplus或claudeai-eng软件包时启动,因此安装了这些假冒AI软件包的用户可以安全地将其与窃取器一起删除。
认为自己可能安装了恶意软件包的用户还应重置或重新生成可能被JarkaStealer泄露的任何密码和会话令牌。这些软件包的发现凸显了在PyPI等开源存储库中威胁行为者活动对软件供应链构成的风险。
卡巴斯基全球研究与分析团队(GReAT)的安全研究员列昂尼德·别兹韦尔申科在一份声明中表示:“我们建议组织实施严格的验证和完整性检查,以确保其使用的软件和依赖项的合法性和安全性,特别是在集成像AI这样令人兴奋的新技术时。”
这些软件包是由卡巴斯基GReAT利用其用于监控开源存储库的自动化系统发现的。在此类存储库中,伪装成合法工具的恶意软件包的上传并不罕见,近期案例包括一个模仿Fabric SSH自动化库的PyPI软件包被发现旨在窃取AWS凭证,以及朝鲜威胁行为者Stressed Pungsan使用伪装成以太坊开发实用程序Hardhat的npm软件包来攻击Windows系统。