在Common Crawl这一大型数据集中发现了大约1.2万个硬编码的实时API密钥和密码,该数据集被用于训练DeepSeek等大型语言模型。
安全专家表示,硬编码的凭据非常危险,因为黑客可以更容易地利用它们来访问敏感数据、系统和网络。
在本案例中,威胁行为者实施了LLM劫持(LLMJacking),即网络犯罪分子通过向第三方出售访问权限来滥用窃取到的生成式人工智能(GenAI)服务的API访问权限。
Truffle Security在2月27日的博客中报道,Common Crawl上有27.6亿个网页包含实时敏感信息。研究人员还发现复用率很高:63%的敏感信息在多个网页上重复出现。在一个极端案例中,单个API密钥在1871个子域中出现了57029次。“LLM劫持是我们观察到的一种日益增长的趋势,涉及威胁行为者瞄准拥有LLM访问权限的机器身份,然后他们要么自己滥用这种访问权限,要么将其出售给第三方,”Oasis Security的联合创始人兼首席执行官Danny Brickman解释道,“这一威胁将在未来一年继续升级,从而加剧了实施强大非人类身份(NHI)安全措施的必要性。”
SlashNext Email Security的现场首席技术官Stephen Kowski表示,LLM劫持会产生多米诺骨牌效应,即最初的凭据失窃会导致多个恶意行为者购买对受损人工智能系统的访问权限,从而进行广泛滥用。Kowski说,除了未经授权的AI使用费用带来的重大经济影响外,这些攻击还会导致创建有害内容,包括色情材料,从而绕过这些系统内置的安全控制。
“最令人担忧的是,一旦凭据在非法市场上出售,就无法预测随后会发生什么损害,因为拥有不同动机的各种犯罪分子可以在受害者不知情的情况下使用其AI基础设施,”Kowski说。
Kowski表示,安全团队应为所有AI服务访问点实施强大的认证方法,如多因素认证,同时建立遵循最小权限原则的严格基于角色的权限。Kowski还说,团队还必须为AI模型的使用启用全面的日志记录和分析,监控异常的API调用或配置更改,并为可能表明未经授权的AI使用的账单激增设置警报。