根据Kong周二发布的调查,应用程序编程接口(API)防护者最为担忧的是AI增强的网络攻击。
这项针对700名IT领导者的调查发现,32%的受访者将AI增强的攻击视为对其组织而言最大的API安全威胁,这一比例超过了未经授权的访问或泄露(26%)以及加密不足和数据保护不力(14%)。
此外,92%的调查参与者表示,他们的组织正在采取措施应对此类AI增强的攻击,而25%的参与者表示,他们已经遭遇了与API或大型语言模型(LLM)相关的AI增强安全威胁。
同时,88%接受调查的IT领导者认为API安全整体上是首要任务,97%的领导者认为其重要性不低于网络安全的其他领域,如网络和终端安全。调查还发现,受访者在API安全信心与API攻击普遍性之间存在差距:85%的受访者表示对保障API安全有信心,仅有4%表示没有信心,尽管55%的受访者在过去12个月内已经遭遇过API安全事件。
在谈到与AI相关的风险时,40%的受访者表示不确定其组织当前的安全投入是否足以应对这些风险,而74%的受访者表示对AI增强的网络攻击极为担忧或非常担忧。
Kong的首席技术官兼联合创始人Marco Palladino在一份声明中表示:“组织不能低估自身的安全风险,尤其是在AI时代。报告表明,API安全正作为整体网络安全战略的一部分受到重视,但仍存在一些可能导致组织面临威胁的盲点。‘随着AI的不断进步,公司不仅会在自身组织中创造更多漏洞,而且攻击也会变得更加复杂。了解全面的威胁环境对于保持强大的API安全态势至关重要。’”
组织如何在AI时代保护其API?
Kong的《2025年API安全展望》调查报告还揭示了过去12个月内API事件的成本,近一半的受访者(47%)表示,最近的事件给其组织造成了超过50万美元的损失。在过去一年报告过事件的受访者中,近三分之一(32%)表示该事件“非常严重”。
在防御API攻击方面,IT领导者最有可能报告已实施API监控和异常检测工具(63%)、API网关解决方案(61%)、API加密和标记化(58%)以及定期的渗透测试和审计(57%)。
“只有35%的受访者表示采用了零信任架构,这令人惊讶,因为这一全面的API安全方法已经确立并普遍被认为是最 佳实践,”报告指出。
在谈到AI增强的攻击时,66%的受访者表示,他们正在增加对AI风险的监控和流量分析,60%的受访者表示正在对员工进行AI方面的培训,51%正在使用AI驱动的威胁检测系统,44%正在利用具有AI功能的API安全解决方案,40%正在与第三方安全服务合作,以检测和缓解AI威胁。
组织内部不安全的AI使用也被视为潜在的安全风险。为此,33%的受访者正在实施针对AI的特定安全政策,21%正在采用AI网关来管理AI的使用。19%的受访者还报告说,他们正在增强对AI流量的监控和异常检测。
总体而言,84%的调查参与者表示,在未来两到三年内,AI和LLM将增加保障API安全的复杂性。
“AI和API的融合带来了前所未有的机遇和风险,”报告总结道。“许多人仍然低估了影子API等关键漏洞,多达13%的美国组织表示他们没有采取任何具体措施来应对AI增强的威胁。随着预计到2030年API攻击将增长548%,现在是采取行动的时候了。”