网络安全 频道

2025年预测:AI加剧攻击威胁,量子威胁增长,SaaS安全困境

  2025年,人工智能将加剧2024年已出现的威胁,为网络钓鱼、内部威胁和勒索软件等老旧的安全挑战带来新的难题。

  同时,人工智能(AI)本身将越来越成为黑客攻击的目标,AI模型本身正面临来自恶意行为者的恶意提示注入和对手对大型语言模型(LLM)数据的篡改等持续不断且新颖创新的威胁。

  红旗警告还包括网络攻击数量的不断增加,这些攻击对现实世界产生了影响,因为黑客攻击持续影响虚拟世界,乃至现实世界。今年,专家在接受SC Media采访时表示,2025年将受到对手利用量子计算攻击技术来攻击现有和新兴加密技术的影响。

  以下是SC Media对安全专家对未来一年预测和展望的年度总结。如果这些预测中的任何一项成为现实,SC Media将在此帮助分析是谁、是什么、为什么——包括其重要性以及如何最 佳地缓解这些攻击。

  人工智能在网络安全中的承诺与危险

  PreVeil联合创始人Sanjeev Verma表示,生成式AI将颠覆传统的安全方法,并大幅增加零日漏洞的数量,对许多人造成不利影响:

  生成式AI(GenAI)加速了人们对人员、流程和技术的一般理解,这将催生复杂的攻击,包括高级网络钓鱼邮件、深度伪造、语音网络钓鱼等。不仅如此,GenAI还具备强大的搜索和分析能力,能够并将会被用来发现未知的零日漏洞和尚未修补的通用漏洞披露(CVE)。

  Proofpoint首席AI和数据官Daniel Rapp表示,威胁行为者将通过操纵私有数据来利用AI:

  随着模型的能力越来越强,半自主AI代理融入到自动化工作流程中,我们在AI领域正见证着一种迷人的融合。这一发展给威胁行为者带来了满足自身利益的可能性,尤其是在他们如何操纵大型语言模型(LLM)使用的私有数据方面。随着AI代理越来越依赖电子邮件、软件即服务(SaaS)文档存储库和类似来源中的私有数据来获取上下文,保障这些威胁向量将变得更加关键。

  2025年,我们将开始看到威胁行为者操纵私有数据源的初步尝试。例如,我们可能会看到威胁行为者故意通过用虚假或误导性信息污染LLM使用的私有数据(如故意篡改电子邮件或文档)来欺骗AI,使AI感到困惑或做出有害行为。这一发展将需要提高警惕并采取先进的安全措施,以确保AI不会被错误信息所欺骗。

  IBM X-Force全球合作伙伴负责人Troy Bettencourt表示,要防范AI辅助威胁;计划应对AI驱动威胁:

  AI驱动威胁与AI辅助威胁之间存在区别,包括组织应如何考虑其主动安全态势。迄今为止,AI驱动的攻击(如深度伪造视频诈骗)还较为有限;相反,当今的威胁主要是AI辅助的,这意味着AI可以帮助威胁行为者创建现有恶意软件的变种或更具诱惑力的网络钓鱼邮件。为了应对当前的AI辅助威胁,组织应优先为其自身的AI解决方案实施端到端安全,包括保护用户界面、应用程序接口(API)、语言模型和机器学习操作,同时牢记防范未来AI驱动攻击的策略。

  Sonar首席信息官Andrea Malagodi表示,网络安全将采用“信任并验证”的AI编码方法:

  我们应该拥抱AI创新,以造福软件开发的未来轨迹。AI生成的代码和测试工具可以提高开发者的生产力,使他们能够更专注于与更广泛的业务目标相一致的项目。然而,AI是开发者技能的补充,而非替代,企业领导者必须认识到这一重要区别。构思、设计和构建系统或功能的活动不仅仅是编码细节,它是一种工艺,不应被忽视。

  无论代码是由AI生成的还是由开发者编写的,人类都必须是测试和验证过程的组成部分。在编码过程中使用AI的需求和不断上升的使用率意味着开发者正在编写更多的代码,所有这些代码都必须经过安全和质量的测试。至少,所有代码都应经过严格测试,开发者应建立多重检查机制,以在开发的每个阶段信任和验证代码。

  虽然在未来几年,AI将继续提高开发者的生产力,但如果不解决代码开发过程中的潜在问题,更多的AI生成代码只会带来更多的代码需要修复。软件团队需要利用可信赖的自动化代码测试工具,并结合人类视角和批判性思维,以确保交付高质量的代码,并对此充满信心。

  WatchGuard首席信息安全官Corey Nachreiner表示,恶意利用多模态AI将创建完整的攻击链:

  到2025年,恶意利用多模态AI将用于构建完整的攻击链。随着多模态AI系统获得整合文本、图像、语音和复杂编码的能力,它们将吸引威胁行为者,这些行为者将利用它们来简化和自动化整个网络攻击流程。这包括在社交媒体上对目标进行画像、制作和发送逼真的网络钓鱼内容(包括语音网络钓鱼)、有时发现零日漏洞、生成能够绕过端点检测的恶意软件并部署支持其的基础设施、在受感染的网络内自动横向移动以及外泄窃取的数据。这种无需人工干预、完全无缝的方法将使网络威胁的普及程度比近年来“恶意软件即服务”产品所带来的还要更为激进,使技能较低的威胁行为者能够以最小的人工干预发动高级攻击。因此,无论规模大小,组织和安全团队都将面临更多高度定制化的网络威胁,这些威胁将难以检测和应对。

  Ironscales全球IT与安全总监Tyler Swinehart表示,不良行为者将发展出合成的网络个性以谋取经济利益:

  到2025年,我预计,我们将会看到大量虚构的专家形象和待售观众群体涌现。这一现象已经初现端倪,尽管目前规模较小且多为定制。然而,随着生成式人工智能、深度伪造和其他合成内容形式的出现,人们将能够创造出相当可信的网络个性,并在网络上获得显著的存在感。通过制作教程、撰写文章、发表评论、博客撰写,甚至创建播客和视频系列等方式,他们能够获得庞大的受众群体。我还预计,为了建立可供出售的庞大网络社群,人们将广泛尝试自动化这些网络个性和内容。或者,这些网络个性和内容也可以被用来推广、销售或批评出价最高者所选择的内容。我认为,在大多数情况下,人们会在初期使用一些真实内容来启动这一过程,以便在用于更邪恶的目的之前,种下信任的种子并建立一定的可信度。这将使他们能够更有效地传播信息和施加影响,绕过我们目前拥有的筛选技术。

  Skyhigh Security首席执行官Elad Schulman表示,系统提示漏洞是大型语言模型(LLM)安全的阿喀琉斯之踵:

  在OWASP最新的大型语言模型(LLM)安全列表中,系统提示被新增为一项内容,它们通常既作为行为指南,又作为敏感信息的意外存储库。当这些提示泄露时,风险远不止于内容披露,还会暴露底层系统弱点和不当的安全架构。系统提示对于引导LLM行为至关重要,它们定义了应用程序如何响应、过滤内容以及实施规则。但是,当它们包含敏感数据(如API密钥、内部用户角色或操作限制)时,就会创建一个隐形的责任风险。更糟糕的是,即使没有明确披露,攻击者也可以通过观察模型在交互过程中的行为和响应来逆向工程这些提示。公司应采用最 佳实践,以避免通过系统提示可能发生的复杂攻击,例如分离敏感数据、对LLM进行红队测试和实施分层防护。

  OpenText网络安全工程和产品管理副总裁Simon Tiku表示,2025年,人工智能将从根本上重塑网络安全格局,创造出一把前所未有的双刃剑:

  威胁行为者将利用人工智能来加速漏洞发现、打造超个性化的网络钓鱼攻击,并开发复杂的恶意软件逃避技术。同时,网络安全防御者将使用基于人工智能的威胁检测系统来分析海量数据集、实时识别异常并提供预测性威胁情报,从而在攻击者和防御者之间引发一场不断升级的技术军备竞赛。

  GTT管理和专业服务产品管理副总裁Darren Wolner表示,自动化将成为你的第一响应者:

  随着网络威胁的增加,以及由于日益依赖混合劳动力、物联网、云服务等因素,网络攻击面不断扩大,数据驱动和人工智能赋能的自动化将成为主要的前线防御手段。这些系统将立即且自主地行动,通过分析数据模式来对抗威胁,而无需人工干预。它们还将使网络更具适应性,因为自动化防御系统将从每个新事件中学习,以实时演进。这将使组织在应对新兴威胁时更快、更智能、更精确。

  Permiso的关联威胁研究员Art Ukshini表示,AI驱动的勒索软件攻击将会增加:

  到2025年,威胁行为者将从AI的不断升级中获益,利用它发起极为成功的勒索软件攻击。能够分析海量公开和被盗数据的新模型,可以被且将被用于创建“量身定制的勒索软件”,以匹配“客户”的情况并索要完美的赎金数额。AI驱动的勒索软件将自动化攻击步骤,甚至在攻击过程中通过识别最关键的目标系统并实时调整加密速度或范围来做出动态决策,从而优化攻击,使成功率最大化。

  Tamnoon首席执行官Marina Segal指出,威胁行为者转向AI驱动的云威胁:

  威胁行为者已使用自动化扫描器来识别云环境中的关键配置错误,包括AWS中过于宽松的服务命名空间(SNS)策略到未加密的Glue数据目录。我们还目睹了供应链攻击的增多,其中AI绘制云服务和SaaS应用程序之间的相互依赖关系。这一趋势预计不会很快减缓。

  云安全团队已不堪无休止的警报和误报冲击。随着AI的成熟,我们预计零日漏洞利用将变得更加普遍。这将给已超负荷运转的安全团队带来更大压力,因为他们试图利用AI进行威胁检测和自动化修复。

  显而易见的是:威胁行为者和云安全专业人员将在云端展开一场激烈的较量,而AI将在助力双方方面发挥关键作用。这也意味着供应商和分析师将争相抢占这一市场。

  NetSPI首席AI研究员及AI/ML渗透测试(AML)服务负责人Kurtis Shelton表示,代理式AI将继续重塑安全策略:

  在未来一年,代理式AI有望通过增强主动和被动措施来显著改变安全策略。自主代理可能会被用于监控网络威胁、在漏洞被利用之前进行识别,并以最少的人为干预实时响应事件。它们可以根据不断演变的威胁模式动态调整安全规则,或自主隔离被入侵的系统,从而大幅缩短响应时间。

  然而,这些自主代理的兴起也将带来新的风险,因为它们本身可能成为攻击目标。如果被入侵,它们可能会因监督有限而对组织造成重大损害。未来的安全策略需要重点关注对抗AI的坚固防御,强调可解释性的重要性,持续监控决策过程,并遵守严格的安全原则,以确保这些系统在不断演变的威胁环境中保持安全和可信。

  Skyhigh Security产品执行副总裁Thyaga Vasudevan指出,零信任架构将越来越被采用:

  到2025年,随着零信任架构在FBI以及其他联邦部门等机构的实施后产生连锁反应,毫无疑问,各行各业的组织将越来越多地采用零信任架构。这一趋势将带来这些组织文化的巨大转变。因为零信任要求IT部门、安全团队和业务部门之间密切合作,安全将最终成为所有员工的首要任务,并将融入业务的各个方面。我们可以预见到,由于采用了零信任架构,组织的安全态势将得到提升,用户和设备管理将得到加强,整体数据安全也将更加有保障。

  AI也将对零信任的采用产生深远影响。AI将通过提供智能自动化、自适应安全和实时风险分析来增强零信任架构。此外,零信任框架将保护AI系统本身,确保AI应用程序和数据免受新兴威胁的攻击。二者结合将创建一个更具弹性、可扩展性和主动性的网络安全方法。

  Aqua Security首席产品官Gilad Elyashar表示,转向AI驱动的修复以增强云端韧性:

  在云原生领域,我们预计将实现从优先关注漏洞检测到专注于简化修复的转变,这一转变由对安全问题的更快、自动化响应所驱动。随着威胁数量的增加,组织将越来越依赖AI引导的修复、自动化工作流程和上下文分析来加快修复速度并减少手动工作量。高级工具将分配责任、提供有针对性的指导,并实时适应,从而提高准确性和速度。这一转变将增强云端韧性,因为组织已从仅识别风险转变为在其动态基础设施中积极高效地消除漏洞。

  斯诺弗莱克(Snowflake)首席信息安全官兼信息安全副总裁布拉德·琼斯表示,以人工智能(AI)为中心的攻击下一个焦点将是AI模型本身:

  去年,业界热议了容器层(安全性较低的开发者试验场)的网络安全攻击。如今,攻击者正向机器学习基础设施这一层级发起攻击。我预测,我们将开始看到攻击者将自身注入到管道不同部分的模式,导致AI模型给出错误答案,甚至更糟的是,泄露其训练所用的信息和数据。网络安全领域确实存在威胁行为者利用漏洞毒害大型语言模型的担忧,这些漏洞日后可能会被利用。

  尽管AI会带来新的攻击途径和防御技术,但网络安全领域总会迎难而上。组织必须就如何运用先进AI建立严格、正式的方法。这项技术虽新,但基本问题——数据丢失、声誉风险和法律责任——都是众所周知的,并且这些风险将得到解决。

  数据监测公司Dataminr产品管理副总裁西蒙·莫迪表示,AI代理将成为数据泄露的目标,从而导致数据泄露:

  随着生成式AI工具越来越普及和先进,我们将看到一种新的数据泄露途径出现。恶意行为者将创新提示工程技术,以瞄准被授权代表最终用户采取行动的AI代理。这些攻击的目的是诱骗代理泄露信息或采取行动(例如重置密码),从而使攻击者能够破坏网络或实现其他目标。

  Tigera总裁兼首席执行官拉坦·蒂皮尔尼尼问道,大型科技公司押注通用人工智能(GenAI),这值得吗?

  Meta、谷歌、亚马逊和微软等主要玩家的最新财报显示,季度资本支出激增,这些资本投资于土地、数据中心、网络和图形处理器(GPU)。资本回报尚不明朗,但报告显示,回报周期可能长达15年。

  这是一笔巨额资本,也是一场极其冒险的赌注。而且,这笔投资并非来自风险投资界;它是这些公司的资产负债表项目,资金来自其储备金。

  为什么大型科技公司要进行如此冒险的投资?原因很简单:因为它们承担不起不投资的后果。如果它们不进行投资,就会被排除在竞争之外。我们正在见证市场转型:回顾过去30到40年的科技行业,我们从未见过如此规模的资本投资。GenAI将成为下一个平台,要参与其中,公司必须进行此类资本投资,否则将面临被淘汰的风险。

  Merlin Ventures管理合伙人赛斯·斯珀格尔表示,AI革命正在带来现有解决方案的更优版本:

  在许多情况下,我们所看到的AI驱动技术并非提出全新想法,而是解决以往解决方案的局限性,这些解决方案虽然方向正确,但受到可用技术的限制。软件行业充斥着一些纸上谈兵的解决方案,事实证明,这些方案在复杂环境中配置或按大型企业所需规模部署时难度过大。这种可用性差距往往是技术大获成功与失败之间的区别。正如iPhone推动智能手机普及一样,我们正看到公司利用AI打造“即插即用”的产品。这些产品并非解决全新问题,而是构建无需太多人工干预即可运行,并能根据运行环境自我配置的解决方案。围绕可用性利用AI将有助于企业减少“闲置软件”,使做到这一点的初创企业实现比其难以部署的前辈快得多的增长。

  Onapisis安全研究主管保罗·劳丹斯基表示,AI不会对2025年的业务关键型应用构成重大威胁:

  我对机器学习和人工智能炒作已经看腻了——2024年它被夸大其词了。虽然确实存在切实担忧,如心理健康问题和深度伪造等滥用案例,但它不会影响业务关键型应用。就欺诈活动或恶意使用AI而言,只要公司能够快速实施补丁,AI的进步就不会增加SAP的安全风险。

  今年,AI甚至不是对手行动中的一个重要因素,即使是在那些知道自己目标、非常专注的行动者(如国家)中也是如此。如果AI是重要因素,我们早就看到了具体结果。即使是像脚本小子这样的机会主义攻击者,也没有什么可打包并在某人的环境中引爆的东西。以美国网络安全和基础设施安全局(CISA)最近关于最常被利用的漏洞的报告为例。2022年,SAP和Oracle在该名单上名列前茅,但此后已有所下降。尽管威胁仍然存在,但这一减少反映了在解决已知风险方面取得的进展,而非AI导致的活动增加。

  最令人担忧的是,存在漏洞且未打补丁的SAP安装,以及未将业务关键型应用的安全性置于优先地位。对这些应用感兴趣的攻击者将继续通过其他方式进入您的环境,而不是利用AI——而且我们不太可能在2025年看到这种变化。

  SecureCuber安全运营总监詹姆斯·费舍尔表示,加速自动化以超越安全威胁:

  随着AI工具缩短了攻击时间线,自动化安全解决方案至关重要。安全堆栈中的新兴自动化将使团队能够高效应对精简的攻击。AI将推动实施针对新威胁的创新应对措施,提供增强型方法来防范不断演变的风险。随着团队用新特性和功能更新其安全工具,他们将能够自动化这些功能以提高韧性。

  AppOmni高级云威胁检测工程师贾斯汀·布莱克本表示,随着对手利用技术进步(尤其是人工智能)进行攻击,SaaS应用程序将面临日益复杂的威胁。

  人工智能将使威胁行为者更容易发现SaaS的漏洞和配置错误,绕过传统安全措施,并策划更具欺骗性的网络钓鱼活动。随着人工智能变得更加强大和易于获取,技术不太熟练的攻击者的进入门槛将降低,同时攻击的执行速度也将加快。此外,人工智能驱动的机器人的出现将使威胁行为者能够以最少的努力执行大规模攻击。有了这些人工智能工具,即使是能力较弱的对手也可能获得对敏感数据的未授权访问,并以往只有技术更成熟、资金更充裕的攻击者才能达到的规模破坏服务。

  政治和世界事件对威胁环境的影响

  Armis首席技术官纳迪尔·伊兹莱尔表示,网络雇佣军和代理行为者是网络战的隐形推手。

  网络战场上正在出现一种新的行为者:网络雇佣军和代理团体。这些私人承包商在暗处活动,往往代表国家行事,而且往往具有合理的否认空间。这些行为者的崛起使归因变得复杂,更难以确定网络攻击背后的真正罪魁祸首,并加剧了国际紧张局势。到2025年,我们将看到这些代理行为者的参与度增加,特别是在政治冲突地区,国家试图在不直接承担责任的情况下发动网络攻击。这将导致不确定性和混乱加剧,因为攻击不再能轻易归咎于国家行为者,进一步模糊了网络战的界限。

  网络间谍活动与新兴技术竞赛:随着国家寻求在人工智能、生物技术和量子计算等新兴技术中获得竞争优势,知识产权盗窃和网络间谍活动可能会加剧。这些技术的战略重要性不言而喻,因为它们对经济和军事力量的未来至关重要。到2025年,我们预计会看到更多针对与这些创新相关的研究机构、科技公司和关键基础设施的定向攻击。

  Proofpoint员工威胁研究员约书亚·米勒表示,地缘政治将塑造网络间谍活动和区域网络大国的崛起。

  2024年已经证明,与国家相关的网络间谍活动与地缘政治动态紧密相连。到2025年,高级持续性威胁(APT)行动将继续反映全球和区域冲突。这些冲突之前的网络间谍活动将不仅限于历史上被视为成熟网络行为者的大国,而且还将扩展到各种专注于区域冲突、寻求网络提供的不对称优势的行为者。

  此外,与国家相关的对手将利用网络行动支持其他国家目标,如传播宣传或创造收入。定向威胁行为者可能会利用互联网的持续分裂,试图交付其恶意有效载荷。

  IANS研究团队成员兼MongoDB临时首席信息安全官/信任负责人乔治·格乔表示,国家行为者将越来越多地利用人工智能生成的身份渗透组织。

  在过去六个月中,一种新兴的内部威胁逐渐获得关注,这些精通技术的特工利用被盗的美国凭证和虚假的LinkedIn个人资料绕过传统的背景调查,在目标公司内获得多个职位。进入公司后,他们部署隐蔽软件并重定向硬件,将敏感数据直接窃取至敌对国家。FBI证实,300家公司不知情地雇佣了这些冒名顶替者担任60多个职位,暴露了招聘实践中的关键漏洞。传统的背景调查无法发现这种程度的欺骗,人力资源团队也缺乏识别这些威胁的工具。这一日益加剧的风险要求加强身份验证和欺诈检测——忽视它将使组织容易遭受灾难性泄露。这不仅仅是一种攻击趋势,而是一个警钟。

  Adlumin MDR网络安全运营高级总监威尔·莱德斯马表示,网络安全团队将成为增强型运营商,而不仅仅是响应者。

  2025年,我们将开始充分认识到人工智能增强在网络安全工作中的力量。虽然我们已经看到了人工智能赋能网络安全团队的例子,但随着2024年大型语言模型(LLM)和前瞻性概念的飞跃,人工智能同样有望在网络战场上增强安全团队的能力。人工智能将成为组织武器库中用于对抗日益复杂威胁的又一武器组合。没有多少人认为技术会在近期完全取代物理战场和网络战场上的士兵,但我们都同意,它将有助于他们更好地完成工作。随着人工智能不断融入所有网络行动,它也将通过自动化日常前线任务、提供实时威胁洞察以及可能自主识别零日漏洞来增强人类努力。谷歌最近声称,一个人工智能代理在现实世界的代码中发现了一个以前未知的漏洞,这表明我们距离这一广泛现实比想象的要近得多。

  随着人工智能更深入地融入网络安全运营,网络安全服务将进行调整。例如,传统的托管检测与响应(MDR),它依赖于人类主导的检测和响应,将让位于网络检测与响应,其中人工智能成为安全团队的强大力量倍增器。

0
相关文章