【IT168 评论】专家称,未来的网络战争可能是机器对机器,这可能需要几年甚至几十年时间,但黑客并不一定总是人类。人工智能(AI)是可彻底改变网络安全的技术,而它有一天可能成为最终的攻击工具。
今年8月由美国国防部先进项目研究局(DARPA)赞助的Cyber Grand Challenge网络超级挑战赛让我们瞥见了AI的力量。七台超级计算机相互竞争,以表明机器确实可找到并修复软件漏洞。
理论上,这项技术可用于完善任何编码,消除可利用的漏洞。但如果这被用于恶意目的呢?
潜在的危害
例如,网络罪犯可能使用这些功能来扫描软件中以前未知的漏洞,然后将其用于恶意目的。然而,与人类不同,AI可以机器的效率来做到这一点。曾经耗时的攻击活动可能很容易完成。
无人驾驶汽车、更先进的机器人以及其他形式的自动化等都可能带来风险,网络安全专家已经注意到这个风险,GrammaTech公司研究副总裁David Melski表示:“技术总是令人恐惧。”
Melski公司构建的超级计算机正是参加网络挑战赛的七台中的一台,该公司正在考虑使用该技术来帮助供应商修复物联网设备中的漏洞或者让互联网流量更安全。
“然而,漏洞发现是一把双刃剑,”他指出,“我们已经在逐渐自动化一切事物。”
安全专家不难想到潜在的黑暗面--AI可构建或控制强大的网络武器。Melski提到Stuxnet作为例子,这个恶意计算机蠕虫病毒旨在破坏伊朗的核计划。
他表示:“当你想到Stuxnet等病毒得到自动化,这非常令人担忧。”
安全公司SentinelOne首席执行官Tomer Weingarten说:“我不想给任何人任何想法。”但是人工智能技术会在整个网络蔓延,寻找漏洞,这在未来可能成为现实。
网络犯罪已经很容易实现,例如,买家可在黑市租用“黑客”服务,建立简单的网络界面和易于理解的命令,来使用勒索软件感染计算机。
Weingarten称,这些租赁黑客服务可能最终会采用AI技术,设计整个攻击战略、启动攻击以及计算相关费用。然后,人类攻击者可享受AI的劳动果实。
所有的科技公司可能都在讨论人工智能,但没有公司真正创造出人工智能。这个行业只是创造出可比人类更擅长玩游戏,数字助手或者诊断罕见疾病的技术。
网络安全公司Cylance等也一直在使用机器学习来阻止恶意软件,这涉及基于恶意软样本来建立数字模型,以判断计算机中某些活动是否正常。
“最终,你可得出这个文件是好是坏的统计概率,”安全公司首席研究官Jon Miller表示,机器学习有超过99%的时间可用于检测恶意软件。
“我们正不断添加新数据(恶意样本)到该模型中,”Miller称,“你拥有的数据越多,你就越准确。”
升级
使用机器学习的缺点是价格昂贵。他表示:“我们每个月花费50万美元用于计算机模型。”这笔钱用于从亚马逊租赁云计算服务来运行这些模型。
任何试图使用AI技术用于恶意目的的人都面临相同的高门槛。此外,他们还需要确保顶尖人才来开发编程。但随着时间推移,计算能力的成本不可避免地会降低。
不过,攻击者利用AI的日子可能还很遥远。“为什么还没有人这样做呢?只是没有必要而已,”他说,“如果你想要攻击某人,现在已经有足够的漏洞来利用。”
到目前为止,很多攻击发生在包含恶意软件的钓鱼邮件发送给目标之后。在其他情况,受害者使用低强度密码保护其登录或者忘记升级其软件--让他们容易受到攻击。
机器学习等AI技术已经表明AI技术具有解决这些问题的潜力,但攻击者升级他们的武器库也只是时间问题。
在未来,我们可能看到机器对机器的网络战争。