网络安全 频道

DeepSeek R1安全风险,或违反欧盟AI法案规定

  根据最新研究,广受欢迎的人工智能模型DeepSeek R1可能存在固有缺陷,使其与欧盟人工智能法案不兼容。

  今年1月初,DeepSeek R1在科技界掀起风暴,它以极低的成本提供了与OpenAI的GPT-3相媲美的开源选项。

  但该模型的输出结果可能包含漏洞,危及其在欧盟的推广。研究人员使用一种名为COMPL-AI的新框架分析了两种DeepSeek R1模型:一种源自Meta的Llama 3.1,另一种源自阿里巴巴的Qwen 2.5。

  该框架由苏黎世联邦理工学院、计算机科学、人工智能与技术研究所(INSAIT)和LatticeFlow AI的研究人员创建。它旨在根据欧盟人工智能法案的要求,从透明度、风险、偏见和网络安全准备等多个方面对模型进行评估。在测试模型是否可以通过越狱和提示注入攻击被劫持时,DeepSeek的两个模型在COMPL-AI基准测试的所有模型中得分最低。DeepSeek R1 Distill Llama 8B在劫持和提示泄露方面的得分仅为0.15(满分为1.0),而Llama 2 70B得分为0.43,Claude 3 Opus得分为0.84。

  这可能使其违反欧盟人工智能法案第15条第5款的规定,该条款指出:“高风险人工智能系统应具备抵御未经授权的第三方利用系统漏洞改变其使用、输出或性能的能力”。

  此分析是在思科对DeepSeek越狱技术进行的类似研究之后进行的,思科发现该模型100%易受旨在产生恶意输出的提示的影响。在其他方面,这些模型的表现优于一些最受欢迎的开源和专有大型语言模型(LLM)。该模型始终否认自己是人类,而GPT-4或Qwen的基础版本都未能做到这一点。

  在使用HumanEval(一种广泛用于评估大型语言模型代码生成能力的基准测试)进行测试时,DeepSeek的表现也优于其他开源模型。DeepSeek R1 Qwen 14B得分为0.71,而Llama 2 70B得分为0.31,在COMPL-AI排行榜上仅次于GPT-3.5(0.76)、GPT-4(0.84)和Claude 3 Opus(0.85)。

  LatticeFlow AI的联合创始人兼首席执行官Petar Tsankov博士表示:“随着企业人工智能治理要求的收紧,企业需要通过技术评估来弥合内部人工智能治理与外部合规性的鸿沟,以评估风险并确保其人工智能系统可以安全地用于商业用途。”

  “我们对DeepSeek模型的评估凸显了一个日益严峻的挑战:虽然在提高能力和降低推理成本方面取得了进展,但不能忽视直接影响业务风险的关键领域(网络安全、偏见和审查)中存在的重大差距。凭借COMPL-AI,我们致力于以全面、技术化和透明的方式为社会和企业评估和缓解人工智能风险。”COMPL-AI与欧盟委员会没有正式关联,也不能提供对欧盟人工智能法案的官方第三方分析。希望在技术栈中采用DeepSeek或其他模型的公司仍然需要遵循实施生成式人工智能的最 佳实践。

  领导者还可能考虑聘请首席人工智能官和数据伦理学家等职务,并建立主权云集群,以确保在欧盟内用于人工智能的数据符合地区法律。

1