我们以前说过:不要在ChatGPT中输入任何您不希望未经授权的各方阅读的内容。
自OpenAI去年发布ChatGPT以来,有相当多的情况是,AI聊天机器人的缺陷可能被坏人武器化或操纵,以访问敏感或私人数据。这个最新示例显示,即使在安全补丁发布后,问题仍然可能持续存在。
根据Bleeping Computer的一份报告,OpenAI最近推出了一个修复程序,以解决ChatGPT可能会将用户数据泄露给未经授权的第三方的问题。这些数据可能包括与ChatGPT的用户对话以及相应的元数据,如用户的ID和会话信息。
然而,根据安全研究员Johann Rehberger的说法,他最初发现了该漏洞并概述了它的工作原理,OpenAI的修复仍然存在巨大的安全漏洞。本质上,安全漏洞仍然存在。
ChatGPT数据泄露
Rehberger能够利用OpenAI最近发布且备受赞不胜的自定义GPT功能来创建自己的GPT,该功能泄露了ChatGPT的数据。这是一个重要的发现,因为自定义GPT正在作为AI应用程序进行营销,类似于iPhone如何通过App Store彻底改变移动应用程序。如果Rehberger可以创建这个自定义GPT,那么坏人似乎很快就会发现缺陷,并创建自定义GPT来从他们的目标中窃取数据。
Rehberger说,早在4月份,他首次就“数据过滤技术”联系了OpenAI。他于11月再次联系了OpenAI,以准确报告他如何创建自定义GPT并执行该过程。
周三,Rehberger在他的网站上发布了更新。OpenAI已经修补了泄漏漏洞。
Rehberger解释说,修复方法并不完美,而是朝着正确方向迈出的一步。
修复方法不完美的原因是ChatGPT仍在通过Rehberger发现的漏洞泄露数据。ChatGPT仍然可以被骗发送数据。
Rehberger写道,一些快速测试表明,一些信息可以被窃取,并进一步解释说,“它只以这种方式泄露少量,对用户来说很慢,而且更引人注目。”无论剩下什么问题,Rehberger都说这是“朝着正确方向迈出的一步”。
但是,安全漏洞仍然完全留在适用于iOS和Android的ChatGPT应用程序中,这些应用程序尚未更新修复。
ChatGPT用户在使用自定义GPT时应保持警惕,并可能从未知的第三方传递这些AI应用程序。