流行的人工智能聊天机器人中发现了更多安全漏洞

2024-03-18 09:29:45深情的哈密瓜

如果黑客可以监控目标与目标基于云的人工智能助手之间的互联网流量,他们就可以轻松地监听对话。如果该对话包含敏感信息,那么该信息最终也会落入攻击者手中。

流行的人工智能聊天机器人中发现了更多安全漏洞

这是根据以色列本古里安大学进攻性人工智能研究实验室的研究人员的一项新分析得出的,他们找到了一种使用除GoogleGemini之外的所有大型语言模型(LLM)助手对目标部署侧通道攻击的方法。

“目前,任何人都可以阅读从ChatGPT和其他服务发送的私人聊天内容,”攻击性人工智能研究实验室负责人YisroelMirsky告诉ArsTechnica。

“这包括与客户端位于同一Wi-Fi或LAN上的恶意行为者(例如,同一家咖啡店),甚至是互联网上的恶意行为者——任何可以观察流量的人。这种攻击是被动的,可能在OpenAI或其客户不知情的情况下发生。OpenAI对其流量进行加密以防止此类窃听攻击,但我们的研究表明OpenAI使用加密的方式存在缺陷,因此消息内容被暴露。”

基本上,为了尽可能快地开发该工具,开发人员为骗子打开了获取内容的大门。当聊天机器人开始发回其响应时,它不会立即发送全部响应。它以令牌的形式发送小片段,以加快进程。这些令牌可能是加密的,但由于它们是一一发送的,一旦生成,攻击者就可以对其进行分析。

研究人员分析了令牌的大小、长度、它们到达的顺序等等。分析和随后的改进产生了与受害者看到的几乎相同的解密响应。

研究人员建议开发人员执行以下两种操作之一:要么一次停止发送一个令牌,要么将所有令牌固定为最大可能数据包的长度,从而使分析变得不可能。他们将这种技术称为“padding”,被OpenAI和Cloudflare采用。

推荐阅读

阅读排行