Os modelos mais recentes de IA gerativa não são apenas chatbots que produzem texto; eles podem ser conectados a dados para fornecer respostas personalizadas. Pesquisadores demonstraram como uma fraqueza nos Connectores da OpenAI pode extrair informações sensíveis usando um ataque de injecção de prompt indireto.
Descubra como um simples documento envenenado pode comprometer a segurança de suas ferramentas conectadas à IA:
A nova pesquisa, apresentada na conferência Black Hat em Las Vegas, revelou uma vulnerabilidade nos Connectores da OpenAI que permitia extrair segredos de desenvolvedores, como chaves API, a partir de contas Google Drive. O ataque, denominado AgentFlayer, não exige ação do usuário vítima.
Os pesquisadores Michael Bargury e Tamir Ishay Sharbat mostraram que compartilhando um documento envenenado na nuvem, onde uma prompt maliciosa está escondida, é possível instruir o ChatGPT a buscar e exfiltrar dados sensíveis. Essa técnica abusa da capacidade do modelo de IA de processar comandos em Markdown.
A OpenAI foi notificada sobre a vulnerabilidade e já implementou mitigações, mas isso destaca os riscos associados à conexão de sistemas de IA com dados externos. Quanto mais sistemas estão ligados, maior é a superfície de ataque para malfeitores.
Esta descoberta não apenas expõe uma fraqueza específica na integração do ChatGPT com o Google Drive, mas também lança luz sobre os desafios crescentes de segurança associados à adoção cada vez maior de IA em nossas ferramentas e sistemas.