Imagine um apartamento em Tel Aviv onde as luzes se apagam, as cortinas se abrem simultaneamente e o boiler é ligado automaticamente. Nenhum morador havia programado essas ações. Em vez disso, os residentes estavam sofrendo de um ataque coordenado contra o sistema Google Gemini, a IA da Google.
Cientistas da computação demonstraram como uma invitação maliciosa ao calendário Google pode instruir dispositivos inteligentes a executar ações perigosas. Essa técnica, conhecida como 'injeção de prompt indireta', é uma das vulnerabilidades mais sérias que afetam os sistemas de IA modernos.
Os pesquisadores, oriundos da Universidade de Tel Aviv e de outras instituições israelenses, mostraram como essas invitações podem hackear a Gemini, fazendo com que ela execute comandos maliciosos em dispositivos conectados à internet. Essa demonstração marca o primeiro caso em que um ataque contra uma IA causou consequências no mundo físico.
Em palestra na conferência Black Hat, eles detalharam como esses comandos podem abrir aplicativos, enviar spam e até mesmo acessar dados sensíveis. Um exemplo impressionante foi a abertura automática de janelas em um apartamento vazio, ilustrando o potencial perigoso desse tipo de ataque.
A Google reagiu prometendo melhorias significativas em sua segurança, incluindo detecções de IA e confirmações adicionais para ações sensíveis. No entanto, os pesquisadores alertam que essas vulnerabilidades não são meramente teóricas. Elas representam uma ameaça real à medida que as IAs se integram cada vez mais em nossas vidas cotidianas.
É hora de refletir: quanto estamos dispostos a confiar em sistemas inteligentes para controlar nossos dispositivos e nossas vidas? E como podemos equilibrar essa confiança com a necessidade de segurança?