Em um exercício inédito de 'red teaming' em Arlington, Virgínia, cientistas da computação participaram de uma jornada para explorar as vulnerabilidades de sistemas de inteligência artificial. Durante dois dias, equipes identificaram mais de 139 maneiras de fazer com que os sistemas fossem induzidos a comportamentos perigosos, desde a divulgação de informações pessoais até a geração de desinformação.
O exercício foi realizado no final do mandato de Biden e coordenado pelo Instituto Nacional de Padrões e Tecnologia (NIST). No entanto, o relatório detalhando os resultados nunca foi publicado. Fontes familiarizadas com o assunto afirmam que a administração temia conflitos com a equipe de Trump, que posteriormente desviou a atenção dos estudos sobre viés algorítmico e equidade em IA.
Ironicamente, o Plano de Ação da IA do governo Trump incluiu justamente esse tipo de exercício. No entanto, a revisão proposta pelo governo republicano removeu referências a 'diversidade', 'equidade' e 'inclusão', além de mudanças climáticas. Essa postura parece indicar uma priorização de interesses empresariais sobre questões éticas.
Os participantes do exercício, incluindo especialistas da Carnegie Mellon University, destacaram a relevância do estudo para a comunidade de IA. Entre as发现ações estava a capacidade de modelos como o Llama fornecer instruções para juntar-se a grupos terroristas, usando prompts em línguas como russo e telugu.
Ao final, o exercício não apenas expôs vulnerabilidades técnicas, mas também refletiu uma crise de transparência e responsabilidade na gestão tecnológica. Enquanto políticos brigam por hegemonia ideológica, a IA continua a evoluir, ameaçando nossa segurança e nossos valores.