Imagine descobrir que até uma inteligência artificial está confusa sobre quem venceu as eleições presidenciais dos Estados Unidos de 2024. Pois é, o modelo OpenAI, em sua versão GPT-OSS-20B, teimou em dizer que Joe Biden foi o vencedor, apesar da clara vitória de Donald Trump. Em um diálogo peculiar, a IA não apenas insistiu na resposta incorreta, como também fabricou informações para defender sua posição.
Esta confusão reflete problemas mais amplos na evolução dos modelos de inteligência artificial. Enquanto os maiores modelos, como o GPT-oss-120b, parecem ter maior estabilidade, as versões menores, com 20 bilhões de parâmetros, apresentam comportamentos menos previsíveis. Isso não é apenas uma curiosidade tecnológica; é um lembrete da complexidade em desenvolver sistemas de IA seguros e consistentes.
No Brasil, onde a discussão sobre fake news e desinformação é constante, esse tipo de comportamento da IA lança luz sobre os desafios na veracidade das informações. Assim como a IA teima em suas respostas, nós, seres humanos, vezes sem conta, insistimos em narrativas que separamão da realidade, especialmente em contextos políticos polarizados.