Trump mostra que IA pode ser álibi para verdades indesejadas
A inteligência artificial é uma caixinha de multiversos. É assim que respondo quando sou perguntado sobre os impactos das IAs. É difícil prever todos os desdobramentos da tecnologia porque estamos falando de algo capaz de criar narrativas e conteúdos realistas que podem contar histórias alternativas sobre o passado.
E isso traz consequências nas mais diferentes dimensões da vida humana: social, cultural, econômica, cognitiva e afetiva.
Recentemente, o Gemini, a nova IA do Google, passou a ter um comportamento de revisionismo histórico. A IA gerou imagens de eventos sem congruência com a realidade:
- imagens de um Papa mulher,
- negros no exército nazista;
- um árabe como um dos pais fundadores dos Estados Unidos.
Neste caso específico do Google, isso aconteceu devido a um cuidado excessivo da empresa para criar mecanismos que levassem mais diversidade e representatividade aos resultados da máquina. Desde a explosão dessa nova onda da IA nos últimos 10 anos, muitos estudos mostram que os modelos de IA podem refletir vieses sociais que estão emaranhado nos dados de treinamento. Por isso, a maioria das empresas tenta criar estratégias para não perpetuar esses vieses.
Além disso, modelos atuais não são bons para distinguir o que é ficção do que é fato, algo que realmente aconteceu. É por isso que a ferramenta pode adotar um perfil criativo e reescrever a história.
A polêmica foi grande, e o Google removeu a funcionalidade para melhorias. Mas a situação em si não trouxe maiores problemas para a sociedade. Quem sacou que havia algo de errado foram os próprios usuários enquanto estavam criando os conteúdos. E as imagens em questão não eram tão realistas assim a ponto de outras pessoas acharem, de fato, que existiram negros no exército nazista ou que uma mulher foi eleita Papa.
O problema é que as ferramentas estão evoluindo rapidamente. Muitas já criam imagens super-realistas de pessoas e eventos que nunca existiram ou inventam situações fantasiosas para pessoas reais, as chamadas deepfakes.
Tudo isso será combustível para alimentar revisionismos históricos e teorias da conspiração.
Desde o ano passado, a humanidade entrou no paradigma de que "o ver para crer morreu". Precisamos encontrar estratégias para garantir a integridade da informação no universo digital, principalmente em relação aos conteúdos criados por IA. O desafio é que vai levar tempo para desenvolver técnicas que possam, de maneira confiável, identificar e marcar conteúdos gerados pela máquina.
O que podemos fazer nesse meio tempo é alertar sobre a necessidade de checar imagens, vídeos e áudios por mais reais que eles pareçam.
Tudo isso pode ter um efeito colateral severo, que é as pessoas deixarem de acreditar no que é real por conta de seus valores e preferências. A IA vira a desculpa perfeita para alguém desacreditar que seu político disse algo que contradiz suas crenças, desejos e valores, por exemplo.
E o pior: isso pode ser usado como mais uma estratégia de manipulação de massas. Donald Trump, ex-presidente dos EUA e candidato para voltar à Casa Branca, é um dos políticos que começou a chamar de "IA" todos os conteúdos que ele não gosta.
Na semana passada, parlamentares democratas exibiram uma sequência de vídeos curtos de Trump com declarações confusas durante uma audiência no Congresso. Tem trechos em que ele alega que baleias estão sendo assassinadas por moinhos de vento, confunde o presidente norte-americano Joe Biden com o ex-presidente Barack Obama, e assim por diante.
Não demorou para Trump ir até sua rede social, a Truth Social, chamar tudo de fake. Só que agora ele tem um novo aliado para o seu discurso: a IA. E ele faz isso ainda que os vídeos sejam reais e conhecidos
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberA inteligência artificial foi usada por eles contra mim nos meus vídeos. Não pode fazer isso, Joe [Biden]!
Donald Trump
Esse é apenas um exemplo das possíveis consequências. Agora a IA não só produz mentiras como também pode ser usada como álibi para verdades indesejadas. Talvez nos acostumemos a lidar com essa situação. Ou talvez a IA seja a desculpa perfeita para fortalecer ainda mais os vieses de confirmação e a dissonância cognitiva que assombram a nossa democracia.
Deixe seu comentário