Cola na pizza? Vai dar trabalho resolver as alucinações da IA do Google
Comer pelo menos uma pequena pedra por dia pode ajudar na saúde do aparelho digestivo, dizem geólogos da universidade UC Berkeley. Você pode melhorar a textura de uma pizza de queijo usando cola não tóxica. Gasolina não faz o macarrão cozinhar mais rápido, mas pode deixar o prato mais picante.
Como reportado aqui no Tilt, todas essas recomendações vieram da ferramenta AI Overview, disponibilizada pela Google para usuários do Reino Unido e dos Estados Unidos. Ainda em fase experimental, a funcionalidade usa inteligência artificial para resumir os resultados da busca no Google, criando um texto corrido ao invés de uma lista de links.
Dito de outra forma, a ferramenta procura poupar a pessoa do trabalho de ler a lista de sites que voltou como resultado da busca, clicar nos links que parecem fazer mais sentido e ler o conteúdo do site para ver se ali está a resposta para a sua pergunta.
IA contra o cansaço
Até o advento do ChatGPT e outros LLMs (modelos de linguagem de grande porte) mais populares, nunca achei que pesquisar coisas no Google fosse uma atividade necessariamente cansativa. Não me lembro de ter chegado ao final do dia e pensado: "Nossa estou exausto! Deve ter sido a quantidade de pesquisas que fiz no Google hoje."
Tudo indica que o hábito de perscrutar uma lista de links como modo de obter informação está com os dias contados. Depois de terceirizar a nossa capacidade de memória para o Google e para a Wikipedia, agora vamos delegar também a nossa capacidade de analisar conteúdos para selecionar o que mais nos interessa. A resposta, mais do que nunca, virá pronta.
Mas o que acontece quando a inteligência artificial alucina e entrega respostas erradas, sem sentido, ou mesmo perigosas?
Você não deve comer pedra, botar cola na pizza ou cozinhar com gasolina. Todo mundo já sabe, mas não custa lembrar, que os chats atrelados a modelos de linguagem de grande porte foram feitos para gerar textos coerentes. Se eles falarão sobre algo verdadeiro, atestável e seguro são outros quinhentos.
Essa segunda parte pode ser endereçada com aperfeiçoamentos na forma de treinamento da IA, customização de bases de dados especializadas, supervisão humana, criação de ferramentas para avaliação e feedback de resultados, testagem cada vez mais intensiva etc.
Uma forma de aperfeiçoamento que vai se tornando cada vez mais comum nos LLMs populares é a indicação dos sites a partir dos quais o texto foi criado pela inteligência artificial. A menção às fontes ajuda a entender alguns dos equívocos do AI Overview da Google: o texto sobre os benefícios de se comer pedra, por exemplo, veio de um site de paródia. A IA leu, processou, mas não soube distinguir que aquele era um conteúdo humorístico.
Vamos nos acostumar com os erros da IA?
Como será o futuro da pesquisa por informações na internet? Será que vamos nos acostumar com os erros e com as alucinações, apenas clicando em algum botão de avaliação negativa e pedindo para a ferramenta tentar outra vez? A própria Google afirmou que as respostas exóticas do AI Overview não eram representativas do modo pelo qual a ferramenta estaria funcionando.
De toda forma, existe uma grande diferença na percepção do erro quando se sai da apresentação da lista de links para o parágrafo criado pela IA. Caso algum site com conteúdo errado ou perigoso volte como resultado de pesquisa, é o usuário que escolheu clicar e ir para um endereço eletrônico de terceiro.
Por outro lado, quando a ferramenta de IA resume vários sites e cria um parágrafo, parece ao usuário que é a própria empresa que está afirmando seja lá o que a inteligência artificial resolveu colocar na tela a partir das informações que encontrou na rede e das instruções com as quais foi treinada.
Talvez aqui esteja a chave do problema atual. Enquanto as pessoas querem mais comodidade e esperam que a IA revele a verdade instantaneamente, o estado da técnica não consegue garantir que os textos gerados não terão alguma dose de inconsistência ou pura invenção por parte da ferramenta.
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberIndicar as fontes é um primeiro passo no sentido de se gerar funcionalidades que possam deixar o usuário mais informado sobre como aquele texto foi produzido. Esse recurso dá também ao usuário a chance de ir atrás das referências e saber mais sobre o que ele perguntou (e entender de onde eventualmente veio a alucinação da IA).
Acontece que grande parte das ferramentas populares de IA não são lançadas com manual de instrução. E como poucas coisas são mais desinformantes do que o hype, quanto maior o sucesso da IA maior o número de pessoas que vai usar e entender a ferramenta como sendo algo que ela não é. Vimos isso no frenesi gerado pelo ChatGPT e meio mundo tratando a aplicação como se fosse uma nova forma de oráculo.
O futuro ideal da busca por informações na rede não vai vir de mão beijada. Ele vai demandar que empresas criem soluções que permitam o seu aperfeiçoamento com um olho na acurácia e outro no entendimento que o usuário tem da ferramenta. Por outro lado, o usuário também vai precisar querer se informar sobre os meios pelos quais a informação lhe é servida.
A má notícia para quem está cansado é que a construção de um futuro com mais comodidade para acessar informação vai dar muito trabalho.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.