Opinião

De loira falsa a clone digital: como IA revive 'teoria da internet morta'

Há alguns anos, surgiu uma teoria da conspiração chamada "Dead Internet theory", afirmando que não existiria mais conteúdo e interações humanas na internet e que quase a totalidade do tráfego da rede teria origem em sistemas de IA e bots para manipular a opinião pública e modular o comportamento dos usuários. É como se todos os textos, imagens e vídeos que consumíssemos online fossem criados por robôs. E os propagadores desta teoria colocaram até uma data para a morte da internet: 2016 (Nota do editor: Sim, de acordo com essa teoria, a internet já deveria ter acabado).

Antes de mais nada, é importante fazer uma correção entre os conceitos. Apesar de usarmos as palavras internet e web como sinônimos, elas não significam as mesmas coisas. A internet está mais relacionada com a parte de infraestrutura da rede, enquanto a web é a camada de aplicações na qual o usuário interage, posta e consome conteúdo. A internet está funcionando muito bem, mas, a web, de fato, começa a sofrer influência direta dos algoritmos, seja na criação ou na distribuição de conteúdos a partir de sistemas de recomendação.

É claro que a "Dead Internet Theory", ou se quisermos ser mais precisos, "Dead Web Theory", continua sendo uma teoria da conspiração. No entanto, é inegável que estamos vendo um aumento constante de conteúdos sintéticos gerados por robôs que são postados online. A web como a conhecemos pode não estar morta, mas está se transformando. E essa transformação desafia o nosso entendimento do que ela representa e suas consequências para a humanidade e as próprias máquinas.

Em maio deste ano, a NewsGuard, uma ferramenta que avalia a credibilidade de sites de notícias, identificou 49 portais que publicam matérias e artigos escritos totalmente por IA. Em três meses, o número disparou. No último relatório, publicado na segunda-feira (7), já eram 408 sites identificados. E essa tendência se espalhou pelo mundo todo, porque agora são portais online nos mais diferentes idiomas, inclusive em português.

Essa mudança não se restringe apenas à produção de textos e imagens, mas muda o próprio paradigma da interação online. Já tem influenciadores que começaram a automatizar a sua presença nas redes sociais utilizando IA para criar avatares digitais que conversam e interagem com o público. Este é o caso de Caryn Marjorie, uma digital influencer que começou a cobrar US$ 1 por minuto para que fãs pudessem ter um date com um chatbot que era seu "clone".

Da mesma forma que tem gente de carne e osso criando seus "clones" digitais, a tecnologia abre espaço para que sejam criados influenciadores 100% baseados em IA. A pessoa não existe, não tem uma contrapartida na realidade física, e tudo - sua fisionomia, personalidade e interações - é construído por algoritmos. Milla Sofia é um exemplo. O perfil da influenciadora explora fotos e vídeos sensuais nos lugares mais paradisíacos do mundo para atrair a atenção de milhares de seguidores nas redes sociais. Tudo falso. Tudo criado por IA.

Milla Sofia é uma influenciadora criada por inteligência artificial
Milla Sofia é uma influenciadora criada por inteligência artificial Imagem: Reprodução/Instagram/@millasofiafin

Desde o começo do ano, uma pergunta fica me martelando: quais serão as consequências desse tanto de interações e conteúdos sintéticos impulsionados pelo avanço da IA?

Ainda estamos na infância da era da IA generativa, então fica difícil entender tudo o que pode acontecer. Para nós, humanos, o problema é navegarmos por conteúdos cuja origem não sabemos e que podem nos manipular. E isso pode acontecer de diferentes formas:

Continua após a publicidade
  • A IA pode ser utilizada por pessoas mal-intencionadas para produzir conteúdos falsos e mentirosos,
  • também existe o risco de baseamos nossas decisões e aprendizados em conteúdos imprecisos produzidos por uma máquina que pode errar.

Sim. A máquina pode errar, apesar de muitas vezes esquecermos disso. E isso tem consequências não somente para as pessoas, mas para a própria IA.

Atualmente, utilizamos a 1ª geração de IA generativas, treinadas com conteúdos criados por humanos, de textos e imagens a vídeos. No entanto, essas mesmas máquinas começam a produzir conteúdos que serão a base para treinar futuras gerações. Com isso, incoerências, erros, vieses e estilos próprios da máquina têm potencial de serem perpetuados ao longo do tempo, eclipsando o conhecimento humano e fazendo com que a máquina perca o já pouco referencial da realidade que ela tem.

Estão surgindo vários estudos mostrando que não é uma boa ideia alimentar a IA exclusivamente com materiais criados por IA. Um artigo publicado por pesquisadores de Oxford, Cambridge e Universidade de Toronto deixou evidente que treinar modelos com conteúdos produzidos por IA causa defeitos irreversíveis para o sistema, inclusive fazendo com que o conhecimento original, aquele criado pelo humano, desapareça da IA.

Em um outro estudo, desta vez com foco em IA generativa de imagens, pesquisadores das universidade de Stanford e Rice (EUA) mostraram que com poucas interações de treinamento com conteúdos criados pela IA, os modelos perdem a qualidade e o seu funcionamento decai. Os autores chamaram essa condição de Modelo de Transtorno de Autofagia (MAD), fazendo uma analogia com a doença da vaca louca (Mad Cow Disease, em inglês). Este é um loop perigoso em que máquinas se retroalimentam com conteúdos probabilísticos sem uma ancoragem na realidade.

Por isso, uma das prioridades das grandes empresas de tecnologias, conforme acordo firmado com a Casa Branca, é aprimorar técnicas para detectar conteúdos gerados por sistemas inteligentes. Essa é uma questão que também inquieta a comunidade científica mundial. A identificação de conteúdos produzidos por IA não só é crucial para que o ser humano não se torne mero espectador de uma narrativa moldada por máquinas, como também é vital para prevenir o potencial colapso da própria IA.

Continua após a publicidade

*Professor na PUC-SP e Pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I - Sorbonne. MBA em Economia Internacional pela USP e Especialista em Neurociência. Foi pesquisador visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Tem pesquisas na intersecção entre ciência cognitiva, design e tecnologia.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Este texto não reflete, necessariamente, a opinião do UOL

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.