Deepfake: como você pode ser afetado pela onda dos vídeos falsos
Sabe aquela história de "eu só acredito vendo"? Em tempos de inteligência artificial (IA), essa premissa chega a ser até perigosa. O poder de convencimento da chamada deepfake (vídeos manipulados) tem crescido e os casos mais comuns envolvem violência de gênero e o uso de figuras públicas.
É uma das observações presentes no relatório "Deepfakes no Brasil - Prepare-se Agora", desenvolvido pela Witness, organização global que promove o uso da tecnologia de vídeo na defesa de direitos humanos e no jornalismo cívico, e divulgado nesta quarta-feira (16).
Um extenso levantamento mostra que a desinformação que o Brasil enfrenta permite que esses vídeos manipulados com ajuda de IA se tornem cada vez mais populares e convincentes.
Confira a seguir destaques importantes sobre o tema:
Como a deepfake é formada
A tecnologia envolve vídeos editados que geralmente mostram alguém fazendo ou dizendo algo que nunca fez ou falou. Alguns são mais toscos, mas há vídeos tão bem feitos que dificilmente percebemos que as cenas são falsas.
Em geral, usa-se algum elemento característico de uma pessoa (o rosto, o corpo etc.) mesclado em outra. O mais comum é exatamente a troca de cabeças entre os envolvidos.
O processo de edição não é novo, mas o uso de uma inteligência artificial cada vez mais avançada sim. Com ela, essa mescla costuma ficar bem convincente em muitos casos. No meio do ano, uma deepfake de Mark Zuckerberg foi criada propositalmente para uma exposição, mas quase convenceu de que era mesmo ele.
Lembra do filtro do Snapchat que deixava as pessoas com cara de criança ou do gênero oposto? Ele não tem a ver com deepfake, que fique bem claro, mas é a prova do quanto a IA tem conseguido bons resultados.
Por sorte (digamos assim), os deepfakes atuais ainda enfrentam problemas com movimento da boca, dos olhos, com a textura do cabelo. Isso pode ser útil caso você receba algum vídeo suspeito, destacou o levantamento.
Deepfake, pornografia e vingança
O cenário político, o uso de robôs (chamados bots) nas redes sociais e a baixa confiança na imprensa brasileira formaram um conjunto perfeito para o aumento das notícias falsas e das deepfakes, segundo o relatório.
Mas o problema vai muito além do uso de políticos para enganar as pessoas.
Muitos vídeos falsos viralizaram entre os consumidores de pornografia. Alguns usavam o rosto de artistas famosos (principalmente mulheres) em corpos de atrizes/atores de filmes de sexo explícito. Outro caso emblemático foi o vídeo manipulado envolvendo João Doria, candidato ao Governo de São Paulo na época, em uma falsa orgia.
Essa facilidade de manipulação torna o risco da deepfakes ainda maior, já que todos nós podemos ser vítimas. O "revenge porn", compartilhamento de imagens íntimas como vingança, está aí para provar.
"Não apenas os deepfakes começaram como uma maneira de produzir conteúdo degradante contra as mulheres, mas também um dos primeiros aplicativos que utilizaram a tecnologia foi um app estilo "óculos de raio-x" que fazia qualquer mulher ficar 'nua'. Atualmente, o aplicativo está proibido, embora ainda esteja disponível em sites não oficiais", destacou a organização.
A ação danosa dos deepfakes também podem afetar outras instâncias da soecidade, como:
- Jornalistas e ativistas cívicos, que terão sua reputação e credibilidade atacadas
- Movimentos sociais, que enfrentarão ataques à credibilidade de seus líderes e de seus ideais
- A Justiça, pois vídeos como provas serão desacreditados e alegados como não autênticos, dificultando processos judiciais
- Teóricos da conspiração, que terão no conceito dos deepfakes mais uma arma para campanhas de desinformação
- Agências de verificação de mídia e verificação de fatos, que terão mais trabalho para saber se o conteúdo a ser verificado foi manipulado
O problema dos vídeos falsos aumentará desconfiança nas instituições, e cada vez mais a verdade será substituída pela opinião.
Por exemplo, a micro-segmentação de conteúdo pelas redes sociais —isto é, espalhar histórias que têm grupos específicos de Facebook, WhatsApp e afins como público-alvo— conseguirá enviar conteúdo falsificado de forma mais eficaz, com a intenção de reforçar uma posição ou opinião existente.
Rumo ao combate
O relatório propõe várias ideias para que o problema da deepfake seja contido. Entre elas:
- A conscientização dos brasileiros sobre tecnologias que potencializam a viralização de conteúdos falsos. Assim, as chances de alguém questionar a veracidade do que se recebe aumentam
- A criação de ferramentas mais precisas de detecção que sejam "claras, transparentes e confiáveis"
- O desenvolvimento de ferramentas acessíveis para que as pessoas consigam verificar por elas mesmas a autenticidade de vídeos
- Grandes plataformas web como Facebook, YouTube, Google e Whatsapp precisam fazer parte da solução com transparência e apoio para separar a verdade da falsidade
SIGA TILT NAS REDES SOCIAIS
- Twitter: https://twitter.com/tilt_uol
- Instagram: https://www.instagram.com/tilt_uol/
- WhatsApp: https://uol.page.link/V1gDd
- Grupo no Facebook Deu Tilt: http://bit.ly/FacebookTilt
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.