Filmes pornô com celebridades? A maioria é fruto de inteligência artificial
É bem provável que você já tenha visto links suspeitos ou gifs que mostram supostos vídeos pornográficos estrelados por famosos. O que ficou mais famoso recentemente envolve a atriz Gal Gadot (a estrela de "Mulher-Maravilha"), no qual ela pratica sexo incestuoso com um meio-irmão.
O vídeo em questão é falso - até aí, sem grandes surpresas. O que é, de certa forma, interessante (e também assustador) é a maneira como ele foi criado: usando um algoritmo de inteligência artificial.
VEJA TAMBÉM
- Sistema que reconhece gays por fotos mostra lado assustador de algoritmos
- Assistente virtual da Amazon faz festa particular e polícia é chamada
- Facebook usará inteligência artificial para prevenção de suicídio no Brasil
- Robô Sophia quer um bebê e diz que a família é "muito importante"
A obra é criação de um usuário do fórum Reddit com apelido de "deepfakes". Ele usou como base ferramentas de código aberto voltadas para o aprendizado automático, como TensorFlow, criado pelo Google e gratuito para pesquisadores e estudantes. E "ensinou" à sua criação a trocar rostos em vídeos do tipo.
O material disponível para essas alterações é vasto: tanto do lado dos vídeos pornográficos quanto em relação a fotos e vídeos de celebridades fazendo as mais diversas expressões. O resultado não é capaz de enganar quem olhar com mais atenção, mas é o suficiente para espectadores mais empolgados - e menos atentos - tomarem esses materiais como sendo reais.
E engana-se quem pensa que a tarefa exige um supercomputador: um PC equipado com uma placa de vídeo mediana poderia cumprir a tarefa de pesquisar imagens e trocar o rosto de alguém em um vídeo em algumas horas.
Risco real
É claro que a criação de deepfakes abre um precedente bastante perigoso, que é a utilização de imagens de pessoas para implicá-las em atos ou situações nas quais elas não participaram efetivamente.
Ainda assim, em entrevista ao site Motherboard, ele disse que só "encontrou uma forma inteligente de fazer troca de rosto", que "qualquer tecnologia pode ser usada para o mal" e que é possível evitar isso.
Em nenhum momento ele se manifesta sobre questões como consentimento de quem tem o rosto manipulado ou, ainda, sobre como isso pode criar problemas nas vidas de qualquer um. Afinal, estima-se, de acordo com dados do Google, que 24 bilhões de selfies foram carregadas no Google Photos entre 2015 e 2016 - sem contar as publicadas em outros lugares, como redes sociais, e também outros tipos de mídia, como vídeos.
O material para esse tipo de manipulação, portanto, é vasto.
De acordo com o especialista em inteligência artificial e fundador da creative.ai, Alex Champandard - também em entrevista ao Motherboard -, esse tema merece um "sonoro e público debate". "Todos precisam saber como é fácil manipular fotos e vídeos, ao ponto de que não saberemos distinguir o que é real ou não daqui a alguns meses. E hoje isso pode ser feito por apenas uma pessoa com computadores comuns".
Ainda segundo Champandard, a solução para evitar problemas seria pagar na mesma moeda e usar desenvolvimentos em inteligência artificiar para criar meios de detectar e diminuir a circulação desse tipo de material. Até que isso aconteça, porém, devemos encontrar cada vez mais conteúdo do tipo.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.