Pornô de vingança com 'deepfakes': por que precisamos nos preocupar com isso
Você recebeu um link para assistir vídeos pornôs de celebridades ou viu um político dizendo algo completamente incomum? Cuidado: pode ser falso.
Vídeos chamados de "deepfake" são produzidos com programas de Inteligência Artificial que criam versões computadorizadas do rosto de alguém e são capazes de manipular sua fala – literalmente colocar “palavras na boca" desse alguém – ou seu contexto, por exemplo, adicionando a cabeça de uma atriz de Hollywood ao corpo de uma estrela pornô.
Já existem falsos vídeos do ex-presidente americano Barack Obama e falsos pornôs com atrizes como Emma Watson. Diversos desses vídeos têm sido tirados de circulação de sites americanos como o Gfycat.
- Curte vídeos fakes com famosos? Seu dispositivo pode ter sido hackeado
- Expectativa x realidade: brasileiro quer app de pornografia, mas acha vírus
- O que fazer se eu virar vítima de pornografia falsa na internet?
Até pessoas comuns podem ser alvo: especialistas temem que a prática do “pornô da vingança” (quando uma pessoa divulga um vídeo íntimo do ex-namorado, por exemplo) ganhe novo impulso com a possibilidade de manipulação de imagens.
Outro perigo, potencialmente ainda mais danoso e de impactos globais, é a adulteração de falas de políticos em campanhas eleitorais.
A criação desses vídeos tornou-se mais comum e fácil depois do lançamento de uma ferramenta grátis, no início deste ano, que tornou a troca de rostos um processo relativamente simples. O desenvolvedor do FakeApp diz que ele foi baixado mais de 100 mil vezes.
Seu funcionamento se baseia em um algoritmo que cria uma versão computadorizada do rosto de uma celebridade ao analisar centenas de fotos desta pessoa e também um vídeo de quem terá seu rosto substituído.
Os resultados variam bastante em termos de qualidade. Mas, em alguns casos, quando as duas pessoas envolvidas na troca são parecidas fisicamente, o produto final chega a ser convincente.
Também preocupa o fato de as legislações dos países não conseguirem acompanhar a tecnologia, criando um vácuo legal que dificulta a punição de criadores de “deepfakes”.
Como identificar?
Para tentar identificar possíveis “deepfakes”, uma dica é prestar atenção à qualidade dos vídeos e na maneira como os rostos se movem. Em vídeos "fakes" de celebridades, os rostos digitalmente "transplantados" tinham resolução mediana, oscilações, tremores e flutuações.
Em termos técnicos, também há diferenças entre os “deepfakes” e os vídeos verdadeiros, explicou à BBC News Brasil o pesquisador de computação gráfica Christian Riess, da Universidade Friedrich-Alexander Erlangen-Nürnberg, na Alemanha.
"Um vídeo editado tem na área do rosto uma sobreposição de gráficos computacionais. É isso que o algoritmo detecta", explica Riess.
Ou seja, algoritmos automatizados inteligentes deixam vestígios. O grupo de Riess criou o software FaceForensics, que almeja justamente identificar esses traços.
Mas, segundo o pesquisador, não demorará até que os programas de "deepfakes" evoluam a ponto de edições serem imperceptíveis ao olho humano. Logo, dependeremos de softwares para autenticar vídeos suspeitos.
Em assuntos mais sérios, como edições em vídeos de políticos, é preciso sempre analisar o contexto.
"Em qual veículo esse vídeo aparece? Você confia na fonte? Alguém a checou? Quem se beneficiaria desse vídeo? Essas perguntas clássicas de jornalismo e checagem de fatos devem ser aplicadas", orienta o pesquisador.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.