'Tribunal da Meta' cobra remoção prioritária de nudes gerados com IA
Fotos de mulheres nuas geradas por IA devem ter remoção prioritária nas redes sociais. Essa é uma das sugestões do Meta Oversight Board, uma espécie de "tribunal" externo da Meta composto por especialistas, que analisa temas polêmicos, em relatório publicado nesta terça-feira (17).
O que aconteceu
O relatório mostra preocupações quanto ao uso de inteligência artificial na criação de conteúdos sexuais. Antes, o Conselho falava apenas sobre a importância de marcar imagens e vídeos gerados por IA, para não confundir as pessoas. No caso de imagens sexuais de meninas e mulheres, a situação é mais grave.
Pesquisadores de abuso sexual online sugerem que os danos causados por imagens íntimas de deepfake podem ser tão graves quando o de imagens autênticas, que foram compartilhadas sem consentimento. Na maioria das vezes, essas imagens são uma forma de bullying contra adolescentes, o que levanta sérias preocupações sobre a saúde mental de meninas
Conselho de Supervisão da Meta, em relatório
No Brasil, celebridades, como a atriz Isis Valverde, já foram vítimas de deepfakes de nudez. No Rio de Janeiro, alunos foram investigados após criarem imagens de meninas usando aplicativos de inteligência artificial que "tiram" as roupas delas.
Casos de deepfake de famosas foram estopim para a cobrança. Em julho de 2024, o Conselho analisou dois casos de imagens de celebridades nuas criadas com inteligência artificial postadas no Facebook. A postagem com uma artista dos Estados Unidos foi prontamente removida (o relatório não cita nominalmente, mas na época havia uma imagem da cantora Taylor Swift circulando na rede), enquanto a da celebridade da Índia, não.
Embora relatos de reportagens jornalísticas sejam um sinal de que este tipo de conteúdo foi compartilhado de forma não consensual com figuras públicas, isso não ajuda anônimos. As plataformas deveriam ter políticas claras de remoção de conteúdo não consensual. Nossa sugestão é que empresas removam esses arquivos e garantam formas convenientes de usuários reportarem esse tipo de imagem.
Conselho de Supervisão da Meta
"Pedimos também para a Meta mudar seus termos de uso, pois essas criadas com IA eram definidas como bullying. Queremos que sejam classificadas como nudez sem consentimento, o que é algo mais amplo e mais fácil de ser moderado, pois nesses casos há grande chance de não haver consentimento na criação da imagem", disse o advogado Ronaldo Lemos, um dos membros do Conselho, em conversa com jornalistas. A Meta deve responder à cobrança do Conselho até o dia 25 de setembro.
O que faz o "tribunal da Meta"
Estabelecido em novembro de 2018, o Conselho de Supervisão da Meta analisa as ações da empresa de forma independente e tem poder de tirar do ar ou restabelecer conteúdos do Facebook, Instagram ou do Threads —o WhatsApp não está incluído nas atribuições do "tribunal".
As decisões são tomadas com base nas políticas de uso da Meta e na Declaração Universal dos Direitos Humanos. Todas as recomendações feitas pelo conselho devem ser respondidas pela Meta publicamente em até 60 dias.
Os casos "polêmicos" chegam ao conselho a pedido de usuários, que recorrem de decisões anteriores, e casos de alto perfil (geralmente envolvendo pessoas famosas, tópicos sensíveis ou notícias importantes).
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.