Nesta semana, Meta e OpenAI anunciaram planos para identificar as imagens geradas por IA. Para o colunista Diogo Cortiz, de Tilt, mas iniciativas são importantes, mas estão longe de resolver o problema. Quais são as medidasA Meta afirmou que está pronta para identificar imagens feitas com a sua própria IA, a Meta AI. Quando uma imagem realista é criada pelo seu sistema, existem diferentes maneiras de facilitar a identificação, como a adição de rótulos visíveis na imagem, marcas d'água invisíveis (que o usuário não vê, mas que servem para outros modelos de IA identificá-la) e metadados incorporados no arquivo dos conteúdos. No futuro, a empresa também vai ampliar a funcionalidade para identificar imagens criadas por ferramentas de outras empresas. A OpenAI também anunciou que as imagens criadas por sua IA incluiriam os metadados com as especificações C2PA, para facilitar que as plataformas de redes sociais possam identificar quais conteúdos foram criados por seus produtos. Medidas são limitadasAs próprias empresas deixam claro em seus comunicados que, embora esse movimento inicial seja importante, as técnicas que entrarão em vigor no curto prazo são limitadas. A OpenAI fala, inclusive, que tentar rotular imagens criadas por IA usando metadados não é "bala de prata". Os metadados baseados nos padrões C2PA podem ser facilmente removidos, seja de maneira acidental ou intencional. Alguém pode retirar os metadados manualmente ou de uma maneira ainda mais corriqueira: com um print da imagem. Ou seja, a solução atual não é efetiva contra pessoas mal-intencionadas e criminosos. Outra limitação é que essas soluções apresentadas nessa semana funcionam apenas com imagens, mas não com áudios ou vídeos. Outras medidasSabendo das limitações, a Meta está trabalhando em uma tecnologia chamada Stable Signature, um mecanismo que irá incluir marcas d'água invisíveis durante o processo de criação de imagens, que dificultam a sua remoção. A Meta também informou que vai adicionar uma nova funcionalidade para que os próprios usuários sinalizem quando compartilharem vídeos ou áudios gerados por IA. Essa será uma exigência das plataformas da Meta, e a empresa promete penalidades para quem descumpri-las. Embora tenhamos começado a caminhar, não resolveremos os problemas de deep fakes no curto prazo, seja pelas vias técnicas ou de regulação. Para Cortiz, é necessário letramento digital para que a sociedade consiga minimamente passear por esse futuro que será inevitavelmente híbrido entre criações humanas e artificiais. PUBLICIDADE | | |