Não é só privacidade: Meta afeta economia ao treinar IA com os nossos dados
Nesta semana, fomos surpreendidos com a decisão da ANPD (Autoridade Nacional de Proteção de Dados) em publicar uma medida preventiva que proíbe a Meta de usar os dados de brasileiros para o treinamento de IA.
Para contextualizar essa decisão, vejamos os eventos recentes envolvendo a Meta.
O que rolou é que a Meta havia atualizado suas políticas para permitir o uso de treinamento de IA. Não é algo diferente do que outras empresas já fazem, mas a empresa de Zuckerberg decidiu disponibilizar um formulário para que os usuários pudessem solicitar a exclusão de seus dados para o treinamento da IA.
É aí que começa toda a série de drama que virou um pesadelo para a Meta.
Primeiro, a empresa não comunicou claramente as mudanças aos usuários.
Além disso, escondeu o formulário, dificultando o acesso e tornando o processo burocrático e incerto. Para que as pessoas conseguissem acessar o formulário, elas precisavam seguir vários passos, acessando um menu depois de outro, até chegar em um formulário burocrático que dizia algo como "podemos ou não aceitar seu pedido".
É claro que essa situação absurda chamou atenção. Em pouco tempo, a conversa tomou conta das redes sociais e muitos perfis de artistas começaram a publicar tutoriais de como os usuários poderiam encontrar e preencher o tal do formulário. Dias depois, os principais veículos de comunicação do Brasil estavam publicando matérias sobre o caso.
O barulho foi o suficiente para acordar a ANPD.
Na terça-feira (2), a autoridade publicou uma medida preventiva suspendendo o uso de nossos dados pela Meta para o treinamento de IA. O colega colunista Carlos Affonso Souza fez uma excelente análise do teor jurídico da decisão, então o que pretendo abordar é uma visão complementar de fatores econômicos e de inovação.
Mas antes de trazer meus argumentos, precisamos situar essa decisão da ANPD dentro de um contexto.
Apesar de uma medida técnica e bem fundamentada, ela não aconteceu no vácuo.
Ao mesmo tempo que a autoridade vinha sendo bastante questionada por uma suposta inoperância nos últimos anos, a entidade passou a ser especulada como uma possível autoridade na regulação de IA no Brasil.
Foi a oportunidade perfeita para a ANPD tomar uma decisão para se fortalecer politicamente e com a opinião pública.
As consequências que se desdobram a partir disso são importantes para discutirmos outros aspectos, como a inovação e a competição econômica.
Em nota, a Meta disse:
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberEstamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil.
O argumento da empresa faz sentido quando diz que os concorrentes também usam conteúdos públicos para treinar seus modelos de IA.
A decisão da ANPD especificamente contra a Meta, mas não contra as outras empresas que seguem a mesma prática, pode ser potencialmente questionada como uma interferência na competição e no livre mercado.
Porém, quando a empresa diz que isso é um retrocesso para a inovação, precisamos ter uma leitura mais cuidadosa.
É fato que os dados de brasileiros vão melhorar os modelos e aumentar a representatividade de nossa língua e cultura, mas será uma inovação fechada, na qual uma empresa estrangeira drena nossos dados para melhorar apenas os seus próprios produtos.
Essa é uma crítica que eu sempre faço.
A coleta de dados locais por empresas estrangeiras precisa ser um jogo de ganha-ganha econômico e de desenvolvimento científico e tecnológico, não apenas uma questão de privacidade.
Recentemente, em conversa com representantes da OpenAI, eu comentei sobre a necessidade das principais empresas desenvolvedoras de IA de criarem iniciativas de criação e abertura de dados de treinamento, especialmente em países do Sul Global.
Se eles precisam de mais dados em português, porque não promover ações com universidades para fortalecer o desenvolvimento de conjuntos de dados abertos de treinamento?
A mesma questão ocorre com a Meta. Por que não criar políticas para que universidades e startups nacionais tenham acesso a pelo menos uma parcela dos dados dos brasileiros que estão sob seus domínios?
Sei que essa é uma hipótese que parece impensável, especialmente a partir do modelo de negócios das big techs, mas a discussão precisa ser colocada na mesa.
Mesmo após a decisão da ANPD, minha principal preocupação com o uso dos meus dados para o treinamento de IA é mais econômica do que relacionada à privacidade.
O debate sobre a regulação de IA deve considerar a competição e a inovação, principalmente para promover o desenvolvimento local. Políticas de acesso e uso de dados são fundamentais nesse contexto.
Deixe seu comentário