Hollywood trava guerra contra gigantes da IA; debate já avançou no Brasil
Ler resumo da notícia
A briga entre artistas e empresas de inteligência artificial está rolando desde a popularização do ChatGPT. Foi quando a classe artística percebeu que suas criações estavam sendo usadas para treinar modelos de IA sem autorização que, em última análise, poderiam competir com eles próprios.
O embate agora ganha novos contornos com a narrativa de que o assunto de direitos autorais também é uma questão de segurança nacional. Pelo menos é o argumento que algumas empresas enviaram para a Casa Branca na semana passada.
A OpenAI apresentou o que denominou "uma estratégia de direitos autorais que promove a liberdade de aprender". No entanto, o conceito de aprendizado ao qual eles se referem não é aquele no sentido amplo que tradicionalmente conhecemos, mas sim um recorte específico voltado para o aprendizado da IA.
E o argumento vai ainda mais fundo ao dizer que essa é uma questão de segurança nacional em um cenário de competição global.
"O governo federal pode garantir aos americanos a liberdade de aprender com a IA e evitar ceder nossa liderança em inteligência artificial para a República Popular da China, preservando a capacidade dos modelos americanos de IA aprenderem com materiais protegidos por direitos autorais."
A posição que eles tentam vender ao governo americano é que quanto mais liberdade tiverem para usar conteúdos protegidos, mais rápido será o desenvolvimento de IAs melhores na competição acirrada com a China.
Nomes de peso contra as gigantes de IA
É claro que a resposta de Hollywood não demoraria.
Nesta semana, uma carta assinada por mais de 400 membros da indústria de entretenimento, incluindo nomes como Ben Stiller, Paul McCartney, Mark Ruffalo e Guilhermo del Toro, alertou o governo americano dos problemas que uma eventual mudança poderia trazer.
O documento lembra que isso não impactaria apenas os artistas, mas arquitetos, engenheiros, designers, cientistas e todos os profissionais que trabalham com computador e geram algum tipo de propriedade intelectual.
"Essas profissões são o centro como fazemos descobertas, aprendemos e compartilhamos conhecimento como sociedade e como nação".
A carta também ressalta que eles não estão pedindo a proibição do uso dos conteúdos protegidos, mas apenas o que já está previsto na lei: que negociem licenças apropriadas, assim como todas as outras indústrias fazem. E a mensagem não deixar escapar que quem está pedindo exceções são empresas gigantescas, como Google (avaliada em 2 trilhões de dólares) e OpenAI (avaliada em 175 bilhões de dólares).
Esse é um fato relevante quando discutimos sobre o uso de conteúdo para o treinamento de IA. Precisamos analisar quais são as diferentes finalidades e os atores envolvidos no processo. Queremos que a tecnologia avance, mas de uma maneira responsável e sem que atropele outras áreas.
É uma discussão que devemos fazer de forma mais ampla para que envolva questões de direitos autorais, certamente, mas incentive novos questionamentos filosóficos. Chegamos em um momento em que vamos precisar rediscutir novos conceitos sobre como entender e tratar o conhecimento gerado pela humanidade.
É certo que sem acesso aos dados a máquina não pode aprender, e isso limita o avanço tecnológico. Por outro lado, como equilibrar esse acesso com a justa remuneração e reconhecimento dos criadores originais?
Alguns pensadores defendem que o conhecimento acumulado e disponível poderia ser utilizado como um "bem comum". Eu gosto da ideia, mas pergunto se isso é coerente quando o conhecimento está sendo utilizado por empresas enormes para treinar modelos proprietários e fechados?
Se fosse algo focado em modelos abertos o argumento até poderia fazer sentido, como já acontece com algumas exceções para propósitos de pesquisas. O dilema está em como equalizar o avanço tecnológico com a valorização do trabalho criativo humano, ainda mais quando sabemos que é a humanidade que cria todo o combustível criativo das máquinas.
Discussão no Brasil avançou no Congresso
Enquanto a discussão está acalorada nos EUA, aqui no Brasil ela já avançou. O PL 2338/2023, que visa regular a IA no Brasil e foi aprovado no Senado no fim de 2024, obriga quem desenvolve IA a informar quais conteúdos protegidos por direitos autorais foram utilizados no treinamento do modelo e prevê uma possível remuneração aos seus proprietários.
Esse foi um item que gerou muito debate e resistência. Os desenvolvedores brasileiros dizem que isso vai atrasar ainda mais o Brasil na disputa pela IA. Embora seja um argumento similar ao da OpenAI, precisamos considerar que as startups brasileiras não têm o mesmo poder econômico das Bigtechs dos EUA.
O Projeto de Lei agora vai ser discutido na Câmara dos Deputados e muita coisa pode mudar - inclusive essa discussão sobre direitos autorais. Mas, por ora, o que sabemos é que a classe artística brasileira conseguiu convencer mais do que os artistas nos EUA.
A briga entre artistas e empresas de IA está rolando desde a popularização do ChatGPT. Foi quando a classe artística percebeu que suas criações estavam sendo usadas para treinar modelos de IA sem autorização que, em última análise, poderiam competir com eles próprios.
O embate agora ganha novos contornos com a narrativa de que o assunto de direitos autorais também é uma questão de segurança nacional. Pelo menos é o argumento que algumas empresas enviaram para a Casa Branca na semana passada.
A OpenAI apresentou o que denominou "uma estratégia de direitos autorais que promove a liberdade de aprender". No entanto, o conceito de aprendizado ao qual eles se referem não é aquele no sentido amplo que tradicionalmente conhecemos, mas sim um recorte específico voltado para o aprendizado da IA.
E o argumento vai ainda mais fundo ao dizer que essa é uma questão de segurança nacional em um cenário de competição global.
"O governo federal pode garantir aos americanos a liberdade de aprender com a IA e evitar ceder nossa liderança em inteligência artificial para a República Popular da China, preservando a capacidade dos modelos americanos de IA aprenderem com materiais protegidos por direitos autorais."
A posição que eles tentam vender ao governo americano é que quanto mais liberdade tiverem para usar conteúdos protegidos, mais rápido será o desenvolvimento de IAs melhores na competição acirrada com a China.
É claro que a resposta de Hollywood não demoraria.
Nesta semana, uma carta assinada por mais de 400 membros da indústria de entretenimento, incluindo nomes como Ben Stiller, Paul McCartney, Mark Ruffalo e Guilhermo del Toro, alertou o governo americano dos problemas que uma eventual mudança poderia trazer.
O documento lembra que isso não impactaria apenas os artistas, mas arquitetos, engenheiros, designers, cientistas e todos os profissionais que trabalham com computador e geram algum tipo de propriedade intelectual.
"Essas profissões são o centro como fazemos descobertas, aprendemos e compartilhamos conhecimento como sociedade e como nação".
A carta também ressalta que eles não estão pedindo a proibição do uso dos conteúdos protegidos, mas apenas o que já está previsto na lei: que negociem licenças apropriadas, assim como todas as outras indústrias fazem. E a mensagem não deixar escapar que quem está pedindo exceções são empresas gigantescas, como Google (avaliada em 2 trilhões de dólares) e OpenAI (avaliada em 175 bilhões de dólares).
Esse é um fato relevante quando discutimos sobre o uso de conteúdo para o treinamento de IA. Precisamos analisar quais são as diferentes finalidades e os atores envolvidos no processo. Queremos que a tecnologia avance, mas de uma maneira responsável e sem que atropele outras áreas.
É uma discussão que devemos fazer de forma mais ampla para que envolva questões de direitos autorais, certamente, mas incentive novos questionamentos filosóficos. Chegamos em um momento em que vamos precisar rediscutir novos conceitos sobre como entender e tratar o conhecimento gerado pela humanidade.
É certo que sem acesso aos dados a máquina não pode aprender, e isso limita o avanço tecnológico. Por outro lado, como equilibrar esse acesso com a justa remuneração e reconhecimento dos criadores originais?
Alguns pensadores defendem que o conhecimento acumulado e disponível poderia ser utilizado como um "bem comum". Eu gosto da ideia, mas pergunto se isso é coerente quando o conhecimento está sendo utilizado por empresas enormes para treinar modelos proprietários e fechados?
Se fosse algo focado em modelos abertos o argumento até poderia fazer sentido, como já acontece com algumas exceções para propósitos de pesquisas. O dilema está em como equalizar o avanço tecnológico com a valorização do trabalho criativo humano, ainda mais quando sabemos que é a humanidade que cria todo o combustível criativo das máquinas.
Enquanto a discussão está acalorada nos EUA, aqui no Brasil ela já avançou. O PL 2338/2023, que visa regular a IA no Brasil e foi aprovado no Senado no fim de 2024, obriga quem desenvolve IA a informar quais conteúdos protegidos por direitos autorais foram utilizados no treinamento do modelo e prevê uma possível remuneração aos seus proprietários.
Esse foi um item que gerou muito debate e resistência. Os desenvolvedores brasileiros dizem que isso vai atrasar ainda mais o Brasil na disputa pela IA. Embora seja um argumento similar ao da OpenAI, precisamos considerar que as startups brasileiras não têm o mesmo poder econômico das Bigtechs dos EUA.
O Projeto de Lei agora vai ser discutido na Câmara dos Deputados e muita coisa pode mudar - inclusive essa discussão sobre direitos autorais. Mas, por ora, o que sabemos é que a classe artística brasileira conseguiu convencer mais do que os artistas nos EUA.