Criadoras de IA preferem multa a cumprir regra, diz conselheira de Biden
A portuguesa Daniela Braga trabalhou durante anos nas chamadas Big Tech até que fundou a Defined.ai, empresa que cria sistemas de inteligência artificial, mas possui um olhar ético sobre os humanos que treinam as máquinas. Por isso, é desde 2021 uma das 12 pessoas que aconselham o presidente norte-americano Joe Biden sobre inteligência artificial — uma das duas de fora do país; a outra é a chinesa Fei-Fei Li.
Diante de União Europeia e Brasil terem tomado a dianteira na corrida para regular o desenvolvimento de IA, ela é taxativa: isso pode ser problemático, dado que as principais iniciativas da tecnologia estão nos Estados Unidos e na China. "A Europa quer regular, sem desenvolver", diz.
Tilt mostrou em reportagem especial como é a vida dura de microtrabalhadores brasileiros.
Enquanto isso, estão em discussão projetos de lei brasileiro e europeu que discutem regras que proíbam sistemas de vigilância em massa ou que confira pontuação aos cidadão com base em seu comportamento social.
Se a regulação não sai de quem desenvolve, a Europa, o Brasil e o resto do mundo vão ter que se sujeitar a comprar o que já existe. As empresas por trás das inteligências artificiais estão construindo monopólios e são tão poderosas, que preferem pagar multas a cumprir regras propostas em uma regulação Daniela Braga, consultora para IA da Casa Branca
A empresa de Daniela é um marketplace para treinamento de inteligência artificial, ou seja, intermedeia o contato entre microtrabalhadores e companhias que querem treinar suas IAs.
O diferencial para as concorrentes é que ela oferece tarefas flexíveis, que pagam mais. Essa abordagem fez Daniela se tornar referência no ramo, a ponto de ser alçada ao conselho de Biden. Em conversa com Tilt, ela disse que a maior preocupação do governo dos EUA é a "democratização do desenvolvimento da IA", que o governo norte-americano se encaminha para regular a tecnologia e que ferramentas inteligentes podem aumentar a produtividade das pessoas — ainda que isso queira dizer acabar com postos de trabalho.
Tilt: A União Europeia tem planos de regular a inteligência artificial, e o Brasil tem um projeto parecido. Qual sua opinião sobre essas iniciativas?
Daniela Braga: Para mim, o problema é que a Europa quer regular sem desenvolver. A Europa só tem ação no espaço europeu, assim como o Brasil com seu território. Essas regras não chegam nos EUA nem na China, que são os países que mais desenvolvem inteligência artificial.
Se a regulação não sai de quem desenvolve, a Europa, o Brasil e o resto do mundo vão ter que se sujeitar a comprar o que já existe. As empresas por trás das inteligências artificiais estão construindo monopólios e são tão poderosas, que preferem pagar multas a cumprir regras propostas em uma regulação.
Vemos o Google fazer isso na Europa. A empresa já foi multada várias vezes, mas o continente aceita, pois precisa do Google Cloud [serviço de nuvem do Google] e de outros serviços. Não há alternativa.
Finamente, tenho ouvido iniciativas na Europa, de que investirá 1 bilhão de euros [cerca de R$ 5 bi, ou US$ 1,8 bi]. Não é nada perto dos US$ 93,5 bi de investimento privado nos EUA.
A ideia de regulação é boa, mas regular sem desenvolver e sem uma estratégia regional não é bom.
Tilt: A Europa liderou na proteção de dados com a GDPR [lei de privacidade de dados], influenciando vários países do mundo, inclusive o Brasil com a LGPD (Lei Geral de Proteção de Dados). Com a IA, a Europa não terá a mesma importância?
DB: Não. A questão da GDPR na Europa fazia sentido. É um direito do cidadão à sua privacidade. E foi uma maneira de fazer um ponto em relação às empresas americanas, que estavam "roubando" dados dos europeus. Neste caso, as regras europeias chegaram aos EUA em diferentes estados.
No caso da IA, acho que tem menos força. A proposta europeia fala, por exemplo, que "há setores em que não se pode ter inteligência artificial, não podemos nem desenvolver". O resto do mundo, porém, continuará a fazê-lo. Sempre há alguém que compra o serviço.
Podem não usar os dados de europeus, o que já é um bom avanço, mas as aplicações mais cedo ou mais tarde vão chegar a todo lado, pois a Europa não desenvolve, não tem alternativas.
Tilt: Qual a principal preocupação desse conselho de especialistas do governo Biden para inteligência artificial?
DB: Existe um abismo enorme entre o investimento público e o privado nos EUA, agravando o desenvolvimento de pequenas empresas e universidades do interior do país.
Empresas dos EUA investiram ano passado US$ 93,5 bilhões em inteligência artificial, quase o dobro do ano anterior, de US$ 52 bilhões. A questão é que esse investimento foi feito ainda por menos empresas de um ano para outro. Tinha 1.054 e passou a 746
Monopólios controlam a inteligência artificial, e o governo dos EUA queria recomendações de como agir. Isso fez com que fossem liberados US$ 2,6 bilhões — o que não é muito — para permitir que grupos de pesquisa pequenos, sejam públicos ou privados, conseguissem de alguma forma construir inteligência artificial.
Neste momento, o investimento para entrada neste ramo é tão alto que as pessoas desistem. Por essa razão, há poucas iniciativas grandes fora dos EUA e da China. São necessários muitos recursos computacionais.
Há ainda a "drenagem de talento". Grandes empresas tiram profissionais de pesquisa para deixá-los na "gaveta". E é cada vez mais comum empresas em estágio inicial serem compradas por gigantes, para não haver hipótese de quebra de monopólio.
Tilt: A maioria desses microtrabalhos destinados a treinar IA são tarefas repetitivas, sem muita criatividade. Você acha que vale a pena arcar com esse custo humano para a gente ter inteligência artificial?
DB: As tarefas de treino são repetitivas se forem de anotação [descrição], mas há outros trabalhos, como os de coleção, que são verdadeiramente criação de conteúdo.
Fala-se muito hoje em dia em IA generativa [que cria conteúdo]. Ela faz conteúdo sintético. No entanto, ela só executa, pois houve antes um conteúdo natural, feito por humanos. E isso é uma ação da criatividade das pessoas.
Na parte visual, fazemos muitas coleções de imagens e vídeos. Na parte de voz, tem que anotar os fenômenos de hesitação, características acústicas da linguagem, a mudança do locutor. Isso tudo é criação de conteúdo.
Dito isto, até 2010 os programas eram feitos por regras, portanto, programação. Com o machine learning [aprendizado de máquina], vamos fornecendo exemplos para a máquina aprender. Isso está presente em vários dos serviços que temos atualmente.
Tilt: Observar as condições de trabalho das pessoas envolvidas nesse processo de microtrabalho também faz parte da discussão sobre ética na inteligência artificial?
DB: Fala-se muito pouco. É comum ter empresas de países desenvolvidos buscando pessoas em países em desenvolvimento, porque sai barato.
O problema é que não são mais baratos, é que não tem nenhum tipo de regulação. Existe uma pressão por esmagamento financeiro, inclusive com trabalho ao longo do dia inteiro em áreas sensíveis, como moderação. Estou falando de áreas que podem deixar sequelas emocionais, como abuso infantil, violência, assassinato, etc.
Ninguém regula isso. Sabemos que os preços são ridículos, menos de US$ 1 [cerca de R$ 5] a hora. Contratamos essas pessoas, e elas só nos comunicam "off the record" as práticas.
Tilt: A IA tem potencial de substituir humanos em algumas tarefas ou isso é uma conversa catastrófica?
DB: Tem esse potencial absolutamente. Vai substituir, mas não reduzir o trabalho. Ao contrário: isso vai aumentar a produtividade.
Não é uma questão de corte. Não é que as funções vão desaparecer. Vai ser possível com menos pessoas fazer mais, pois temos a inteligência artificial para ajudar, produzindo conteúdo e ajudando a responder mais rápido.
Em tarefas repetitivas, como atendimento ao cliente, 80% das perguntas são frequentes. Em vez de ter uma pessoa respondendo, uma IA pode resolver muitas coisas.
Para casos complexos, as pessoas vão estar sempre lá. Essas situações, inclusive, são mais interessantes até do ponto de vista de satisfação do trabalhador.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.