Senado aprovou marco regulatório da IA: aqui estão os erros e os acertos
O Senado aprovou na noite desta quinta-feira (9) o PL que regulamenta o desenvolvimento e adoção da inteligência artificial no país.
Após anos de discussões, a proposta aprovada é similar à regulação da União Europeia ao propor uma abordagem baseada em riscos.
Esta é uma estratégia interessante porque desenha uma regulação assimétrica, o que quer dizer que nem todas as IAs terão o mesmo peso regulatório. Tudo vai depender do potencial risco de cada uma.
Há dois anos, quando comecei a participar como especialista convidado nas audiências públicas do Senado, meu principal objetivo era esclarecer que o termo "inteligência artificial" abrange uma ampla variedade de modelos, cada um com finalidades distintas.
Minha preocupação era que a regulação não conseguisse diferenciar adequadamente esses modelos e suas aplicações, resultando em uma proposta limitada ou ineficaz.
A partir de uma pergunta retórica, eu buscava explicar o desafio que tínhamos pela frente: o que um sistema de tradução, um jogo de videogame, um modelo de diagnóstico médico e o sistema que destrava o celular com sua face têm em comum?
Simplesmente o fato de chamá-los de IA, embora sejam modelos tecnicamente distintos, com propósitos variados e riscos específicos.
Com a abordagem baseada em risco, a proposta de regulação encaminha uma parte desse problema.
Antes de lançar um produto de IA no mercado, as empresas precisam de uma avaliação preliminar para determinar o grau de risco do seu sistema.
A lei veta o desenvolvimento e o uso dos sistemas de riscos excessivos, como os sistemas de armas autônomas e IAs que explorem a vulnerabilidade das pessoas para induzir comportamentos que causem dano à saúde.
Os sistemas de alto risco, por sua vez, demandam um nível maior de responsabilidade.
Alguns exemplos são os sistemas de IA que atuam em infraestruturas críticas, como rede de eletricidade e abastecimento de água, IAs que auxiliem na seleção de estudantes para ingresso em universidades, e os veículos autônomos.
Um aspecto favorável do texto é que a lei não se aplica para atividades de pesquisas e nem para fins exclusivamente pessoais.
O foco acaba sendo atividades econômicas, o que faz sentido para que possamos avançar o conhecimento científico no país ao mesmo tempo que criamos algumas salvaguardas para as aplicações comerciais.
Porém, um ponto do texto que trouxe uma disputa de poder está relacionado com os direitos autorais.
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberA lei define que os titulares de direitos de autor e conexos podem proibir o uso de seus conteúdos para o treinamento de IAs comerciais.
O texto ainda prevê a remuneração pelo uso de obras e avança em uma área cinzenta em que as empresas se posicionavam para usar conteúdos protegidos.
Agora, resta saber como tudo isso vai funcionar na prática.
Mesmo após a aprovação do texto no Senado, ainda não existe um consenso sobre a necessidade de uma regulação da IA neste momento.
Alguns especialistas defendem que a regulação imediata irá dificultar o desenvolvimento da tecnologia, enquanto outros argumentam que regular a IA quando estiver mais difundida será muito difícil.
A situação atual me lembra do "Dilema de Collingridge". Descrito no livro "The Social Control of Technology", o autor trata dessas dificuldades de se propor aspectos regulatórios para tecnologias emergentes.
Se tentarmos regular logo no início, corremos o risco de sufocar o desenvolvimento tecnológico com regras inadequadas, criadas antes de compreendermos todo o potencial da tecnologia.
Por outro lado, se demorarmos demais, a tecnologia se entranha profundamente na sociedade, enquanto seus proprietários se tornam ainda mais fortalecidos política e economicamente.
A história recente nos ensina sobre esse dilema.
Deixamos as plataformas de redes sociais correrem soltas porque não entendíamos os seus efeitos na sociedade. No entanto, agora que temos evidências dos problemas, ficou muito mais difícil propor qualquer tipo de regulação.
A inteligência artificial é uma tecnologia que tem potencial para trazer consequências - positivas e negativas - inimagináveis para a sociedade.
Ainda que seja uma área que avança rapidamente, propor uma regulação com foco nos direitos das pessoas passa a ser fundamental.
O texto aprovado no Senado ainda não é o ideal, vai precisar de ajustes, mas o Brasil se posiciona no cenário internacional com um país que está buscando encontrar o 'controle social da tecnologia'.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.