Topo

Pedro e Paulo Markun

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Só cai no robô do call center? EUA lança regras para nos defender contra IA

Proposta americana para o desenvolvimento de IA leva em conta opções em que seja necessária uma alternativa humana - kjpargeter/Freepik
Proposta americana para o desenvolvimento de IA leva em conta opções em que seja necessária uma alternativa humana Imagem: kjpargeter/Freepik

Pedro e Paulo Markun

Colunistas do UOL

12/10/2022 04h00

Receba os novos posts desta coluna no seu e-mail

Email inválido

O tema pode parecer distante, mas não é. Mexe com a nossa vida. Na última semana, o governo americano publicou o "AI Bill of Rights". O documento busca demarcar os direitos dos seres humanos no desenvolvimento da inteligência artificial. O gesto é ainda mais significativo por ser de um dos países que mais investem nessa área: só em 2021 foram mais de US$ 52 bilhões em financiamento privado no setor.

Embora o "AI Bill of Rights" seja um bom ponto de partida, a principal crítica é que o documento não é, de fato, uma lei mas apenas um guia para o desenvolvimento de políticas públicas sobre IA e, portanto, não regulamenta de fato a matéria, nem cria estruturas concretas para sua fiscalização e controle.

Seus cinco eixos principais colocam o cidadão no centro.

Fizemos aqui um resumo da proposta (usando inteligência artificial para auxiliar na redação, claro!)

1. Sistemas seguros e efetivos

Você deve estar protegido de sistemas automatizados inseguros ou inefetivos.

O desenvolvimento de sistemas automatizados deve se apoiar na consulta às diversas comunidades, para identificar preocupações, riscos e potenciais impactos.

Deve passar por testes de segurança e eficácia antes do seu uso e ser monitorados, para garantir sua segurança.

Você deve estar protegido contra o uso inadequado ou irrelevante de dados nos sistemas automatizados.

2. Proteções contra a discriminação algorítmica

Você não deve ser discriminado por algoritmos ou sistemas automatizados. Isso inclui medidas que evitem a discriminação com base em características como raça, sexo, religião, idade e deficiência, entre outras.

Será exigido que os desenvolvedores de sistemas tomem medidas para garantir que seus sistemas sejam acessíveis para todos e sejam projetados de forma a evitar qualquer discriminação.

3. Privacidade de dados

Você deve estar protegido de abusos de coleta de dados, e deve ter controle sobre como esses dados são usados.

Você também deve estar protegido de violações de privacidade e os sistemas automatizados devem respeitar as decisões que você toma sobre como esses dados serão usados.

4. Notificação e explicação

Você deve ser notificado e receber explicações claras sobre como e por que os resultados que te afetam foram determinados pelo sistema.

Os sistemas automatizados devem fornecer explicações técnicas válidas, significativas e úteis para você e devem ser calibrados de acordo com o nível de risco baseado no contexto.

5. Alternativas humanas e plano de contingência

Você deve ter acesso a uma alternativa humana para sistemas automatizados, sempre que apropriado.

A adequação deve ser determinada com base em expectativas razoáveis em um determinado contexto e com foco em garantir um amplo acesso, de modo a proteger o público de impactos especialmente prejudiciais.

Em alguns casos, uma alternativa humana ou outra pode ser exigida por lei.

—-

Alguns desses princípios, como o da privacidade de dados e o controle sobre a discriminação algorítmica já estão no radar faz algum tempo e já há inclusive algum arcabouço legal (tanto lá quanto aqui) para lidar com isso.

Outros pontos, como a eventual necessidade de uma "alternativa humana" que possa te atender sempre que apropriado, viria a calhar por aqui.

Se você acha que esse é um debate que pertence ainda a um futuro distante, os colunistas propõem um desafio muito simples: ligue para um grande serviço de call center e veja quanto tempo você leva (se é que consegue) até falar com um atendente humano!

Se por um lado, é importante garantir que essa tecnologia seja desenvolvida e aplicada de forma ética e responsável, para mitigar os diversos riscos associados a essa tecnologia, como o aumento da desigualdade social e a ameaça à privacidade e segurança das pessoas, por outro uma regulamentação mal feita pode ser um entrave para o desenvolvimento, criando obstáculos para o investimento em pesquisas e o desenvolvimento de novas tecnologias, além de um ambiente de incerteza jurídica e burocrática que dificulta a aplicação da IA.

A regulamentação pública da IA é uma questão complexa e polêmica e os Estados Unidos não são o único país a enfrentar essa questão.

No Brasil, a discussão sobre a regulamentação da IA ainda está em seus primeiros passos. É de 2020 a proposta do PL 21/2020 de autoria do deputado Eduardo Bismarck (PDT-CE), que pretende estabelecer um marco legal do desenvolvimento e uso da inteligência artificial.

O projeto avançou no Congresso e o relatório da deputada Luisa Canziani (PTB-PR) foi aprovado em setembro de 2021. O documento agora segue para o Senado Federal.

A leitura de especialistas no campo é de que o processo ainda precisa amadurecer e que é preciso abrir mais espaços de escuta e colaboração para que o projeto fique mais robusto e adequado aos desafios que se propõe.

A União Europeia está um pouco mais avançada nesse debate e segue em um processo de finalização do "EU AI Act" —um grande projeto guarda-chuva que cria essencialmente três categorias de "riscos" com medidas protetivas diferentes para cada um deles:

Risco inaceitável

São situações onde o uso de inteligência artificial será proibido. Um exemplo clássico é o 'score social' onde os cidadãos recebem uma nota, a partir de análises automatizadas e que ficou famoso em um episódio da série distópica Black Mirror.

Alto risco

Aplicações que ofereçam algum risco social ou individual, como, por exemplo, processos de recrutamento ou medicina. Aqui, a proposta é tanto de regras de compliance, auditoria e fiscalização, quanto exigências de transparência e informação do usuário.

Risco mínimo

Para boa parte das aplicações mundanas de inteligência artificial, a classificação deve ser "risco mínimo", onde o framework propõe permissão irrestrita, mas oferece algumas guias de conduta e comportamento para que o usuário esteja sempre informado.

Aqui, nesta coluna, seguiremos acompanhando o desenvolvimento das tecnologias e das políticas que surgem em decorrência desses novos desafios.

Afinal, o preço da liberdade é a eterna vigilância, para usar uma expressão que muitos atribuem a Thomas Jefferson, mas que na verdade, foi mencionada pela primeira vez por John Philpot Curran, em 1790.