Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
Só cai no robô do call center? EUA lança regras para nos defender contra IA
Receba os novos posts desta coluna no seu e-mail
O tema pode parecer distante, mas não é. Mexe com a nossa vida. Na última semana, o governo americano publicou o "AI Bill of Rights". O documento busca demarcar os direitos dos seres humanos no desenvolvimento da inteligência artificial. O gesto é ainda mais significativo por ser de um dos países que mais investem nessa área: só em 2021 foram mais de US$ 52 bilhões em financiamento privado no setor.
Embora o "AI Bill of Rights" seja um bom ponto de partida, a principal crítica é que o documento não é, de fato, uma lei mas apenas um guia para o desenvolvimento de políticas públicas sobre IA e, portanto, não regulamenta de fato a matéria, nem cria estruturas concretas para sua fiscalização e controle.
Seus cinco eixos principais colocam o cidadão no centro.
Fizemos aqui um resumo da proposta (usando inteligência artificial para auxiliar na redação, claro!)
1. Sistemas seguros e efetivos
Você deve estar protegido de sistemas automatizados inseguros ou inefetivos.
O desenvolvimento de sistemas automatizados deve se apoiar na consulta às diversas comunidades, para identificar preocupações, riscos e potenciais impactos.
Deve passar por testes de segurança e eficácia antes do seu uso e ser monitorados, para garantir sua segurança.
Você deve estar protegido contra o uso inadequado ou irrelevante de dados nos sistemas automatizados.
2. Proteções contra a discriminação algorítmica
Você não deve ser discriminado por algoritmos ou sistemas automatizados. Isso inclui medidas que evitem a discriminação com base em características como raça, sexo, religião, idade e deficiência, entre outras.
Será exigido que os desenvolvedores de sistemas tomem medidas para garantir que seus sistemas sejam acessíveis para todos e sejam projetados de forma a evitar qualquer discriminação.
3. Privacidade de dados
Você deve estar protegido de abusos de coleta de dados, e deve ter controle sobre como esses dados são usados.
Você também deve estar protegido de violações de privacidade e os sistemas automatizados devem respeitar as decisões que você toma sobre como esses dados serão usados.
4. Notificação e explicação
Você deve ser notificado e receber explicações claras sobre como e por que os resultados que te afetam foram determinados pelo sistema.
Os sistemas automatizados devem fornecer explicações técnicas válidas, significativas e úteis para você e devem ser calibrados de acordo com o nível de risco baseado no contexto.
5. Alternativas humanas e plano de contingência
Você deve ter acesso a uma alternativa humana para sistemas automatizados, sempre que apropriado.
A adequação deve ser determinada com base em expectativas razoáveis em um determinado contexto e com foco em garantir um amplo acesso, de modo a proteger o público de impactos especialmente prejudiciais.
Em alguns casos, uma alternativa humana ou outra pode ser exigida por lei.
—-
Alguns desses princípios, como o da privacidade de dados e o controle sobre a discriminação algorítmica já estão no radar faz algum tempo e já há inclusive algum arcabouço legal (tanto lá quanto aqui) para lidar com isso.
Outros pontos, como a eventual necessidade de uma "alternativa humana" que possa te atender sempre que apropriado, viria a calhar por aqui.
Se você acha que esse é um debate que pertence ainda a um futuro distante, os colunistas propõem um desafio muito simples: ligue para um grande serviço de call center e veja quanto tempo você leva (se é que consegue) até falar com um atendente humano!
Se por um lado, é importante garantir que essa tecnologia seja desenvolvida e aplicada de forma ética e responsável, para mitigar os diversos riscos associados a essa tecnologia, como o aumento da desigualdade social e a ameaça à privacidade e segurança das pessoas, por outro uma regulamentação mal feita pode ser um entrave para o desenvolvimento, criando obstáculos para o investimento em pesquisas e o desenvolvimento de novas tecnologias, além de um ambiente de incerteza jurídica e burocrática que dificulta a aplicação da IA.
A regulamentação pública da IA é uma questão complexa e polêmica e os Estados Unidos não são o único país a enfrentar essa questão.
No Brasil, a discussão sobre a regulamentação da IA ainda está em seus primeiros passos. É de 2020 a proposta do PL 21/2020 de autoria do deputado Eduardo Bismarck (PDT-CE), que pretende estabelecer um marco legal do desenvolvimento e uso da inteligência artificial.
O projeto avançou no Congresso e o relatório da deputada Luisa Canziani (PTB-PR) foi aprovado em setembro de 2021. O documento agora segue para o Senado Federal.
A leitura de especialistas no campo é de que o processo ainda precisa amadurecer e que é preciso abrir mais espaços de escuta e colaboração para que o projeto fique mais robusto e adequado aos desafios que se propõe.
A União Europeia está um pouco mais avançada nesse debate e segue em um processo de finalização do "EU AI Act" —um grande projeto guarda-chuva que cria essencialmente três categorias de "riscos" com medidas protetivas diferentes para cada um deles:
Risco inaceitável
São situações onde o uso de inteligência artificial será proibido. Um exemplo clássico é o 'score social' onde os cidadãos recebem uma nota, a partir de análises automatizadas e que ficou famoso em um episódio da série distópica Black Mirror.
Alto risco
Aplicações que ofereçam algum risco social ou individual, como, por exemplo, processos de recrutamento ou medicina. Aqui, a proposta é tanto de regras de compliance, auditoria e fiscalização, quanto exigências de transparência e informação do usuário.
Risco mínimo
Para boa parte das aplicações mundanas de inteligência artificial, a classificação deve ser "risco mínimo", onde o framework propõe permissão irrestrita, mas oferece algumas guias de conduta e comportamento para que o usuário esteja sempre informado.
Aqui, nesta coluna, seguiremos acompanhando o desenvolvimento das tecnologias e das políticas que surgem em decorrência desses novos desafios.
Afinal, o preço da liberdade é a eterna vigilância, para usar uma expressão que muitos atribuem a Thomas Jefferson, mas que na verdade, foi mencionada pela primeira vez por John Philpot Curran, em 1790.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.