Esse debate já está avançando na Europa. Em janeiro de 2017, o Parlamento Europeu publicou um relatório com recomendações sobre direito civil na robótica. No relatório, os deputados pediram à Comissão Europeia a adoção de uma lei para "esclarecer" as questões de responsabilidade jurídica nessa área, com um código de conduta ética sobre robótica com a intenção de proteger a dignidade humana.
Uma das considerações do relatório dizia que desde "Frankenstein", de Mary Shelley, ao mito clássico do Pigmaleão, passando pela história do Golem de Praga ao termo "robô" criado pelo escrito checo Karel Capek em 1920, "as pessoas têm fantasiado acerca da possibilidade de construir máquinas inteligentes, frequentemente androides com características humanas".
Também são citadas no texto as chamadas Leis de Asimov, famosa contribuição do escrito russo Isaac Asimov:
- "Um robô não pode magoar um ser humano ou, por inação, permitir que tal aconteça";
- "Um robô tem de obedecer às ordens dos seres humanos, exceto quando tais ordens entrarem em conflito com a primeira lei";
- "Um robô tem de proteger a sua própria existência desde que tal proteção não entre em conflito com a primeira ou com a segunda lei".
Segundo Bruno Farage, mestre pela Uerj (Universidade do Estado do Rio de Janeiro) e estudioso da relação entre regulamentação jurídica e inteligência artificial, essa resolução da Europa aponta o crescente uso de máquinas inteligentes no setor de cuidados médicos, nos trabalhos de salvamento e em atividades de condições perigosas, como limpeza de locais tóxicos.
"A resolução já indicava, há três anos, que apesar de o contato humano ser um dos aspectos fundamentais no cuidado humanizado, os robôs poderiam realizar tarefas automatizadas de prestação de cuidados e facilitar o trabalho dos assistentes. Isso torna o processo de reabilitação mais focalizado. Não seria diferente do cenário atual, no qual nos encontramos, de repente, inseridos em uma pandemia imprevista", analisa.
Segundo Farage, o assunto tem avançado desde a resolução do Parlamento Europeu. Em maio de 2019, em Paris, um debate na OCDE (Organização para a Cooperação e Desenvolvimento Econômico) definiu uma série de princípios do uso da inteligência artificial. Eles foram criados para servirem de parâmetro para respeitar os direitos humanos e os valores democráticos. Além de 37 países-membros da OCDE, outros não-membros como Brasil, Argentina e Romênia, devem seguir o que está no documento.
Algumas dos princípios da OCDE para a IA são beneficiar o desenvolvimento sustentável e o bem-estar; respeitar o estado de direito, os direitos humanos, os valores democráticos e a diversidade; e transparência em torno dos sistemas de IA para que as pessoas entendam seus resultados.
Por outro lado, alguns robôs com IA já provocam rusgas éticas, como no caso da robô Sophia. Ela ganhou o título de cidadã na Arábia Saudita, país com uma legislação retrógrada e arcaica em relação aos direitos das mulheres. Por lá, existe a figura do guardião civil, um homem que dá a uma mulher a permissão para realizar certas atividades. Essas proibições foram afrouxadas nos últimos anos, mas até pouco tempo elas não podiam dirigir ou viajar sem o consentimento do guardião.
Para Kimura, o mundo jurídico tenta acompanhar o tema como uma tartaruga tentando seguir um avião supersônico. "O engenheiro e o cientista da computação querem fazer a coisa funcionar, independentemente se é legal ou não. Vamos ter que criar em pouco tempo uma estrutura jurídica para acomodar esse novo ser", defende.