No dia 22 do último mês, a Justiça paulistana determinou que o Metrô de São Paulo ficasse impedido de executar o sistema de reconhecimento facial que vem implantando em suas instalações. A decisão foi divulgada após o ajuizamento de ação civil pela Defensoria Pública do Estado de São Paulo, Defensoria Pública da União e diversas entidades da sociedade civil (Idec, CADHu, Intervozes e Artigo 19), na qual requerem que o Metrô seja impedido de captar os dados biométricos dos usuários e condenado a pagar indenização por danos morais coletivos em valor superior a 42 milhões de reais.
Os proponentes da ação apontam que a implementação de sistema de reconhecimento facial no transporte público atenta contra diversos direitos fundamentais dos usuários, além de ser incompatível com as regras postas pela LGPD para o tratamento de dados pessoais.
O Metrô, por sua vez, argumenta que é legítima a utilização da tecnologia para garantir a segurança dos usuários, levantando, ainda, a possibilidade de aplicação para a localização de crianças desaparecidas.
Ainda que esses argumentos possam, à primeira vista, fazer parecer que a implementação de câmeras de reconhecimento facial alinha-se à proteção das crianças e adolescentes, garantindo maior segurança e a eventual localização de desaparecidos, uma análise mais aprofundada da questão revela que as consequências da adesão a práticas vigilantistas e de monitoramento massivo da população atentam contra os princípios e direitos mais básicos, garantidos pela legislação brasileira e normas internacionais.
A proteção da infância, portanto, não pode ser articulada em prol da defesa dessas práticas - deve, na verdade, servir como argumento adicional para repeli-las. Para que fique evidente a razão disso, é importante mencionar o altíssimo potencial discriminatório das tecnologias de reconhecimento facial, sobretudo quando aplicadas à população negra ou pertencente a outras minorias étnico-raciais.
É amplamente documentado o fato de que o desenvolvimento dessas tecnologias é permeado por vieses inconscientes (generalizações baseadas em estereótipos) que afetam a sua acurácia quando aplicadas a rostos não brancos. Isso porque, de maneira geral, os fenótipos utilizados para treinar a inteligência artificial a identificar rostos são, justamente, os de homens caucasianos, aumentando enormemente as possibilidades de essas tecnologias identificarem erroneamente uma pessoa negra como um infrator, por exemplo.
Exemplos desse fenômeno, que vem sendo chamado de racismo algorítmico, não faltam. No ano passado, ganhou notoriedade o caso de uma adolescente negra norte-americana que foi impedida, por tecnologia de reconhecimento facial, de acessar uma pista de patinação, por supostamente ter brigado anteriormente no estabelecimento, no qual, na realidade, ela nunca havia entrado. De maneira ainda mais alarmante, diversas pessoas negras foram erroneamente presas nos EUA em razão de problemas com o reconhecimento facial.
As chances de a implementação dessas tecnologias no transporte público resultar em um agravamento das já intoleráveis discriminações e desigualdades raciais que assolam o Brasil são, portanto, imensas. Não é exagero nenhum cogitar, por exemplo, um aumento nas abordagens indevidas de adolescentes negros por atos infracionais que não cometeram - situações que, se hoje já são rotineiras no contexto brasileiro, certamente se tornariam ainda mais frequentes quando legitimadas por tecnologias equivocadamente tidas como neutras e de alta precisão.
Vale lembrar que a não-discriminação é um dos princípios estruturantes da Convenção sobre os Direitos da Criança, da qual o Brasil é signatário, além de constituir-se como um dos pilares de nossa Constituição Federal, que, além de elencar como um dos objetivos fundamentais da República "promover o bem de todos, sem preconceitos de origem, raça, sexo, cor, idade e quaisquer outras formas de discriminação" (art. 3º, IV), garante à criança, ao adolescente e ao jovem, em seu artigo 227, a proteção contra qualquer forma de discriminação e opressão - previsão que é ecoada pelo art. 3º, parágrafo único do ECA.
São esses mesmos instrumentos que garantem às crianças e adolescentes uma série de direitos absolutamente incompatíveis com o desenvolvimento de um modelo social pautado pelo monitoramento ubíquo da população. As liberdades de associação, expressão, desenvolvimento e locomoção são todas prerrogativas garantidas pelas normas de proteção à infância que, se não absolutamente tolhidas de imediato pela utilização de tecnologias de reconhecimento facial, certamente encontram menos espaço para serem exercidas plenamente em um Estado crescentemente marcado pelo vigilantismo.
Importante destacar também a privacidade e a proteção dos dados pessoais como direitos das crianças e adolescentes fortemente ameaçados pela instalação de sistemas de reconhecimento facial no transporte público. O vazamento ou o mau uso dos dados desses indivíduos pode gerar consequências nefastas a diversos de seus direitos, razão pela qual o manejo desses dados deve sempre ser pautado pelos mais altos padrões de proteção e segurança.
Ainda, a falta de transparência sobre o tratamento dos dados coletados gera preocupações quanto à possibilidade de que sejam utilizados para o atendimento de interesses comerciais, em afronta ao que determina a LGPD para o tratamento de dados pessoais de crianças e adolescentes.
Agravando ainda mais a situação, há estudos que indicam que a acurácia das tecnologias de reconhecimento facial é também reduzida em se tratando da correta identificação de crianças e adolescentes, pessoas cujos rostos ainda mudam com o tempo. Cai por terra, assim, o argumento de que essas tecnologias poderiam ser empregadas para a localização de crianças desaparecidas.
Por todas essas razões, o Comentário Geral n° 25 do Comitê dos Direitos da Criança da ONU (documento que detalha a forma como a Convenção sobre os Direitos da Criança deve ser interpretada e aplicada em relação ao ambiente digital), que teve versão comentada recentemente lançada por parceria entre o Instituto Alana e o Ministério Público de São Paulo, dispõe que "qualquer vigilância digital de crianças, associada a qualquer processamento automatizado de dados pessoais, deve respeitar o direito da criança à privacidade e não deve ser realizada rotineiramente, indiscriminadamente ou sem o conhecimento da criança ou, no caso de crianças muito novas, o de sua mãe, pai ou cuidador; nem deve ocorrer sem o direito de objeção a essa vigilância". Como fica evidente, a vigilância pretendida pelo Metrô é completamente incompatível com o que determina a ONU.
Em síntese, ainda que a implementação de câmeras de reconhecimento facial possa parecer tentadora da perspectiva da proteção da infância, essa conclusão não resiste a uma reflexão mais profunda sobre os seus reais impactos e consequências. As crianças e adolescentes têm direito a crescer em uma sociedade livre, igualitária e que confira absoluta prioridade a seus direitos e melhor interesse - e a presença de câmeras no transporte público, sem qualquer dúvida, caminha em sentido diametralmente oposto a esse.
* João Francisco de Aguiar Coelho é advogado do programa Criança e Consumo do Instituto Alana
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.