'Me urinei de medo ao ser levada no camburão da PM por erro de IA'
Acompanhada de duas amigas, a auxiliar administrativa sergipana Thaís Santos, de 31 anos, estava animada para o Pré-Caju, tradicional micareta de Aracaju. Mas a diversão virou um pesadelo.
Um erro da IA (Inteligência Artificial) usada no reconhecimento facial das câmeras do evento fez a jovem ser confundida duas vezes com uma foragida da Justiça. Durante uma das duas abordagens, ela chegou a urinar.
Thaís diz que, meia hora após chegar à micareta, três agentes à paisana da PM a abordaram. Perguntaram o nome dela e pediram o documento. Como ela estava sem o RG, o constrangimento iniciou.
Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida
Thaís Santos, auxiliar administrativa
Após a confirmação de quem era a criminosa procurada, ela foi liberada. Não sem antes ver a foto da mulher. "Ela não se parecia comigo".
Duas horas depois, enquanto curtia o trio da cantora Ivete Sangalo, quatro policiais militares a abordaram novamente. Dessa vez, de forma violenta e com brutalidade. Exigiram que ela colocasse as mãos para trás para ser algemada.
Eu já estava chorando e nervosa, informando que eu não tinha feito nada. Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças. Fui conduzida para o camburão da polícia como uma marginal, como todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando. Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida
Thaís Santos, auxiliar administrativa
Depois da última abordagem equivocada, Santos foi para casa angustiada e com medo.
Vítima de erro vê racismo em abordagem com IA
Thaís conta que nunca parou para pesquisar sobre a tecnologia que a fez passar pelo constrangimento na festa, mas considera que o erro tenha um viés de racismo.
"Fui discriminada publicamente por ser pobre e preta", diz ela.
Governo admite erro e diz que revisará uso de IA
Questionada por Tilt, a SSP (Secretaria de Segurança Pública) de Sergipe admitiu o erro.
Afirmou que "houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto".
A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa
SSP de Sergipe
A Corregedoria da Polícia Militar instaurou procedimento para averiguar a ocorrência. A PM informou que "irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial".
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberNo Pré-Caju, de acordo com a SSP, 27 câmeras atuavam com reconhecimento facial. Elas auxiliaram, diz a PM, na prisão de três pessoas foragidas por homicídio e estelionato.
Reconhecimento facial por IA pode ser racista?
Como outras com reconhecimento facial, as câmeras usadas pela SSP de Sergipe possuem IA, que comparam traços dos rostos filmados àqueles presentes em bancos de dados.
Ferramentas do tipo enfrentam a resistência de pesquisadores, que veem inconsistências contra a população negra e pessoas trans.
Para o pesquisador Tarcízio Silva, que estuda o tema há seis anos, a ferramenta usada no Pré-Caju é perigosa, pois "tecnologias de reconhecimento facial são altamente imprecisas para encontrar pessoas específicas".
O sociólogo Sérgio Amadeu da Silveira, da UFABC (Universidade Federal do ABC), concorda. Ele comenta que o reconhecimento facial tem sido usado na segurança pública para classificar "classes perigosas, setores marginalizados".
"Nas periferias, esse sistema vai confirmar preconceitos e vieses já existentes, vai ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros", completa.
Isso acontece pela falta de neutralidade dos algoritmos, que acabam reproduzindo a discriminação social. "Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento", pontua Amadeu.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.