Topo

Ela apanhou e sistema policial a enviou pra casa; depois, marido a matou

Ruam Oliveira

Colaboração para Tilt, de São Paulo

10/08/2024 05h30Atualizada em 10/08/2024 15h44

Após ter sido espancada pelo marido, Lobna Hemid recorreu à polícia. Ela foi mandada para casa após a situação ser avaliada pelo algoritmo do governo espanhol que verifica a gravidade de casos de violência doméstica. Algumas semanas depois, o homem assassinou a mulher.

No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes apresentam casos de confiança cega na tecnologia que fazem pensar sobre o uso acrítico da inteligência artificial para lidar com crimes, casos de violência ou abordagens policiais.

Isso traz uma questão que a gente precisa discutir como sociedade, que é essa confiança cega que a humanidade passa a ter na inteligência artificial. Começamos a ter uma dificuldade maior em saber em que momento acaba uma decisão humana e começa uma decisão com as máquinas e vice-versa
Diogo Cortiz

Relacionadas

Estão acontecendo coisas que mostraram que passamos dos limites muitas vezes nessa confiança
Helton Simões Gomes

No caso da Espanha, o aplicativo é o VioGén. A partir da resposta a 35 perguntas - com alternativas de "sim" ou "não" - o app concluiu se o risco de uma nova agressão doméstica é alto ou baixo. Hemid foi encaminhada de volta para casa e seu marido solto no dia seguinte, ainda que a agressão tenha usado um pedaço de madeira e feita na frente dos quatro filhos do casal, que possuem idades entre 6 e 12 anos.

Para Helton, o caso ressalta a importância de olhar para os sistemas de inteligência artificial apenas ferramentas e não como os tomadores de decisão.

Casos brasileiros recentes mostram os efeitos negativos do uso pouco crítico e automático da inteligência artificial. Um deles foi o episódio com o personal trainer João Antônio Trindade Bastos, de 23 anos. Enquanto acompanhava a final do Campeonato Sergipano de Futebol de 2024, ele foi algemado e conduzido no meio de milhares de pessoas pela polícia. A prova? O sistema de reconhecimento facial o apontou como um criminoso foragido. João só foi liberado após mostrar a carteira de identidade.

O governo suspendeu o uso do programa. No ano passado, durante uma micareta também em Sergipe, Thaís Santos foi abordada duas vezes no mesmo dia pela polícia. Também confundida pelo reconhecimento facial. Relembre a história aqui.

São três casos que mostram que funcionários públicos acreditaram tanto na tecnologia que colocaram a integridade física, a honra e a saúde mental das pessoas em risco
Helton Simões Gomes

Diogo também lembrou que esse é um fenômeno global, que está acontecendo em diferentes partes do mundo.

Além de ser muito sensível, isso não afeta toda a população de forma igual. A taxa de erros de reconhecimentos faciais é muito maior com a população negra
Diogo Cortiz

Helton pontua que, nesses casos, o problema do resultado falho está na forma como os sistemas são treinados, pois usam dados enviesados.

Outra questão que não dá para ignorar é que esses dados usados por IA são produzidos por uma sociedade que não é neutra, que é baseada em uma série de desigualdades e que, se submetermos essas informações para as máquinas, elas vão aprender a replicar comportamentos enviesados
Helton Simões Gomes

Por que a Meta dá de graça IA que não custou barato e é vendida por rivais?

A Meta, dona de Facebook, Instagram e WhatsApp, está liberando sem cobrar o uso do seu modelo de inteligência artificial, que é tão poderoso quanto o sistema por trás do ChatGPT.

Como, quando a esmola é muita, o santo desconfia, logo surge a pergunta: por que uma das empresas mais poderosas do mundo está dando de graça um serviço pelo qual os concorrentes dela cobram —e caro?

No episódio desta semana de Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Helton Simões Gomes e Diogo Cortiz discutem por que a empresa de Mark Zuckerberg investiu bilhões no treinamento e desenvolvimento de uma ferramenta para torná-la aberta e gratuita.

Novo apagão cibernético global está mais perto do que você imagina

O dia 19 de julho de 2024 vai entrar para a história da tecnologia como um dia de caos. Empresas que usam Windows, da Microsoft, viram a "tela azul da morte" como um prenúncio catastrófico.

No episódio desta de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Helton Simões Gomes e Diogo Cortiz explicam por que o apagão cibernético que se abateu sobre o mundo pode até ter passado, mas está muito próximo de se repetir muito em breve.

As razões que estão por trás desse último caos global não foram resolvidas e não serão porque são sistêmicas. Não são problemas, mas sim condições do modelo que a gente vive hoje em dia
Helton Simões Gomes

DEU TILT

Toda semana, Diogo Cortiz e Helton Simões Gomes conversam sobre as tecnologias que movimentam os humanos por trás das máquinas. O programa é publicado às terças-feiras no YouTube do UOL e nas plataformas de áudio. Assista ao episódio da semana completo.

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

Ela apanhou e sistema policial a enviou pra casa; depois, marido a matou - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade


Deu Tilt