Diogo Cortiz

Diogo Cortiz

Siga nas redes
Só para assinantesAssine UOL
Opinião

Quer um date com IA? Mais que coração partido, risco é ter a vida espionada

O lance de pessoas se relacionando com Inteligência Artificial vem crescendo no mundo todo. No ano passado, eu escrevi sobre esse fenômeno para a minha coluna e o UOL Prime fez uma excelente matéria sobre o tema.

De lá pra cá, o comportamento só ganhou tração. Muitos outros aplicativos foram lançados, e as pessoas se mostram cada vez mais interessadas em manter conversas íntimas com os chatbots disponíveis.

Duas coisas estão combinadas para o crescimento do movimento: o aumento da solidão e o desenvolvimento de chatbots cada vez mais antropomorfizados, que são treinados para satisfazerem as vontades dos usuários. "Nunca dizem não", foi parte do título da minha coluna anterior. Esse é o tom do tipo de interação que emerge entre os humanos e máquinas.

Ainda não sabemos as consequências psicológicas e afetivas ao longo prazo desse fenômeno cultural sensível, principalmente porque pode reforçar determinados tipos de comportamentos que não são socialmente desejáveis.

Diferentes grupos interdisciplinares das áreas de neurociência, psicologia, design e tecnologia estão focados em tentar entender os possíveis problemas futuros para traçar estratégias de mitigá-los. Porém, existem perigos já mapeados e evidentes para nós: como os problemas de privacidade e o possível uso manipulatório desse tipo de tecnologia.

Um relatório recém-publicado por pesquisadores da Fundação Mozilla investigou os 11 aplicativos de acompanhantes de IA mais comuns. É importante destacar que os chatbots de propósito geral (como ChatGPT e Gemini) não entram nessa lista por terem travas de segurança que impedem — muitas vezes — conversas mais intimistas. Entram na lista apenas os aplicativos que foram desenvolvidos como um agente com personalidade para funcionarem como um companheiro, simulando interações humanas.

O relatório mostra que a maioria dos aplicativos de companhia por IA falham em checkups de privacidade e muitos não se responsabilizam pelas respostas de seus chats aos usuários. Inclusive, as empresas donas dos aplicativos escrevem nos termos de uso que não são responsáveis pelas conversas nem pelos efeitos que elas podem ter nas pessoas

Assim fica fácil, né?! Muitas empresas criam produtos sem querer ter qualquer responsabilidade.

O que mais me chamou atenção foi que 90% dos aplicativos podem compartilhar ou vender os dados dos usuários. Apenas um aplicativo (EVA AI Chat Bot & Soulmate) tem uma política que veta esse tipo de ação. Os outros dizem que podem vender os dados para publicidade ou são omissos no assunto.

Continua após a publicidade

Outro ponto de atenção é que mais da metade dos apps (54%) não deixam que os usuários apaguem seus dados.

E estamos falando de dados extremamente sensíveis, que muitas vezes são as confissões mais íntimas das pessoas. Tudo aquilo que os algoritmos das redes sociais tentam inferir por meio de likes e comportamentos está explícito em conversas com uma IA que finge conhecer o outro.

Então, agora que você já sabe do risco de ter sua vida espionada, ainda vai querer ter um date com uma dessas IA?

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do UOL.

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.