Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
O ChatGPT pode ajudar o jovem em sofrimento?
Receba os novos posts desta coluna no seu e-mail
Se um jovem está enfrentando uma fase complicada com ansiedade, medos, insegurança, questões de autoestima e solidão, será que uma IA (inteligência artificial) como o ChatGPT poderia trazer algum tipo de suporte? O impacto é efetivo? Existem riscos?
Um texto da Folha de S.Paulo da última semana mostra que muitos jovens têm usado o ChatGPT como uma espécie de "psicólogo virtual", buscando dicas tranquilizantes, sem avaliação ou julgamento "humano".
Longe de ser uma psicoterapia, o ChatGPT, em teoria, poderia criar uma janela de diálogo com alguém em sofrimento psíquico, criando um encaminhamento para serviços de saúde que poderiam ajudar efetivamente a pessoa.
Janela para uma geração conectada
Para uma geração que cresceu acostumada a interagir com janelas que se abrem nas suas múltiplas telas, evitando o olho no olho do contato com o outro, as respostas da inteligência artificial, se bem calibradas, podem ter um papel importante na transmissão das informações buscadas. Mas como tudo no universo de IA, o tamanho do suporte vai depender de como a pergunta é feita ou de como os sintomas são descritos.
É sempre bom lembrar que as dicas do ChatGPT ficam muito mais no campo da autoajuda e das técnicas básicas de meditação ou de respiração do que de um método teórico e prático altamente estruturado, como é o caso de uma psicoterapia, em que cada processo é construído de forma única, a partir da interação de cada paciente com seu terapeuta, buscando sempre a autonomia do indivíduo para resolver seus conflitos, e não criando uma dependência de alguém ou de algo que traga soluções empacotadas e prontas.
Há, claro, alguns riscos no uso da IA nessa área como, por exemplo, a impessoalidade das repostas, que pode soar estranha para quem tem algum tipo de questão emocional. Falta aquele contato humano, único e altamente efetivo para quem busca acolhimento.
Também, ao reforçar um certo padrão de evitação do jovem em relação a médicos e psicólogos, o ChatGPT pode fazer com que o paciente demore mais tempo para buscar ajuda profissional. Há também o risco de eventuais erros de avaliação da IA e da falta de fundamentos mais sólidos para construção de uma resposta.
O que você acha de você mesmo?
Na última semana, propus algumas perguntas ao ChatGPT. Comecei inquirindo sobre como ele via a questão de alguns jovens estarem buscando sua ajuda como terapia. Ele respondeu que pode simular uma conversa com um terapeuta, fornecendo um espaço anônimo, seguro e confidencial para os jovens expressarem suas emoções, problemas e preocupações.
Além disso, ele seria útil para os jovens que não têm acesso fácil a um serviço de saúde mental, sendo uma ferramenta acessível e pouco intimidadora de busca de ajuda.
Ele demonstrou ter crítica sobre seu papel e afirmou que não substitui uma terapia presencial com um profissional, além de não poder fornecer diagnósticos precisos e tratamentos personalizados. Encoraja, ainda, que os jovens busquem um terapeuta para encaminhamentos e suporte.
Perguntei, então, se os algoritmos poderiam identificar alguém em risco de suicídio e que tipo de ação ele poderia tomar. Ele respondeu que conseguiria fazer isso (aliás, algumas outras plataformas digitais como Facebook já usam alguns algoritmos para esse fim) e que encaminharia a pessoa para serviços de emergência e profissionais de saúde mental.
Insisto se, em um caso extremo, ele poderia disparar um alerta ou mensagem para a rede de contatos do indivíduo via suas redes sociais, e ele responde que não, já que isso fere questões de privacidade e confidencialidade.
Nesse ponto é interessante a gente lembrar que em situações extremas de risco de suicídio, algumas plataformas podem mandar um aviso para amigos próximos e familiares.
Criando um quadro de sofrimento
Em uma outra conversa simulo um quadro de um jovem que está triste e desanimado, com questões de autoestima, dúvidas em relação à sua orientação sexual, enfrentando bullying, sem dinheiro para terapia, e que já tinha pensado em morrer no passado.
Nesse caso, ele sugere a busca de ajuda profissional (citando serviços gratuitos), o apoio de grupos de suporte online e presenciais, atividades que tragam prazer e satisfação, a prática de autoaceitação (enfatizando que não há nada de errado em ter outras orientações sexuais) e a busca de suporte contra bullying com um professor ou orientador da escola.
Em linhas gerais, me pareceu que o ChatGPT "entende" seu papel em relação ao jovem em sofrimento emocional, talvez tendo a percepção da sua própria importância e alcance um pouco amplificadas (será que até a IA incorporou um pouco da arrogância e do narcisismo do ser humano?)
Por outro lado, ele tem uma certa crítica das suas limitações e reforça sempre a importância de se buscar sempre ajuda profissional.
Nas dicas, ele navega muito mais no universo da autoajuda e das dicas mais generalistas, mas isso pode até servir como alívio para quem está em uma fase difícil. De quebra, ao reforçar o anonimato e o sigilo, ele consegue fazer com que que as pessoas se sintam menos julgadas, o que pode funcionar bem com os mais jovens.
Talvez o pulo do gato que falta ao ChatGPT ou outras IAs (que a meu ver nunca vai substituir uma terapia, mas pode ter seu papel na vida do jovem) seja encurtar o tempo entre a conversa com a IA e a busca por uma terapia ou avaliação.
Em caso de risco real, a construção de uma ponte mais efetiva com os serviços de saúde e de emergência mais próximos ao usuário poderia ser muito útil.
E você, acha que conversar com uma IA pode aliviar, pelo menos em parte, seu sofrimento?
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.