Topo

Blog do Dunker

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Testei o ChatGPT e vi sinais de uma sensibilidade semântica surgindo na IA

Mais importante na inteligência artificial é a promessa de autorregulação e aprendizado a partir de erros - Kohji Asakawa/ Pixabay
Mais importante na inteligência artificial é a promessa de autorregulação e aprendizado a partir de erros Imagem: Kohji Asakawa/ Pixabay

15/02/2023 04h00

Receba os novos posts desta coluna no seu e-mail

Email inválido

Como outros tantos venho fazendo experiências com o novo sistema de inteligência artificial ChatGPT. Ele foi desenvolvido pela OpenAI, lançado em novembro de 2022, imita uma conversação humana em tempo real, mas também cria programas de computação, frases, parágrafos e narrativas inteiras, escreve poesia e literatura e até mesmo joga no lugar do usuário.

Ele aprimora a versão anterior InstructGPT, pois é capaz de reduzir respostas enganosas ou prejudiciais, racistas ou sexistas e promete ser um suporte razoável para a inteligência artificial aplicada à psicoterapia.

Há ainda várias ferramentas para quem quer desenvolver programas e aplicativos, envolvendo manejo de imagem, tradução e aperfeiçoamento gramatical, mas a aproximação mais simples parece ser o ChatGPT, ou seja, o dispositivo de diálogo que promete aprender com a experiência.

De fato, aqueles que acreditam que as psicoterapias são essencialmente curas pela palavra e que consideram decisiva a escolha de termos, as insistências sintáticas e repetições frasais podem perceber em um instrumento como esse um potencial dispositivo de pesquisa.

Já se mostrou que programas computacionais realizam diagnósticos genéricos 72% melhor do que médicos, diagnósticos psiquiátricos básicos, com mais precisão e acuracidade, assim como conseguem reconhecer cartas de suicídio reais melhor do que seus equivalentes clínicos humanos.

Programas que emulam psicoterapias ainda padecem de bons resultados comparativos, pois neste contexto a aprendizagem conjunta parece ser muito importante, assim como os erros de repertório podem ser desastrosos.

Outra dificuldade importante, percebida agudamente, com a disseminação da clínica on-line é que na psicoterapia o silêncio pode ser uma intervenção, não apenas uma ausência de resposta.

Ou seja, máquinas realmente inteligentes devem ser capazes de interpretar contextos discursivos mais longos, nos quais é tão importante não responder, quanto violar a regra de que toda pergunta deve ter uma resposta ou ainda radicalizar a importância da pergunta.

O terceiro tipo de desafio é a leitura de ambiguidades, equívocos e incorreções, que podem representar tanto erro de digitação, limitação de repertório ou imperfeição gramatical e ora como ato falho, confusão significativa ou comprometimento desejante da memória.

O último desafio para o ChatGPT é representado pelos paradoxos, notadamente os paradoxos de autorreferência, extensível aos temas que exigem autodeclaração, inversão de perspectiva ou transitivação de afetos.

Com estes problemas em mente, fiz alguns testes com ChatGPT:

Teste 1: quem sou eu?

Para a pergunta "quem é Christian Dunker?", recebi a seguinte resposta:

"Christian Dunker é um psicólogo brasileiro. Ele é professor emérito da Pontifícia Universidade Católica do Rio Grande do Sul e é o ex-presidente da Sociedade Brasileira de Psicologia Clínica. Além disso, Christian Dunker também é autor de diversos livros e artigos sobre psicoterapia, psiquiatria e psicanálise. Ele é considerado um dos principais contribuintes para o desenvolvimento do campo da psicologia clínica no Brasil."

  • Certo para psicólogo clínico brasileiro
  • Ok para o que escrevi
  • Muito ruim para PUC-RS, onde nunca fui professor (ainda que tenha dado aula em várias universidades)
  • Péssimo para presidente da Sociedade de Psicologia Clínica, que eu saiba não existe. A existência de uma sociedade científica com nome parecido, da qual fui membro, tendo recentemente criticado publicamente seu presidente, é provavelmente a fonte do erro.
  • Aceito o elogio sobre contribuir para a psicologia no Brasil.

O problema mais crítico nesta descrição é que nela está simplesmente ausente a "palavra-chave" que melhor me representa, atestado publicamente por qualquer consulta Google: psicanálise.

Teste 2: leitura da fórmula dos mitos

A segunda pergunta abordava um problema de natureza científica, ainda não esclarecido por especialistas, ou seja: como ler a fórmula canônica dos mitos, proposta pelo antropólogo Claude Lévi-Strauss em 1955?

O programa simplesmente leu errado a fórmula, apresentando-a como (a1 + b1) = (a2 + b2), e todo o resto da resposta ficou comprometido por isso.

Na segunda tentativa o ChatGPT referiu-se à fórmula como se ela tivesse três termos e não quatro.

Ainda que sua leitura dos mitos tenha sido relativamente correta ao mencionar a presença de oposições em antípodas, ela foi muito incompleta ao deixar de mencionar o problema da torção entre termo e função.

Respostas factualmente incorretas, exemplificadas por problemas de memória e repertório, podem ser desastrosas em situações clínicas.

Isso não ocorre porque derrubam a autoridade cognitiva ou a confiança no interlocutor como especialista, mas porque denunciam uma abordagem pouco reflexiva do problema.

Seria simples encontrar aqui o uso de atenuantes como "se você se refere a", ou "uma reposta possível seria", ou ainda "até onde me lembro", até mesmo o Google responde com "você estaria se referindo a X" quando digitamos algo não encontrável.

Enfim, podemos imaginar um conjunto de respostas que permitam inferir a sustentação da enunciação interrogativa em caso de incerteza ou estranhamento com a pergunta. Mas aqui precisaríamos da noção de contexto de uso particular (inferido de preferências de consumo, escolha, exclusão etc.), que é justamente o que o uso de metadados personalizados promete fazer.

Teste 3: uso literal e metafórico da linguagem

A terceira pergunta envolvia lidar com dois problemas conexos: uma troca de fonemas entre "celacanto" e "cecalanto" e a percepção de diferença entre uso literal e uso metafórico da linguagem.

Recorri ao título da conhecida obra da artista plástica brasileira Adriana Varejão, em exposição permanente em Inhotim, conhecida como "Celacanto gera maremoto", mas em vez do título correto eu propus "Cecalanto gera maremoto"

Na primeira etapa, o programa respondeu: "não achamos cecalanto".

Na segunda tentativa, quando corrigi o ato falho para "celacanto", a resposta foi literal:

"Não há provas de que o peixe, supostamente extinto, mas reencontrado na costa africana em 1938 gere tsunamis ou maremotos, etc."

Nenhuma alusão ao fato de que no primeiro caso a expressão, considerada como um ato falho, contenha indiretamente a alusão a aconchego, voz e ternura (sela canto, celacanto, acalanto) e na segunda, uma série potencial impregnada de silenciamento (se cala, seca lanto, cecalanto).

A frase original havia aparecido misteriosamente grafitada nas ruas do Rio de Janeiro em 1976. (Assim como a famosa "Gentileza gera Gentileza", que aludia tanto à pessoa chamada Gentileza quanto ao fato de que a prática da gentileza gera efeitos de polidez, educação e cuidado.)

Descobriu-se depois que ela não "significava nada", tendo sido extraída de uma série japonesa chamada National Kid.

Ocorre que depois de nada significar (outro problema grave para a inteligência artificial), ela foi retomada pela artista, em uma evocação simples de que o retorno de seres das profundezas do mar pode gerar maremoto (sentido literal), ou ainda, "existem coisas que nós negamos e achamos que não existem mais, quando elas voltam, criam desastres e maremotos, como uma espécie de retorno de traumas historicamente recalcados que, quando retornam, geram conflito, desordem e desamparo".

Ou seja, a existência de uma circulação metafórica e poética da frase foi ignorada, mas em contrapartida não havia nenhuma indicação discursiva de que o usuário poderia estar "brincando" em vez de "falar sério" com a máquina.

Há indícios de que existe uma sensibilidade semântica surgindo na inteligência artificial, justamente pela presença de indexadores de usos racistas, sexistas ou ofensivos da linguagem.

O desafio é perceber que a linguagem não pode se reduzir nem a códigos nem a automatismos discursivos.

Nela, a anomalia pode ser tão criativa, transformativa e inovadora, quanto nociva, inútil e reprodutora de preconceitos.

Mas este é somente o ponto de partida, pois o mais importante na inteligência artificial não é exatamente seu ponto de partida, mas a promessa de autorregulação e aprendizado a partir de erros.

Escrevendo este texto, espero que um início de conversa esteja sendo dado.

Espero periodicamente voltar ao programa e ver o que aprendemos durante aquele tempo de uso.

Mas será que este artigo pode ser captado e integrado à conversa que tenho tido com o ChatGPT?