Deu ruim: advogado usou ChatGPT e chatbot inventou casos que não existem
Um advogado nos EUA usou o ChatGPT para ajudar na argumentação no recurso de um cliente. Ele, especificamente, buscou por casos semelhantes ao que estava defendendo para sustentar sua tese, e o chatbot retornou vários resultados.
O problema é que todos esses casos foram inventados, e os advogados envolvidos podem ser punidos por isso.
Após um juiz ter argumentado que não havia achado os casos citados, o advogado confessou que havia usado o chatbot inteligente para preparar a ação. As informações são do jornal norte-americano The New York Times.
Entendendo o caso
O colombiano Roberto Mata quis processar a empresa aérea Avianca, pois um carrinho de serviço de bordo havia machucado seu joelho durante um voo de El Salvador para Nova York em 2019. Ele, então, contratou um escritório de advocacia.
O processo estava para ser arquivado, quando um dos advogados de Mata, Steven A. Schwartz, entrou com um recurso, citando vários casos semelhantes ao dele em um documento de dez páginas.
Havia menção a casos como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines. O primeiro nome seria do sobrenome do autor da ação contra as empresas aéreas envolvidas.
De acordo com registros na corte de Manhattan, nos EUA, o advogado Schwartz diz ter até perguntado ao ChatGPT se esses casos eram reais antes de colocá-los no documento, e o chatbot respondeu que sim, e que eles poderiam ser achados em "bases de dados jurídicas de reputação".
O problema é que nem o juiz do caso nem os advogados da Avianca conseguiram achar registros desses processos citados no recurso.
No fim das contas, todos foram inventados pelo chatbot e o advogado Schwartz pediu desculpas por ter confiado no ChatGPT para escrever o recurso. Nos próximos dias, o juiz do caso deve decidir se as pessoas envolvidas devem receber algum tipo de punição ou não.
O fato é que o ChatGPT é uma péssima ferramenta para busca. Ele costuma ser bom em estruturar conteúdos solicitados, gerando um texto que faz sentido, só que ele não tem compromisso com a verdade. Por essa razão, a ferramenta não deve ser usada como um "oráculo".
O termo técnico para quando uma inteligência artificial gera conteúdos que não fazem sentido ou são incorretos é "alucinação".
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.