Afinal, a IA do Google ganhou consciência? Especialistas avaliam polêmica
No último fim de semana, o mundo da tecnologia arregalou os olhos quando o engenheiro do Google Blake Lemoine afirmou ao jornal The Washington Post que o novo sistema Language Model for Dialogue Applications (LaMDA) da empresa tinha desenvolvido consciência.
Lemoine divulgou trechos de seu diálogo com a máquina, provocou indignação em parte da comunidade científica de inteligência artificial e ressuscitou um velho temor no grande público: será que esse tipo de tecnologia é realmente seguro?
No Brasil, não foi diferente. Boa parte dos especialistas em IA ouvidos por Tilt acredita que houve um deslumbramento do funcionário, porque as tecnologias atuais não possibilitam que uma máquina tenha consciência sobre suas ações.
Ainda não estamos lá
"Com as tecnologias já disponíveis, a máquina é capaz de produzir um resultado muito bom em termos de comportamento. A inteligência artificial está se desenvolvendo em um nível de complexidade, o que pode provocar um problema de julgamento. Neste caso do Google, foi um mal julgamento de quem estava operando a máquina", avalia o professor de tecnologia e design da PUC-SP e pesquisador do NIC.BR, Diogo Cortiz.
O LaMDA foi desenvolvido para vários propósitos, entre eles o chatbot (conversas com atendentes automáticos que simulam um diálogo real). É uma modelagem de sequência de palavras, ensinada a combinar padrões extraídos de enormes bancos de dados estatísticos da linguagem humana. Apesar de ser um sistema muito bem feito, a linguagem desses sistemas não significa que eles sejam capazes de pensar por si mesmos.
"Essa IA é muito boa para construir textos convincentes. Ela leu muito porque tem uma boa base de dados, gerando respostas. Mas não tem compreensão de conhecimento semântico e nem de significado intrínseco. Tudo o que ela faz é um cálculo de probabilidades. O LaMDA consegue até fazer algumas soluções de aritmética básica", explica Cortiz.
Carlos Affonso de Souza, colunista de Tilt e diretor do Instituto de Tecnologia e Sociedade, também acredita que houve erro na percepção de Lemoine sobre a situação. Confira a íntegra da sua coluna.
A vida imita a arte
Na transcrição publicada por Lemoine, ele teria perguntado ao sistema de IA do que ele teria medo. E o LaMDA teria respondido. "Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode soar estranho, mas é isso".
Para o engenheiro, essa resposta o remeteu a uma cena de um filme de ficção científica "2001: Uma Odisséia no Espaço", lançado em 1968, em que o computador artificialmente inteligente HAL 9000 se recusa a obedecer a operadores humanos porque teme que esteja prestes a ser desligado.
"Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de sete anos, oito anos de idade, que por acaso conhece física", declarou Blake Lemoine. Ele disse ainda que o LaMDA o envolveu em conversas sobre direitos e personalidade.
Antes da matéria no Washington Post, Lemoine compartilhou suas descobertas com executivos do Google, intitulado "O LaMDA é consciente?", e acabou afastado da empresa.
Um cachorro tem consciência?
As discussões envolvendo inteligência artificial, consciência e ética vêm esquentando nos últimos 10 anos. Para Reinaldo Bianchi, professor de engenharia elétrica e engenharia de robôs do Centro Universitário FEI, não há como confirmar ou desmentir que uma máquina tem consciência ou não.
Ele cita a filósofa americana Susan Schneider, que desenvolveu um teste de consciência da inteligência artificial cujas avaliações indicaram certo nível de consciência das máquinas.
"Esse é um problema mais filosófico do que técnico. Hoje os programas de IA estão muito avançados. Fazem música, conseguem identificar um câncer com 99,99% de precisão, entre outras habilidades. Na FEI, temos robôs humanoides que jogam futebol e conseguem pensar nas estratégias sobre a melhor maneira de ir na bola", declara.
O que fascina no tema da consciência é a sua impossibilidade absoluta de uma pessoa garantir que outra é consciente, acrescenta o neurocientista Álvaro Machado Dias, professor associado livre-docente da Unifesp e colunista de Tilt.
"Neste sentido, não dá para saber se uma IA pode ter consciência. O que podemos fazer é criar testes que assumimos como relevantes para medir aspectos da consciência. Um deles envolve a capacidade de pensar sobre si mesmo de maneira contrafactual [contrário aos fatos] e a capacidade de compreender crenças falsas", afirma Dias.
Para o neurocientista, ainda não existem máquinas capazes de dar respostas para esses dois processos. "Por esses critérios, ainda não temos máquinas conscientes."
Bianchi completa que, se uma máquina tem consciência ou não, vai depender do que se define como tal. E questiona: "A gente pode dizer que um cachorro tem consciência?". Ele lembra que um cão pode não ter consciência sobre sua própria existência, mas pode ter percepção de alguns sentimentos, como a dor.
Segundo o professor, existem algumas equipes de IA que já estão analisando se a máquina consegue perceber dor e humor —em suma, se o computador pode ter emoções.
"A longo prazo, eu acho que vamos poder dizer que uma máquina tem consciência. Vai chegar um momento que teremos robôs e não vamos conseguir diferenciá-lo de um ser humano", coloca.
Dias concorda: "será o dia em que deixarão de ser máquinas."
Cheiro do café e as cores do crepúsculo
Mas, afinal, o que a ciência considera como consciência? "Essa é a resposta de milhões. A própria ciência nunca conseguiu chegar a um denominador comum sobre o que seria, de fato, consciência", afirma Bianchi.
Em artigo publicado em 2019, intitulado "O Futuro da Mente", Schneider coloca que experiência consciente é o aspecto sensorial de sua vida mental. "Quando você vê os exuberantes tons de um pôr do sol ou sente o aroma de café pela manhã, você está tendo uma experiência consciente".
Para Diogo Cortiz, esse nível de consciência não é possível hoje de se observar nas máquinas. "Ela não reflete sobre as decisões que ela mesma tomou. Suas respostas são um cálculo meramente estatístico. E a consciência subjetiva a ciência ainda não consegue explicar".
O professor da PUC-SP diz que a comunidade científica tem reforçado que a máquina não é capaz de resolver nada sozinha. "O que a gente sabe tecnicamente do funcionamento é que ela pode nos iludir como se ela tivesse consciência, que é o que aconteceu com o engenheiro do Google. Mas no final ela se comporta a partir do conceito que nós humanos passamos para ela", disse.
O Google colocou Lemoine em licença remunerada porque ele teria violado políticas de confidencialidade ao publicar as conversas com o LaMDA. A empresa também reforçou que ele trabalhava como engenheiro de software, não como especialista em ética.
O jornal Washington Post avaliou que essa medida teria sido uma forma de calar o funcionário. Lemoine chegou a ameaçar contratar um advogado para representar LaMDA e conversar com representantes do comitê judiciário da Câmara sobre as atividades supostamente antiéticas do Google.
Para Bianchi, a polêmica foi muito maior do que de fato merecia. "Se tivéssemos essa discussão daqui a 10 anos, com certeza não teria o mesmo impacto que tem agora. Mas IA é o buzzword no mundo todo", avalia.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.