O que filosofia e inteligência artificial têm a ver? Mais do que parece
Anthony Grayling e Brian Ball
The Conversation
19/08/2024 19h00
Novos conhecimentos científicos e técnicas de engenharia sempre impressionaram e assustaram. E, sem dúvida, continuarão a fazer isso. A OpenAI anunciou, recentemente, que prevê o surgimento da "superinteligência" —que supera as habilidades humanas— ainda nesta década. Diante disso, a empresa está formando uma nova equipe e dedicando 20% de seus recursos de computação para garantir que o comportamento desses sistemas de inteligência artificial (IA) esteja alinhado com os valores humanos.
Parece que eles não querem que superinteligências artificiais rebeldes entrem em guerra contra a Humanidade, como no thriller de ficção científica de James Cameron O Exterminador do Futuro, de 1984, em que o protagonista de Arnold Schwarzenegger volta no tempo vindo de 2029. A OpenAI está convocando os melhores pesquisadores e engenheiros de aprendizado de máquina para ajudarem a resolver o problema.
Mas será que os filósofos têm algo a contribuir nisso? O que se pode esperar dessa antiga disciplina na nova era de tecnologias avançadas que está surgindo agora?
Para começar a responder a essa pergunta, vale frisar que a filosofia foi instrumental na própria concepção da inteligência artificial. Uma das primeiras histórias de sucesso da IA foi um programa de computador de 1956, apelidado Logic Theorist e criado por Allen Newell e Herbert Simon. Sua função era provar teoremas usando proposições da Principia Mathematica, uma obra de três volumes de 1910 dos filósofos britânicos Alfred North Whitehead e Bertrand Russell, com o objetivo de reconstruir toda a matemática sobre uma mesma base lógica.
De fato, o foco inicial da IA na lógica se deve muito aos debates fundamentais realizados por matemáticos e filósofos.
Uma etapa significativa foi o desenvolvimento da lógica moderna pelo filósofo alemão Gottlob Frege no final do século 19. Frege introduziu o uso de variáveis quantificáveis —em vez de objetos como pessoas— na lógica. Sua abordagem tornou possível dizer não apenas, por exemplo, "Joe Biden é presidente", mas, também, expressar sistematicamente pensamentos gerais como "existe um X; tal X é presidente" "Existe" é um quantificador, e "X" é uma variável.
Outras contribuições importantes na década de 1930 foram as do filósofo e matemático austríaco Kurt Gödel, cujos teoremas da completude e da incompletude fala sobre os limites do que se pode provar. E a "prova da indefinibilidade da verdade", do matemático polonês Alfred Tarski, que mostrou que a "verdade" em qualquer sistema formal padrão não pode ser definida dentro desse sistema específico. Ou seja, que a verdade aritmética, por exemplo, não pode ter sua definição restrita ao sistema da aritmética.
Por fim, a noção abstrata de máquina de computação de 1936 elaborada pelo pioneiro britânico Alan Turing se baseou nesse desenvolvimento, e teve um grande impacto no início da IA.
Pode-se dizer, no entanto, que mesmo que esta boa e velha IA simbólica tenha uma dívida com a filosofia e a lógica de alto nível, a "segunda onda da IA", baseada na aprendizagem profunda, deriva mais dos feitos concretos da engenharia associados ao processamento de grandes quantidades de dados.
Ainda assim, a filosofia também desempenhou um papel aqui. Veja os grandes modelos de linguagem, como o que alimenta o ChatGPT, que produz textos de conversação. Eles são modelos enormes, com bilhões ou até trilhões de parâmetros, treinados em vastos conjuntos de dados (que normalmente abrangem grande parte da Internet). Mas eles essencialmente rastreiam —e exploram— padrões estatísticos de uso da linguagem. Algo muito parecido com essa ideia foi articulado pelo filósofo austríaco Ludwig Wittgenstein em meados do século 20: "O significado de uma palavra", disse ele, "é seu uso na linguagem".
Portanto, a filosofia contemporânea, e não apenas sua história, é relevante para a IA e seu desenvolvimento. A tecnologia LLM (Large Language Model, "grande modelo de linguagem") poderia realmente entender a linguagem que processa? Será que ela pode alcançar a consciência? Essas são questões profundamente filosóficas.
Até o momento, a ciência não conseguiu explicar totalmente como a consciência emerge das células do cérebro humano. Alguns filósofos até acreditam que esse é um "problema tão difícil" que está além do escopo da ciência e pode exigir uma ajuda da filosofia, que estuda o conhecimento, o saber, a existência, a razão, a mente.
De forma semelhante, podemos nos perguntar se uma IA geradora de imagens poderia ser realmente criativa. Margaret Boden, cientista cognitiva britânica e filósofa da IA, argumenta que, embora a inteligência artificial seja capaz de produzir novas ideias, será difícil que avalie-as como o fazem pessoas criativas.
Ela também prevê que somente uma arquitetura híbrida (neural-simbólica) —que use tanto as técnicas lógicas quanto o aprendizado profundo a partir de dados— alcançará a inteligência artificial geral, ou generalista.
Valores humanos
Voltando ao anúncio da OpenAI, quando perguntado sobre o papel da filosofia na era da IA, o ChatGPT nos sugeriu que (entre outras coisas) ela "ajuda a garantir que o desenvolvimento e o uso da IA esteja alinhado com os valores humanos".
Nesse espírito, talvez possamos propor que, se o alinhamento da IA for o problema sério que a OpenAI acredita ser, não se trata apenas de um problema técnico a ser resolvido por engenheiros ou empresas de tecnologia, mas também de uma questão social. Isso exigirá a contribuição de filósofos junto a cientistas sociais, advogados, formuladores de políticas, usuários cidadãos e outros.
De fato, muitas pessoas, de áreas variadas, estão preocupadas com o crescente poder e influência das empresas de tecnologia, e seu impacto na democracia. Alguns argumentam que precisamos de uma maneira totalmente nova de pensar sobre IA, levando em conta os sistemas subjacentes que dão suporte ao setor. O advogado e autor britânico Jamie Susskind, por exemplo, argumentou que é hora de construir uma república digital que, em última análise, rejeite o próprio sistema político e econômico que deu tanta influência às empresas de tecnologia.
Por fim, vamos nos perguntar brevemente: como a IA afetará a filosofia? A lógica formal na filosofia na verdade remonta ao trabalho de Aristóteles na Antiguidade. No século 17, o filósofo alemão Gottfried Leibniz sugeriu que um dia poderíamos ter um "raciocinador de cálculos", uma máquina de calcular que nos ajudaria a obter respostas para questões filosóficas e científicas de uma forma quase oracular.
Talvez agora estejamos começando a concretizar essa visão, com alguns autores defendendo uma "filosofia computacional" que, literalmente, codifica suposições e deriva consequências delas. Em última análise, isso permite avaliações factuais e/ou orientadas por valores dos resultados.
Por exemplo, o projeto PolyGraphs simula os efeitos do compartilhamento de informações nas mídias sociais. Isso pode ser usado para abordar computacionalmente questões sobre como devemos formar nossas opiniões.
Certamente, o progresso da IA deu aos filósofos muito o que pensar; e pode até mesmo ter começado a fornecer algumas respostas.
* Anthony Grayling, professor de filosofia da Northeastern University London; e Brian Ball, professor associado de filosofia, IA e ética da informação da Northeastern University London
Este artigo é republicado de The Conversation sob a licença Creative Commons. Leia o original aqui.