Perspectivas unilaterais
A própria comunidade de IA tem debatido essa questão. Há argumentos convincentes sobre por que Hopfield e Hinton se encaixam melhor na categoria "física" do Nobel e por que um equilíbrio nacional é importante, já que o Prêmio da Nobel da Paz foi para a Nihon Hidankyo (organização japonesa que luta contra as armas nucleares).
Por que, então, ainda devemos nos importar com isso?
A resposta está nos riscos da unilateralidade histórica. Nosso relato padrão sobre as redes neurais artificiais é uma história calcada no Atlântico Norte e, na maioria das vezes, na América do Norte. A IA passou por um período de rápido desenvolvimento nas décadas de 1950 e 1960.
Em 1970, entrou-se em um "inverno da IA", durante o qual a pesquisa estagnou. Este "inverno" finalmente converteu-se em "primavera" na década de 1980, por meio de nomes como Hopfield e Hinton. Diz-se que os vínculos desse último pesquisador com a Google e a OpenAI contribuíram para o atual boom da IA baseada em redes neurais.
E, no entanto, foi exatamente durante esse suposto "inverno" que pesquisadores finlandeses, japoneses e ucranianos, entre outros, estabeleceram as bases da aprendizagem profunda. Integrar esses desenvolvimentos em nossas narrativas sobre a IA é essencial à medida que a sociedade enfrenta essa tecnologia transformadora. Precisamos expandir o que queremos dizer quando falamos de IA de maneiras diferentes da visão atual oferecida pelo Vale do Silício.
No ano passado, Yasuhiro Okazawa, da Universidade de Kyoto, Masahiro Maejima, do Museu Nacional de Natureza e Ciência de Tóquio, e eu conduzimos um projeto de história oral centrado em Kunihiko Fukushima e no laboratório na NHK onde ele desenvolveu o Neocognitron, um sistema de reconhecimento de padrões visuais que se tornou a base das redes neurais convolucionais.
A NHK é a emissora de TV pública do Japão, equivalente à BBC. Para nossa surpresa, descobrimos que o contexto sob o qual emergiu a pesquisa de Fukushima tinha raízes em estudos psicológicos e fisiológicos de audiências de televisão. Isso levou a NHK a criar, em 1965, um laboratório para a "biônica da visão". Nesse laboratório, engenheiros de televisão poderiam contribuir para o avanço do conhecimento da psicologia e fisiologia (como os organismos vivos funcionam) humanas.
De fato, Fukushima via seu próprio trabalho como dedicado à compreensão de organismos biológicos em vez de IA no sentido estrito. As redes neurais foram concebidas como "simulações" de como o processamento de informações visuais pode funcionar no cérebro e foram pensadas para ajudar no avanço da pesquisa fisiológica. O Neocognitron visava especificamente ajudar a resolver debates sobre se estímulos sensoriais complexos correspondiam à ativação de um determinado neurônio (célula nervosa) no cérebro ou a um padrão de ativação distribuído em uma população de neurônios.
Abordagens humanas
O engenheiro Takayuki Ito, que trabalhou com Fukushima, caracterizou a abordagem de seu mentor como uma "ciência humana". Mas, durante a década de 1960, os pesquisadores americanos abandonaram as redes neurais artificiais baseadas em modelos humanos. Eles se preocuparam mais com a aplicação de métodos estatísticos a grandes conjuntos de dados em vez do estudo paciente das complexidades do cérebro. Dessa forma, emular a cognição humana tornou-se apenas uma metáfora casual.
Quando Fukushima visitou os Estados Unidos em 1968, encontrou poucos pesquisadores que simpatizavam com sua abordagem de IA centrada no cérebro humano e muitos confundiram seu trabalho com "engenharia médica". Sua falta de interesse em ampliar o Neocognitron com conjuntos de dados maiores acabou por colocá-lo em desacordo com a crescente demanda da NHK por tecnologias aplicadas baseadas em IA, o que levou a seu pedido de demissão em 1988.
Para Fukushima, o desenvolvimento de redes neurais nunca teve a ver com seu uso prático na sociedade como, por exemplo, a substituição do trabalho humano e a tomada de decisões. Em vez disso, elas representavam uma tentativa de compreender o que tornava vertebrados avançados como os seres humanos únicos e, dessa forma, tornar a engenharia mais humana.
De fato, como Takayuki Ito observou em uma de nossas entrevistas, essa abordagem de "ciência humana" pode se prestar a uma maior aceitação da diversidade. Embora o próprio Fukushima não tenha seguido esse caminho, o trabalho de Ito desde o final da década de 1990 tem se concentrado na "acessibilidade" em relação às características cognitivas de idosos e pessoas com deficiência. Esse trabalho também reconhece tipos de inteligência diferentes da pesquisa de IA convencional.
Atualmente, Fukushima mantém uma certa distância do aprendizado de máquina. "Minha posição sempre foi aprender com o cérebro", diz ele. Em comparação com Fukushima, os pesquisadores de IA fora do Japão pegaram atalhos. Quanto mais a pesquisa convencional de IA deixa o cérebro humano para trás, mais ela produz tecnologias difíceis de entender e controlar. Sem suas raízes em processos biológicos, não podemos mais explicar por que a IA funciona e como ela toma decisões. Isso é conhecido como o problema da "caixa preta".
O retorno a uma abordagem de "ciência humana" resolveria alguns desses problemas? Provavelmente não por si só, porque o gênio já saiu da lâmpada. Mas em meio às preocupações globais sobre uma IA superinteligente que resultaria no fim da Humanidade, devemos considerar uma história global repleta de entendimentos alternativos da IA. Uma história que, infelizmente, não foi celebrada pelo Prêmio Nobel de Física deste ano.
*Hansun Hsiung, professor assistente da Escola de Línguas e Culturas Modernas da Durham University.
Este artigo é republicado do The Conversation sob uma licença Creative Commons. Leia o original aqui.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.