Até que ponto a inteligência artificial ultrapassará a humana?
Estamos no verão, e o Exterminador do Futuro está de volta. Um thriller de ficção científica, "Terminator Salvation", chega completo com uma malevolente Skynet, o projeto militar de pesquisa e desenvolvimento em inteligência artificial que criou autoconsciência e concluiu que os humanos eram irritantes - e deveriam ser despachados imediatamente.
A noção de que um sistema de computador autoconsciente surgiria espontaneamente das interconexões de bilhões de computadores e redes volta, na ficção científica, pelo menos até "Dial F for Frankenstein", de Arthur C. Clarke. Esse profético conto, que apareceu em 1961, previu uma rede de telefones cada vez mais interconectada que, espontaneamente, age como um bebê recém-nascido e gera o caos global ao arruinar os sistemas militares, financeiros e de transportes.
Hoje, a inteligência artificial, certa vez a proteção de escritores de ficção e excêntricos prodígios de computação, voltou à moda e vem captando séria atenção da Nasa e de empresas do Vale do Silício, como o Google, assim como uma rodada de novas empresas que desenvolvem tudo, de mecanismos de busca da próxima geração a máquinas capazes de escutar ou andar pelo mundo. A nova respeitabilidade da IA (Inteligência Artificial) está voltando o holofote à questão de para onde a tecnologia pode se dirigir e, talvez o mais preocupante, se a inteligência do computador ultrapassará a nossa - e com que rapidez.
O conceito de computadores ultrainteligentes - máquinas com "inteligência maior que a humana" - foi apelidada de "The Singularity" (A Singularidade), num artigo de 1993, pelo cientista de computação e escritor de ficção Vernor Vinge. Ele argumentou que a aceleração do progresso tecnológico havia levado "ao pico da mudança, comparável à elevação da vida humana na Terra". Essa tese sempre tocou uma corda aqui no Vale do Silício.
A inteligência artificial já é usada para automatizar e substituir algumas funções humanas com máquinas guiadas por computador. Essas máquinas podem ver e ouvir, responder a perguntas, aprender, desenhar inferências e solucionar problemas. Porém, para os "Singularitarianos", a IA se refere a máquinas que serão autoconscientes e super-humanas em sua inteligência, capazes de projetar computadores e robôs melhores, numa velocidade maior que os humanos. Uma mudança como essa, eles dizem, levaria a uma vasta aceleração em avanços tecnológicos de todos os tipos.
A ideia não é apenas a província dos autores de ficção científica; uma geração de hackers de computador, engenheiros e programadores chegaram a crer profundamente na ideia da mudança tecnológica exponencial, conforme explicada por Gordon Moore, co-fundador da Intel.
Em 1965, Moore descreveu pela primeira vez a duplicação repetida do número de transistores em chips de silício a cada nova geração tecnológica. Isso levou a uma aceleração no poder da computação. Desde então, a "Lei de Moore" - que não é uma lei da física, mas uma descrição da velocidade da mudança industrial - personificou uma indústria que vive em tempo de internet, onde a Próxima Grande Novidade está sempre virando esquina.
Muitos anos atrás, o pioneiro em inteligência artificial Raymond Kurzweil levou a ideia a um passo mais adiante em seu livro de 2005, "The Singularity Is Near: When Humans Transcend Biology." Ele buscou expandir a Lei de Moore para abarcar mais do que somente o poder de processamento, e simultaneamente prever, com grande precisão, a chegada de evolução pós-humana - que, segundo ele, ocorreria em 2045.
Na descrição de Kurzweil, o rápido aumento do poder de computação, em conjunto com humanos ciborgues, atingiria um ponto onde a inteligência da máquina não só ultrapassaria a inteligência humana, mas assumiria o processo da invenção tecnológica, com consequências imprevisíveis.
Retratado no documentário "Transcendent Man", e com seu próprio filme sobre a Singularidade saindo ainda neste ano, Kurzweil se tornou uma máquina de marketing de um homem só para o conceito do pós-humanismo. Ele é co-fundador da Universidade da Singularidade, uma escola patrocinada pelo Google que abrirá, em junho, com um grande objetivo - "reunir, educar e inspirar um quadro de líderes que lutará para compreender e facilitar o desenvolvimento de tecnologias exponencialmente avançadas. Além disso, eles deverão aplicar, focar e direcionar essas ferramentas para abordar os grandes desafios da humanidade".
Não contente com o desenvolvimento de máquinas super-humanas, Kurzweil prevê o "upload", ou a ideia de que conteúdos de nosso cérebro e processos de pensamento possam, de alguma forma, ser traduzidos num ambiente de computação. Isso possibilitaria uma forma de imortalidade - dentro de seu tempo de vida.
Tal assunto levou a várias sobrancelhas levantadas entre tecnólogos de nariz empinado na cultura de engenharia local, alguns dos quais descrevendo o romance Kurzweiliano com supermáquinas como uma nova forma de religião.
O autor de ficção científica Ken MacLeod descreveu a ideia da singularidade como "o êxtase dos nerds". Kevin Kelly, editor da revista Wired, aponta, "pessoas que profetizam um futuro muito utópico sempre calculam que isso acontecerá antes que elas morram".
Entretanto, o próprio Kelly não se privou de especular sobre para onde caminham as comunicações e a tecnologia de computação. Ele está trabalhando em seu próprio livro, "The Technium," que prevê o surgimento de um cérebro global - a ideia de que os computadores interconectados do planeta possam, algum dia, agir de forma coordenada e talvez demonstrar inteligência. Ele apenas não tem certeza sobre quando um cérebro global inteligente chegará.
Outros que observaram o crescente poder da tecnologia da computação são ainda menos esperançosos a respeito do futuro. O projetista de computadores e investidor William Joy, por exemplo, escreveu um ensaio pessimista na Wired, em 2000, dizendo que os humanos tinham mais chances de destruir eles mesmos com sua tecnologia do que criar uma utopia assistida por máquinas superinteligentes.
Joy, um dos co-fundadores da Sun Microsystems, ainda acredita nisso. "Eu não estava dizendo que seremos suplantados por algo", disse. "Acho que uma catástrofe é mais provável".
Além disso, aqui há um acalorado debate sobre se essas máquinas poderiam ser as "máquinas da bênção do amor", do poema de Richard Brautigan, ou algo muito mais sombrio, do gênero do "Exterminador do Futuro".
"Vejo a discussão sobre se devemos construir esses intelectos artificiais se tornando a questão política dominante do século", disse Hugo de Garis, pesquisador de IA da Austrália, que escreveu o livro "The Artilect War" - defensor da tese de que essa discussão provavelmente terminará com uma guerra global.
Perocupado com a mesma consequência em potencial, o pesquisador de IA, Eliezer S. Yudkowsky, funcionário do Instituto da Singularidade, propôs a ideia da "inteligência artificial amigável", uma disciplina de engenharia que buscaria assegurar que as máquinas futuras permanecessem como nossos servos ou iguais, ao invés de nossos mestres.
Todavia, esta geração de humanos, pelo menos, não tem grandes chances de recorrer às barricadas.
A indústria da IA já avançou em preparações e inícios ao longo do último meio século, desde que o termo "inteligência artificial" foi cunhado, em 1956, pelo cientista de computação John McCarthy, na Universidade de Stanford. Em 1964, quando McCarthy construiu o Laboratório de Inteligência Artificial de Stanford, os pesquisadores informaram aos seus apoiadores do Pentágono de que a construção de uma máquina artificialmente inteligente levaria em torno de uma década. Duas décadas depois, em 1984, aquele otimismo inicial chegou a um árduo caminho, levando ao colapso de diversas empresas iniciantes de IA no Vale do Silício, um tempo conhecido como "o inverno da IA".
Tais reversões levaram o profeta tecnológico do Vale do Silício, Paul Saffo, a proclamar: "Nunca confunda uma visão clara com uma distância curta".
Realmente, apesar do consenso profundamente alimentado nesta terra da alta tecnologia, acerca do progresso exponencial, o pior destino de todos para a elite do Vale seria viver na geração anterior àquela que presencia a singularidade.
"Kurzweil provavelmente morrerá, juntamente com o resto de nós, muito antes da 'grande autora'", disse Gary Bradski, um roboticista do Vale do Silício. "A vida não é justa".
A noção de que um sistema de computador autoconsciente surgiria espontaneamente das interconexões de bilhões de computadores e redes volta, na ficção científica, pelo menos até "Dial F for Frankenstein", de Arthur C. Clarke. Esse profético conto, que apareceu em 1961, previu uma rede de telefones cada vez mais interconectada que, espontaneamente, age como um bebê recém-nascido e gera o caos global ao arruinar os sistemas militares, financeiros e de transportes.
Hoje, a inteligência artificial, certa vez a proteção de escritores de ficção e excêntricos prodígios de computação, voltou à moda e vem captando séria atenção da Nasa e de empresas do Vale do Silício, como o Google, assim como uma rodada de novas empresas que desenvolvem tudo, de mecanismos de busca da próxima geração a máquinas capazes de escutar ou andar pelo mundo. A nova respeitabilidade da IA (Inteligência Artificial) está voltando o holofote à questão de para onde a tecnologia pode se dirigir e, talvez o mais preocupante, se a inteligência do computador ultrapassará a nossa - e com que rapidez.
O conceito de computadores ultrainteligentes - máquinas com "inteligência maior que a humana" - foi apelidada de "The Singularity" (A Singularidade), num artigo de 1993, pelo cientista de computação e escritor de ficção Vernor Vinge. Ele argumentou que a aceleração do progresso tecnológico havia levado "ao pico da mudança, comparável à elevação da vida humana na Terra". Essa tese sempre tocou uma corda aqui no Vale do Silício.
A inteligência artificial já é usada para automatizar e substituir algumas funções humanas com máquinas guiadas por computador. Essas máquinas podem ver e ouvir, responder a perguntas, aprender, desenhar inferências e solucionar problemas. Porém, para os "Singularitarianos", a IA se refere a máquinas que serão autoconscientes e super-humanas em sua inteligência, capazes de projetar computadores e robôs melhores, numa velocidade maior que os humanos. Uma mudança como essa, eles dizem, levaria a uma vasta aceleração em avanços tecnológicos de todos os tipos.
A ideia não é apenas a província dos autores de ficção científica; uma geração de hackers de computador, engenheiros e programadores chegaram a crer profundamente na ideia da mudança tecnológica exponencial, conforme explicada por Gordon Moore, co-fundador da Intel.
Em 1965, Moore descreveu pela primeira vez a duplicação repetida do número de transistores em chips de silício a cada nova geração tecnológica. Isso levou a uma aceleração no poder da computação. Desde então, a "Lei de Moore" - que não é uma lei da física, mas uma descrição da velocidade da mudança industrial - personificou uma indústria que vive em tempo de internet, onde a Próxima Grande Novidade está sempre virando esquina.
Muitos anos atrás, o pioneiro em inteligência artificial Raymond Kurzweil levou a ideia a um passo mais adiante em seu livro de 2005, "The Singularity Is Near: When Humans Transcend Biology." Ele buscou expandir a Lei de Moore para abarcar mais do que somente o poder de processamento, e simultaneamente prever, com grande precisão, a chegada de evolução pós-humana - que, segundo ele, ocorreria em 2045.
Na descrição de Kurzweil, o rápido aumento do poder de computação, em conjunto com humanos ciborgues, atingiria um ponto onde a inteligência da máquina não só ultrapassaria a inteligência humana, mas assumiria o processo da invenção tecnológica, com consequências imprevisíveis.
Retratado no documentário "Transcendent Man", e com seu próprio filme sobre a Singularidade saindo ainda neste ano, Kurzweil se tornou uma máquina de marketing de um homem só para o conceito do pós-humanismo. Ele é co-fundador da Universidade da Singularidade, uma escola patrocinada pelo Google que abrirá, em junho, com um grande objetivo - "reunir, educar e inspirar um quadro de líderes que lutará para compreender e facilitar o desenvolvimento de tecnologias exponencialmente avançadas. Além disso, eles deverão aplicar, focar e direcionar essas ferramentas para abordar os grandes desafios da humanidade".
Não contente com o desenvolvimento de máquinas super-humanas, Kurzweil prevê o "upload", ou a ideia de que conteúdos de nosso cérebro e processos de pensamento possam, de alguma forma, ser traduzidos num ambiente de computação. Isso possibilitaria uma forma de imortalidade - dentro de seu tempo de vida.
Tal assunto levou a várias sobrancelhas levantadas entre tecnólogos de nariz empinado na cultura de engenharia local, alguns dos quais descrevendo o romance Kurzweiliano com supermáquinas como uma nova forma de religião.
O autor de ficção científica Ken MacLeod descreveu a ideia da singularidade como "o êxtase dos nerds". Kevin Kelly, editor da revista Wired, aponta, "pessoas que profetizam um futuro muito utópico sempre calculam que isso acontecerá antes que elas morram".
Entretanto, o próprio Kelly não se privou de especular sobre para onde caminham as comunicações e a tecnologia de computação. Ele está trabalhando em seu próprio livro, "The Technium," que prevê o surgimento de um cérebro global - a ideia de que os computadores interconectados do planeta possam, algum dia, agir de forma coordenada e talvez demonstrar inteligência. Ele apenas não tem certeza sobre quando um cérebro global inteligente chegará.
Outros que observaram o crescente poder da tecnologia da computação são ainda menos esperançosos a respeito do futuro. O projetista de computadores e investidor William Joy, por exemplo, escreveu um ensaio pessimista na Wired, em 2000, dizendo que os humanos tinham mais chances de destruir eles mesmos com sua tecnologia do que criar uma utopia assistida por máquinas superinteligentes.
Joy, um dos co-fundadores da Sun Microsystems, ainda acredita nisso. "Eu não estava dizendo que seremos suplantados por algo", disse. "Acho que uma catástrofe é mais provável".
Além disso, aqui há um acalorado debate sobre se essas máquinas poderiam ser as "máquinas da bênção do amor", do poema de Richard Brautigan, ou algo muito mais sombrio, do gênero do "Exterminador do Futuro".
"Vejo a discussão sobre se devemos construir esses intelectos artificiais se tornando a questão política dominante do século", disse Hugo de Garis, pesquisador de IA da Austrália, que escreveu o livro "The Artilect War" - defensor da tese de que essa discussão provavelmente terminará com uma guerra global.
Perocupado com a mesma consequência em potencial, o pesquisador de IA, Eliezer S. Yudkowsky, funcionário do Instituto da Singularidade, propôs a ideia da "inteligência artificial amigável", uma disciplina de engenharia que buscaria assegurar que as máquinas futuras permanecessem como nossos servos ou iguais, ao invés de nossos mestres.
Todavia, esta geração de humanos, pelo menos, não tem grandes chances de recorrer às barricadas.
A indústria da IA já avançou em preparações e inícios ao longo do último meio século, desde que o termo "inteligência artificial" foi cunhado, em 1956, pelo cientista de computação John McCarthy, na Universidade de Stanford. Em 1964, quando McCarthy construiu o Laboratório de Inteligência Artificial de Stanford, os pesquisadores informaram aos seus apoiadores do Pentágono de que a construção de uma máquina artificialmente inteligente levaria em torno de uma década. Duas décadas depois, em 1984, aquele otimismo inicial chegou a um árduo caminho, levando ao colapso de diversas empresas iniciantes de IA no Vale do Silício, um tempo conhecido como "o inverno da IA".
Tais reversões levaram o profeta tecnológico do Vale do Silício, Paul Saffo, a proclamar: "Nunca confunda uma visão clara com uma distância curta".
Realmente, apesar do consenso profundamente alimentado nesta terra da alta tecnologia, acerca do progresso exponencial, o pior destino de todos para a elite do Vale seria viver na geração anterior àquela que presencia a singularidade.
"Kurzweil provavelmente morrerá, juntamente com o resto de nós, muito antes da 'grande autora'", disse Gary Bradski, um roboticista do Vale do Silício. "A vida não é justa".