Topo

Retrospectiva 2012: Estamos nos transformando em ciborgues?

Logotipo do Facebook exibida em computador em Munique (Alemanha) - Joerg Koch/AP/Dapd
Logotipo do Facebook exibida em computador em Munique (Alemanha) Imagem: Joerg Koch/AP/Dapd

Do New York Times

03/01/2013 06h00

O excesso de informação pode estar nos transformando em máquinas isoladas, incapazes de se conectar umas com as outras - ou será que estamos nos tornando mais inteligentes e eficientes?

Desde que a banda larga começou sua inexorável expansão no início do milênio, o acesso à internet cresceu em proporções estratosféricas. No ano passado, o número de usuários chegou a 2,4 bilhões, mais do que um terço de toda a população mundial. O tempo passado em frente do computador chega, em média, a 16 horas por semana - e o dobro disso em países com histórico de longo tempo de uso, praticamente todo consumido em redes sociais.

Nós mudamos a forma de interagir, mas será que também estamos mudando o que somos?

Apresentamos a questão a três pessoas que já escreveram exaustivamente sobre o assunto e as reunimos para discutir o tema com Serge Schmemann, responsável pelo editorial do jornal “International Herald Tribune”.

Os participantes:

Susan Greenfield, professora de farmacologia sináptica de Oxford. Já escreveu e fez inúmeras palestras sobre o impacto da tecnologia no cérebro do usuário.

Maria Popova, curadora do Brain Pickings, um site de “interesses ecléticos”. É membro do grupo Futuro do Entretenimento do MIT e escreve para a “Wired” e “The Atlantic”.

Evgeny Morozov é autor de “The Net Delusion: The Dark Side of Internet Freedom”. É editor e contribuidor de “The New Republic”.

Leia a seguir o debate:

Serge Schmemann: A questão é: estamos nos tornando ciborgues? Será que as novas tecnologias digitais estão nos transformando de forma mais profunda e talvez mais problemática do que em outros períodos de descobertas e avanços?

Vou começar com a baronesa Greenfield. Susan, você relatou detalhes assustadores sobre o impacto da internet não só na nossa forma de pensar, mas no nosso cérebro, afirmando que as novas tecnologias são invasivas de uma maneira que a imprensa escrita, por exemplo, a energia elétrica e a TV não são. Qual a diferença?

Penso muito sobre essa tendência de confundir informação e conhecimento. O conhecimento é a compreensão de como várias informações fazem sentido juntas. Podemos automatizar a recuperação do conhecimento, mas não acho que seja possível automatizar o lado moral de fazê-lo ter sentido.

Maria Popova, curadora do site Brain Pickings

Susan Greenfield: Em primeiro lugar, gostaria de esclarecer o termo “assustador”, porque o que estou tentando fazer é estimular o debate, deixando de lado julgamento de valores radicais. Se as pessoas acham assustador ou não, é outra questão.

De forma bem ampla, eu sugiro que as tecnologias são meios usados para atingir um fim. A imprensa escrita nos permite ler tanto ficção como os fatos através dos quais compreendemos o mundo; a geladeira permite que os alimentos se mantenham frescos por mais tempo; o carro ou o avião permitem que se viaje mais longe e mais rápido.

O que me preocupa é que as tecnologias atuais deixaram de ser meios para se tornarem fim; em vez de complementarem ou enriquecerem a vida tridimensional, a vida alternativa em duas dimensões - estimulando somente a audição e a visão - parece ter se transformado num fim em si. Essa é a primeira diferença.

Sites como o Facebook querem que você fique clicando nas novidades, fotos e notícias dos amigos, em parte porque, quanto mais você clicar, mais vão saber a seu respeito e, quanto mais souberem a seu respeito, mais anúncios (e mais específicos) vão poder vender.

Evgeny Morozov, autor de “The Net Delusion: The Dark Side of Internet Freedom”

A segunda é a dominância maciça dessas tecnologias sobre todas as outras. Se por um lado alguém como a minha mãe, por exemplo, que tem 85 anos e é viúva, entra no Facebook pela primeira vez - não que ela tente, embora acho que seria ótimo - para aumentar o círculo de amigos e estimular o cérebro, há estatísticas que mostram que mais de 50% dos jovens entre 13 e 17 anos passam mais de 30 horas, por diversão, na frente do computador.

O que me preocupa não é a tecnologia, mas até que ponto ela se tornou um estilo de vida em si e não um meio de melhorá-la.

Schmemann: Maria, vi as estatísticas - incríveis, por sinal - do tempo que passa conectada, mas você também tem tempo para ler e se exercitar. A impressão é a de que o seu dia tem 30 horas. Você afirma que a “dieta da informação” deve ser como a dieta alimentar: não deve se negar nada, mas sim consumir mais coisas certas e desenvolver hábitos saudáveis. Esse princípio funciona para você? Como filtra o que é bom e não é?

Cada hora que você passa na frente do computador é uma hora a menos que deixa de abraçar alguém, sentir o sol no rosto.

Susan Greenfield, professora de Oxford

Maria Popova: Bom, não tenho intenção nenhuma de ditar o que tem valor para a cultura de forma geral; só posso falar por mim mesma. De certa forma acho estranho que o meu site e os meus escritos, que são a minha jornada de aprendizado, tenham interessado a tanta gente. Só um adendo em relação às estatísticas: passo grande parte desse tempo com coisas analógicas, principalmente livros antigos, tradicionais.

O que me leva à pergunta sobre os ciborgues. A minha preocupação não é - como no caso de Greenfield - o grau em que a tecnologia está sendo usada, mas como estamos fazendo isso.

Não há dúvida de que a internet é muito bem projetada para ajudar as pessoas a encontrar mais sobre aquilo que elas já sabem o que estão procurando, mas muito mal estruturada para nos ajudar a descobrir coisas que ainda não sabemos, embora nos interessem e possam até mudar a forma de encararmos o mundo.

Um razão para isso é o fato de ela estar organizada praticamente segundo a cronologia. Basta pensar em qualquer sistema de gerenciamento de conteúdo ou plataforma de blog. Praticamente todas as redes mais populares usam esse critério para marcar sua presença online - seja o Wordpress ou o Tumblr, Twitter ou a linha do tempo do Facebook. Estão amarrados pelo critério de tempo: o mais recente fica no topo. O que inferimos disso? Que o mais recente é o mais significativo, mais relevante, mais importante. As coisas mais antigas, atemporais ou não, podem ser esquecidas.

Dedico grande parte do meu tempo ressuscitando essas “coisas velhas”. Aliás, enquanto estamos aqui conversando, me lembrei de que encontrei um belo ensaio de 1945, publicado no “The Atlantic”, por um homem chamado Vannevar Bush, que era diretor do Escritório de Pesquisa Científica e Desenvolvimento. Ele fala sobre excesso de informação e todas essas questões que, como se pode ver, não são exclusivas só da nossa época. Ele criou um mecanismo chamado Memex, que vem da união das palavras ‘‘memory’’ (memória) e ‘‘index’’ (índice); fala da compressão do conhecimento, de como toda a “Enciclopédia Britânica” pode ser colocada no Memex e como usaríamos o que hoje chamamos de metadados e hiperlinks para recuperar as informações.

A internet cria comunidades que compartilham o mesmo preconceito, a mesma ideologia.

Serge Schmemann, do jornal “International Herald Tribune”

Em sua opinião, no fim das contas, todas essas relações associativas entre diferentes informações e como elas se conectam estão na mente do usuário do Memex e nunca poderão ser automatizadas. Podemos comprimi-las, sim, mas isso não basta porque precisamos poder consultá-las.

Eu penso muito sobre essa tendência de confundir informação e conhecimento. Na verdade, o conhecimento é a compreensão de como várias informações fazem sentido juntas. Há um elemento de correlação e interpretação. Podemos automatizar a recuperação do conhecimento, mas não acho que seja possível automatizar o lado moral de fazê-lo ter sentido ou fazer com que tenhamos sentido.

Schmemann: Evgeny, em seu livro, você pinta um quadro bem pessimista da internet, como se fosse algo quase como “Admirável Mundo Novo” - um terreno fértil não para ativistas, mas para comodistas, gente que pensa que um clique numa petição no Facebook, por exemplo, conta como ato político. Você acha que a tecnologia enveredou por um rumo perigoso?

Evgeny Morozov: Não acho que nenhumas das tendências sobre as quais escrevi são produto de uma lógica inerente da tecnologia, da própria internet; na verdade, em grande parte são resultado de uma economia política e várias condições de mercado em que essas plataformas operam.

Acontece que sites como o Facebook querem que você fique clicando nas novidades, fotos e notícias dos amigos - em parte porque quanto mais você clicar, mais vão saber a seu respeito e, quanto mais souberem a seu respeito, mais anúncios (e mais específicos) vão poder vender.

Nesse aspecto, a internet poderia ser organizada de forma bem diferente. Não precisava ser como é. Com a combinação de investimento público/privado e das plataformas que temos no momento, é mais provável que continuemos clicando em vez de ler ou ir a fundo num determinado link, digamos.

Quanto ao aspecto político, não foi a minha intenção pintar um quadro tão sombrio. Enquanto plataforma, ou combinação de várias tecnologias, a internet promete muito. Mesmo o Facebook pode ser utilizado por ativistas para ações inteligentes e estratégicas.

A questão é se ela vai acabar (ou diminuir) as outras formas de ativismo, se as pessoas vão achar que estão batalhando por algo muito importante quando, na verdade, estão se unindo a grupos online que não têm relevância nenhuma no mundo político e com os quais os governos estão muito contentes. Muitos regimes autoritários de que falo no livro estão plenamente satisfeitos de ver os jovens engajados em protestos online, contanto que não vão para as ruas.

A minha briga é contra as pessoas que acham, de alguma forma, que as redes sociais e plataformas da internet podem substituir todo o processo de criação, execução e ajuste de estratégias. Não podem, não. Temos que ser realistas em relação ao seu alcance; quando isso acontecer, poderemos então usá-las em nosso favor.

Schmemann: Todos vocês falaram sobre o risco do mau uso da nova tecnologia. Será que esse medo não é tão antigo quanto a tecnologia em si?

Popova: Acho que uma das tendências mais humanas é querer uma resposta concreta e uma medida quantificável para tudo; por isso, quando lidamos com graus de abstração - que é o que qualquer tecnologia nova, no fundo, nos força a fazer -, nos sentimos muito desconfortáveis.

Sem querer citar muito material histórico, isso me lembra de outro ensaio antigo, escrito por Abraham Flexner, em1939, chamado ‘‘The Usefulness of Useless Knowledge’’ (“A Utilidade da Informação Inútil”, em tradução livre). Ele diz basicamente que a curiosidade foi o que motivou as descobertas mais importantes da ciência e as invenções de tecnologia, bem diferente da noção de conhecimento prático ou útil, que é o que buscamos. Queremos respostas concretas às perguntas, mas, ao mesmo tempo, há uma curiosidade sem limites que motiva os grandes cientistas e inventores.

Morozov: É verdade que praticamente todas as novas tecnologias desencadeiam o que os sociólogos chamam “pânico moral”, que leva muita gente a se preocupar com as possíveis consequências políticas e sociais e que esse é um fenômeno que sempre ocorreu, ou seja, não estamos vivendo uma época diferente ou excepcional nesse aspecto.

Apesar disso, acho que não se deva levar essas coisas muito longe. Cercados de toda essa tecnologia avançada atual, a tendência é romantizar o passado, é dizer: “Bom, há 50, cem anos, não usávamos a tecnologia como meio de obter as coisas; não havia esse conceito. Apenas vivíamos num ambiente agradável onde tínhamos que fazer tudo sozinhos”.

Isso não é verdade. Se você analisar a história da humanidade, nossa evolução sempre foi intermediada pela tecnologia; sem ela, não se sabe exatamente onde estaríamos. Nesse sentido, acho que sempre fomos ciborgues.

Uma pessoa que usa óculos, por exemplo, de uma forma ou de outra não deixa de ser um ciborgue; qualquer um que depende da tecnologia no dia a dia para estender sua capacidade humana também é. É por isso que não acho que devemos temer essa classificação. Sempre fomos e sempre seremos ciborgues.

A questão é: quais as áreas da nossa vida que não deveriam ser intermediadas tecnologicamente? Nossas amizades e nosso senso de ligação a outras pessoas talvez possam, mas de uma forma muito bem pensada e cuidadosa, pois, afinal, estamos falando de relações humanas. Talvez devêssemos ser mais analíticos em relação ao Facebook, mas é preciso cuidado para não criticar a ideia da mediação tecnológica. Só precisamos estipular limites à sua extensão e ao procedimento em relação a ela.

Greenfield: Eu não tenho medo da tecnologia nem das coisas maravilhosas que ela é capaz de fazer - que, por sinal, são inegáveis -, mas sim de como é usada pelas pessoas. A mente humana - e aqui é onde eu discordo de Evgeny - nem sempre foi um ciborgue. Não há provas dessa afirmação. Niels Bohr, o famoso físico, uma vez disse a um aluno: “Você não está pensando, está apenas sendo lógico”.

Acho que diminuímos a cognição humana ao reduzi-la a uma abordagem computacional e a operações mecânicas.

O que me preocupa é como essa mente pode ser desviada, mal aproveitada, corrompida - qualquer o termo que se queira usar - pela tecnologia.

O cérebro humano é sofisticado e evoluído o suficiente para se adaptar ao ambiente onde está; assim, se ele estiver mudando de uma forma inédita, o mesmo vai acontecer com o órgão. Cada hora que você passa na frente do computador é uma hora a menos que deixa de conversar com alguém, abraçar alguém, sentir o sol no rosto. O medo que sinto não é pela tecnologia em si, mas pela forma como é processada pela mente.

Morozov: Eu poderia dar várias respostas. A decisão de encarar tudo através da perspectiva do cérebro humano é uma opção normativa discutível. Eu não acho que seja o parâmetro adequado de análise. A tendência cultural é reduzir tudo à neurociência. Por que, por exemplo, devemos pensar nessas tecnologias sob a perspectiva do usuário e não na do designer?

Greenfield: Só porque os usuários constituem a grande maioria da sociedade. São eles os consumidores e as pessoas que…

Morozov: Certo, mas, por exemplo, talvez eu queira dedicar mais tempo pensando em como posso inspirar os designers a desenvolver tecnologias melhores. Não quero acabar com equipamentos feios e disfuncionais e transferir a responsabilidade para o usuário...

Greenfield: Mas, Evgeny, a situação atual se refere aos usuários...

Morozov: … mas não devia ser opção dos indivíduos se esconder de todos os designs feios e links disfuncionais que o Facebook e outras plataformas apresentam, certo? Não é só uma questão de simplesmente não visitar certos sites, mas também tentar alertar o pessoal do Vale do Silício e os designers e...

Greenfield: Sim, eles também pensam, por isso eu não os descartaria. Tudo começa com as pessoas. Tem tudo a ver com elas e como convivemos uns com os outros e como usamos a tecnologia.

Popova: Voltando ao assunto dos ciborgues - e acho que vocês dois tocaram num ponto muito importante, que é a noção daquilo que a mente humana deve fazer, ou melhor, do que ela faz. O ciborgue é basicamente um ser humano melhorado e acho que grande parte desse conceito hoje se refere aos algoritmos.

O medo é que, em vez de melhorar a cognição humana, eles comecem a substituir as nossas interações mais significativas.

Com a nova tecnologia da rede neural artificial do Google Street View, por exemplo, eles (os algoritmos) conseguem dizer se um objeto é uma casa ou um número, coisa que, antigamente, uma pessoa teria que olhar os dados para saber.

É um nível de eficiência incrível, maior do que o da nossa. Porém não podemos nos esquecer de que esses são critérios concretos. É praticamente uma decisão binária: é uma casa ou um número? Assim que a coisa começar a cair para o lado do abstrato - é uma casa bonita ou um número bonito? - não podemos mais confiar no algoritmo ou esperar que ele consiga responder a questão.

O medo de que certas partes da mente humana sejam substituídas ou percam seu lugar é totalmente infundado. Vocês estão falando muito sobre a noção de escolha: o futuro é escolha, tanto para nós, indivíduos, como para o que nos interessa, a carreira que seguimos e se queremos contratar os designers do Vale do Silício para desenvolver algoritmos melhores. Todas essas são escolhas, e também aquelas em nível governamental, que dizem respeito à qual pesquisa receberá investimentos.

A minha preocupação é a parcialidade no sentido em que a forma como grande parte do conhecimento e das informações está organizada na rede não é necessariamente em prol do interesse humano. Quando você pensa na chamada “curadoria social” - algoritmos que recomendam o que deve ler baseados no que os seus amigos andam lendo -, aí há um perigo óbvio. Eli Pariser definiu isso como sendo “a bolha do filtro” da informação que, com certeza, não está expandindo os seus horizontes.

Acho que o papel dessas pessoas, não importa que nome tenha - filtradores de informações, curadores, editores ou outra coisa - é ampliar os horizontes da mente humana. A internet algorítmica não pode fazer isso, porque um algoritmo só pode existir com dados já existentes. Só pode sugerir coisas de que você pode gostar baseado naquilo que já gostou.

Greenfield: Maria, você mencionou a diferenciação de informação e conhecimento. A primeira pode ser definida facilmente, mas a segunda é um pouco mais subjetiva. A minha definição de conhecimento, ou compreensão verdadeira, é ver uma coisa em comparação com outras. Por exemplo, a frase: “Apaga-te, apaga-te breve vela!”, de Shakespeare, só pode ser entendida se você encarar o apagar da vela como metáfora para o fim da vida.

Para ter conhecimento, é preciso uma estrutura conceitual. Você tem que ter meios de “unir os pontos” com informações e/ou fatos que encontra ao longo de sua vida, não da de mais ninguém. Só quando consegue encaixar um fato, uma pessoa ou em evento dentro de um cenário mais abrangente é que pode entendê-los melhor.

Falando em Google, Eric Schmidt, seu presidente, disse o seguinte: “Ainda acho que ler um livro é a melhor forma de aprender, mas infelizmente isso está se perdendo”. Não podemos nos impressionar muito com o poder da informação da mesma forma que não podemos, nunca, confundi-la com discernimento.

Popova: Concordo plenamente. Essa confusão entre informação e entendimento é algo que sempre me preocupou. Os algoritmos ajudam a acessar informações, mas o que extraímos delas vem do indivíduo que somos, da nossa experiência de vida - e isso nunca poderá ser substituído ou mecanizado.

Schmemann: Vou colocar isso que está dizendo no meu campo de atuação, o jornalismo. Nós, da “imprensa tradicional”, como anda sendo chamada, vivemos com pavor da internet porque ela está criando a anarquia da informação. Nosso objetivo sempre foi aplicar o que se chama de experiência, conhecimento, julgamento e ordem no que se define como “noticiário”.

Só que agora a internet, e mais precisamente o Facebook e o Twitter, não só assumiu essa função como cria comunidades que compartilham o mesmo preconceito, a mesma ideologia. Para mim, esse perigo é maior do que simplesmente passar os jornais para uma plataforma diferente.

Morozov: Se isso estiver realmente acontecendo, é um perigo, sem dúvida, mas não sei se está. Os grupos que vemos, isolados em suas bolhas - como liberais e conservadores - se arriscam examinando as fontes diametralmente opostas às suas posições ideológicas.

O que se vê são liberais vendo a Fox News para saber o que os conservadores estão pensando; da mesma forma, esses vão consultar fontes liberais, como o “New York Times”. Para mim, o verdadeiro perigo é achar que essas plataformas - internet, TV, os jornais - existem em seus mundinhos sem nenhuma relação entre si.

Greenfield: Outro fator de peso, ainda relacionado a isso, comparando a imprensa convencional à internet, é a velocidade. Quando leio um jornal ou um livro, tenho tempo para refletir. Penso sobre o assunto, coloco de lado para pensar um pouco... o que me preocupa é a forma como as pessoas tuitam instantaneamente. Assim que vivenciam alguma experiência, saem tuitando por medo de perder a identidade se não reagirem na mesma hora.

Eu acho isso preocupante. Gostaria que houvesse algum tipo de filtro regulador para evitar tantas mentiras e informações vazias que as pessoas espalham só porque não têm mais tempo para analisar melhor.

Popova: Contrariando só um detalhe disso que você disse, a meu ver o interesse nessa leitura de imersão, que dá espaço para uma reflexão mais profunda, aumentou muito. Cresceu a procura por aplicativos como o Instapaper e o Read It Later e sites como The Atavist e Byliner, que são basicamente o oposto da experiência da internet, isto é, de estímulo e fluxo constante.

Essas ferramentas permitem que você salve o conteúdo e o acesse mais tarde num ambiente controlado, livre de anúncios e de estímulos outros que não seja aquele à sua frente.

Greenfield: Só quero fazer um adendo a respeito do aumento alarmante de remédios receitados para disfunções de atenção na maioria dos países ocidentais nas ultimas duas décadas. É claro que isso pode se dever ao fato que os médicos estejam mais liberais ou que essas disfunções estejam sendo tratadas como nunca foram antes, mas eu acho, principalmente em relação ao cérebro mais jovem, que ele se adapta ao ambiente, pois essa é uma característica evolutiva nossa; se você o colocar num ambiente frenético, barulhento e extremamente sensorial, ele vai se encaixar. Por que competiria com o mundo tridimensional?

Embora os aplicativos de que Maria fala sejam bons para uma pessoas madura, os jovens podem lidar com eles de uma maneira totalmente diversa. A minha preocupação é estarmos limitando a nossa atenção a períodos cada vez mais curtos e valorizando o sensacionalismo em troca do pensamento abstrato e da reflexão mais profunda.

Schmemann: Susan, depois de descrever todos esses fatores que considera perigosos, você acha que nós, enquanto povo, governo ou instituições, temos que trabalhar para mudá-los? Você acha uma regulamentação necessária ou o espírito humano pode resolver isso sozinho?

Greenfield: No meu ponto de vista é melhor educar que regulamentar. Você pode tentar estipular todo tipo de regra, a coisa não vai melhorar sozinha. Como sabem, faço parte da Câmara dos Lordes e embora haja inúmeros debates sobre regulamentações de todo tipo para garantir uma sociedade mais benigna e benéfica, na verdade o que deveria ser feito era adotar um pensamento mais prático para tentarmos encontrar um ambiente que permita o desenvolvimento total dos indivíduos.

Schmemann: Aproveitando a deixa do tema abordado pela Susan, Evgeny, em seu livro você fala muito sobre o uso e mau uso político da internet, citando ciberutopia e internetcentrismo e pedindo ciber-realismo. O que isso significa?

Morozov: Para mim, internetcentrismo é um termo bem negativo. Com ele, eu me refiro aos muitos debates sobre temas importantes que começam a girar em torno da questão da internet e acaba-se perdendo de vista a profundidade analítica que exigem.

O problema do nosso debate cultural ao longo da última década é que muita gente acha que a internet tem resposta para os problemas que cria. É muito comum ouvir frases tipo: “Isso não funciona na internet”, “Isso acabaria com a internet” ou “Não é assim que a internet funciona”. Essa é uma atitude muito perigosa porque tende a supersimplificar as coisas. A regulamentação é ótima quando se trata de proteger nossa liberdade de expressão, privacidade ou blindar o discurso de ódio. Ninguém vai acabar com esses valores só porque operamos online.

Já fatores como curadoria, por exemplo, ou a distribuição de leitores eletrônicos nas escolas, não podem ser abrangidos pela regulamentação. É aí que teremos que fazer escolhas normativas sobre como queremos viver.

Popova: Grosso modo, eu concordo com o Evgeny. Acho que em grande parte, se não tudo, se trata de nossa opção de engajamento com essas tecnologias. Immanuel Kant tinha três critérios para definir um ser humano: a predisposição técnica para manipular as coisas e a predisposição pragmática para usar outros seres e objetos de acordo com o próprio interesse. Acho que esses dois podem até certo ponto, ser automatizados e otimizados com as ferramentas da chamada Era Digital.

O terceiro era o que ele denominou “predisposição moral”, que é a ideia do homem tratando a si mesmo e aos outros de acordo com princípios de liberdade e justiça. Acho que a Era Digital gera muito medo, pois começamos a achar que estamos perdendo essa qualidade, ou que ela esteja se transformando ou se transferindo para coisas ou situações exteriores.

Pessoalmente não acho que ele tenha razão de ser porque você pode programar um algoritmo para lhe fornecer notícias e/ou informações e analisar dados de maneira muito mais eficiente que um humano faria, mas jamais ele poderá com a questão moral. (Este texto faz parte da série "Fator de Mudança: Pauta Global 2013", com fotos e desenhos sobre eventos e tendências de 2012 que continuarão repercutindo em 2013.)