Eu não tenho dúvidas que a inteligência artificial transformará profundamente a sociedade. O problema é que nem eu nem ninguém sabemos exatamente como isso vai acontecer. Podemos desenhar alguns cenários com base em evidências empíricas ou a partir de algumas suposições. Ambos os exercícios são importantes para anteciparmos problemas, porque, caso deem pistas de que irão acontecer, estaremos um pouco mais preparados.
Só que, desde o lançamento do ChatGPT, as discussões sobre os riscos da IA ganharam um ar mais dramático. Se antes estávamos discutindo como reduzir vieses e fazer a máquina tomar decisões mais justas, agora lemos que a IA poderá colocar fim à existência da humanidade.
Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social ampla, como pandemias e guerra nuclear
Essa declaração foi publicada pela Center for AI Safety na semana passada e assinada em conjunto por acadêmicos e CEOs de empresas que lideram o desenvolvimento da IA.
E não é a primeira vez que algo parecido acontece. Em março, uma outra carta, publicada pelo Future of Life Institute, pediu a pausa por seis meses no desenvolvimento da IA para garantir que fossem criadas estratégias de segurança.
As duas cartas levantam o risco da extinção da humanidade. Mas esse alerta faz sentido?
Para responder essa pergunta, precisamos analisar as diferentes perspectivas que existem sobre o desenvolvimento da IA e suas consequências na sociedade.
Um grupo de pesquisadores e desenvolvedores argumenta que estamos próximos de uma IA geral, capaz de desenvolver as mesmas atividades cognitivas dos humanos, e que por isso deveríamos estar preocupados em descobrir como alinhá-la com os valores humanos.
Mas isso não é um consenso
De outro lado, tem uma galera, também com nomes renomados, que critica essa posição e argumenta que falar sobre extinção afasta uma discussão mais séria sobre os riscos que existem com a IA que temos hoje.
Onde eu fico nessa treta toda?
No meio-termo. Não porque eu sou isentão e vou explicar o porquê.
Eu divido os riscos da IA em dois principais tipos: os hipotéticos e os imediatos.
O risco de extinção é hipotético, uma suposição possível, mas dentro de uma realidade especulativa.
Eu pesquiso sobre futurismo e design especulativo, então sei a importância de especular sobre cenários possíveis. Mas, neste caso, não precisamos focar exclusivamente no risco de extinção.
A extinção é uma possibilidade, como tantas outras, e devemos tratá-la assim: como uma hipótese.
Acontece que a IA de hoje já apresenta riscos e desafios reais de governança, como:
- falta de transparência;
- coleta indevida de dados;
- vieses;
- privacidade;
- direitos autorais;
- concentração de poder;
- impacto nos empregos.
Falar sobre extinção sem tocar nos problemas atuais me parece um salto argumentativo. Os CEOs vestem a fantasia do personagem Morpheus e acham que irão proteger a humanidade contra as máquinas, quando são eles mesmos que estão criando a Matrix.
Posso até dar um exemplo. Sam Altman, o CEO da OpenAI, começou um tour pelo mundo para alertar sobre os riscos da IA e pedir por regulação da tecnologia. Só que em uma entrevista recente, ele afirmou que a OpenAI poderia deixar a União Europeia se a regulação do bloco fosse muito dura.
Ele pede por regulação, mas desde que seja nos seus moldes.
Em uma audiência no Senado americano, ele chegou a pedir por um licenciamento da IA, o que certamente protegeria a sua empresa contra novos entrantes. Esse tipo de comportamento parece o de alguém que topa participar do jogo quando são suas regras, senão ameaça levar a bola embora. Isso me faz pensar que talvez os poderosos da IA estejam mais para Kiko do que Morpheus.
Podemos falar sobre a hipótese de extinção, claro, mas o foco de hoje devem ser os riscos imediatos da IA.
*Professor na PUC-SP e Pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I - Sorbonne. MBA em Economia Internacional pela USP e Especialista em Neurociência. Foi pesquisador visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Tem pesquisas na intersecção entre ciência cognitiva, design e tecnologia.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.