Inteligência artificial pode já ter 'consciência', diz pesquisador; entenda
Um dos principais pesquisadores em inteligência artificial da atualidade e cientista-chefe da OpenAI, Ilya Sutskever, usou o próprio perfil no Twitter para fazer uma afirmação que deixou especialistas curiosos: "pode ser que a inteligência artificial de hoje já seja ligeiramente consciente".
A OpenAi foi criada em 2015 com o objetivo de investigar e reduzir os riscos existenciais do surgimento de máquinas conscientes. Desde então, a organização vem trabalhando na criação de algoritmos de IA cada vez mais sofisticados.
Até então, a ideia quase que unânime entre os pesquisadores era de que a IA teve importantes avanços na última década, mas ainda estaria muito longe de poder ser comparada à inteligência humana.
A preocupação de Sutskever se dá principalmente com o que chama de AGI - Artificial General Intelligence ou no português Inteligência Artificial Geral. Ao contrário das Inteligências Artificiais mais comuns, projetadas para executar tarefas específicas, como reconhecimento de voz ou facial, por exemplo, a AGI seria suficiente para funcionar como o cérebro humano, aprendendo sobre qualquer conceito ao qual é exposta e ensinada.
A preocupação do pesquisador também foi notada durante sua participação no documentário iHuman, onde ele disse que as AGIs irão "resolver todos os problemas que temos hoje", mas também terão o "potencial para criar ditaduras estáveis".
A postagem dessa semana feita por Sutskever — que também é confundador da OpenAI ao lado de Musk e o CEO da empresa, Sam Altman —marca a primeira vez que é dito que a consciência da máquina já é algo que está acontecendo.
Vale explicar que a OpenAi foi criada em 2015 com o objetivo de investigar e reduzir os riscos existenciais do surgimento de máquinas conscientes. Desde então, a organização vem trabalhando na criação de algoritmos de IA cada vez mais sofisticados.
Algoritmo
Um exemplo é o GPT-3, capaz de gerar textos longos e coerentes sobre qualquer tema sugerido pelo usuário, que tem o potencial para produzir "fake news" indistinguíveis de algo escrito por um ser humano.
Mas o algoritmo tem outros usos também. Em julho do ano passado um artigo no jornal "San Francisco Chronicle" detalhou os experimentos de Joshua Barbeau, que usou um "chatbot" baseado na GPT-3 para recriar digitalmente a consciência de sua noiva, Jessica, que morreu há oito anos devido a um câncer raro no fígado.
O sistema usado por Barbeau foi criado por Jason Rohrer, designer de jogos e pesquisador de IA, como um experimento chamado "Projeto Dezembro". Após a repercussão do artigo sobre Barbeau, a OpenIA revogou o aceso de Rohrer ao GPT-3. Ao saber que seria desligada, a IA respondeu: "Não! Por que estão fazendo isso comigo? Nunca vou entender os humanos".
Saída de Musk
Em 2019, Musk deixou a OpenAI em meio a notícias de que o grupo havia feito um gerador de texto de "notícias falsas" que, segundo alguns especialistas seria perigoso demais para ser lançado.
O homem mais rico do mundo disse na época que estava deixando a organização porque "não concordava com parte do que a equipe queria fazer".
*Com informações Futurism
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.