Diogo Cortiz

Diogo Cortiz

Siga nas redes
Só para assinantesAssine UOL
Opinião

Nova fase: OpenAI lança IA com capacidade de raciocínio e aumenta os riscos

A OpenAI anunciou nesta quinta-feira o seu novo modelo de Inteligência Artificial (IA). Ainda não é a promessa do GPT-5, mas um novo modelo que demonstra mais capacidade de raciocínio para resolver tarefas complexas.

Chamado de OpenAI "o1", a empresa treinou este modelo para que ele possa dedicar mais tempo analisando os problemas antes de responder.

Durante o treinamento, o modelo aprendeu a refinar seu processo para experimentar diferentes estratégias e reconhecer seus erros, antes de gerar a resposta para o usuário final.

O modelo utiliza uma abordagem chamada "Cadeia de Pensamentos" (Chain of Thought) em que o modelo executa um passo a passo, quebrando uma tarefas em pequenas partes e leva em consideração os resultados anteriores para refinar as estratégias.

Já dava para utilzar a "Cadeia de Pensamentos" para interagir com o ChatGPT como uma estratégia de "Engenharia de Prompt", mas era o usuário que precisava montar a estrutura de interação para conseguir as melhores respostas.

Agora, a máquina consegue encontrar os caminhos por si só sem depender necessariamente do conhecimento prévio das pessoas.

Para conseguir esse resultado, a OpenAI utilizou um treinamento chamado "aprendizado por reforço", em que o modelo aprende a aprimorar sua cadeia de pensamento, a reconhecer seus erros, e até mesmo a tentar uma abordagem diferente quando a atual não está funcionando.

Nos testes realizados, o modelo "o1" teve um desempenho parecido com o de estudantes de doutorado em muitos testes de avaliação nas áreas de física, química e biologia.

De acordo com a OpenAI, enquanto o GPT4-o resolvia apenas 13% dos problemas da Olimpíadas Internacional de Matemática, o processo de raciocínio do novo modelo fez com que ele resolvesse 83%.

Continua após a publicidade

Apesar do hype que o novo modelo da OpenAI está criando, precisamos entender que essa inovação não é exclusiva da empresa dona do ChatGPT.

A abordagem de "Aprendizado por Reforço" é uma das coisas que eu acho mais excitante por ser o tipo de aprendizado em que a máquina pode gerar novos conhecimentos. E tem várias outras organizações disputando por essa área.

A Deepmind, divisão de IA do Google, é uma das mais bem preparadas nesse tipo de aprendizado.

Dois meses atrás, eles apresentaram novos modelos de IA (AlphaProof e AlphaGemonetry) que, utilizando a mesma abordagem, foram treinados para desenvolver raciocínio matemático.

Quando os pesquisadores combinaram esses modelos, o resultado foi incrível. A IA ficou em uma posição equivalente a medalha de prata na Olimpíada Internacional de Matemática.

Estamos entrando em uma nova era da IA em que a tecnologia se torna cada vez mais eficiente em nos auxiliar a resolver problemas nas diferentes áreas do conhecimento.

Continua após a publicidade

Mas quanto mais poderosa a IA, mais desafios de governança e segurança teremos pela frente.

Por exemplo, este é o primeiro modelo que a OpenAI atribui uma classificação "média" para o risco de uso em armas químicas, biológicas e nucleares.

Todos os modelos anteriores da empresa tinham recebido a classificação de risco abaixo após os testes de avaliação.

Os assinantes da versão "Plus" do ChatGPT já podem usar o novo modelo "o1". No entanto, este é um modelo que, dependendo do tipo de tarefa que você for executar, não traz melhorias significativas e nem tem todas as funcionalidades implementadas.

E antes que eu me esqueça, a OpenAI precisa contratar urgentemente profissionais de branding. Os nomes dos modelos seguem criando uma confusão danada.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do UOL.

Deixe seu comentário

Só para assinantes