Entramos na nova fase da IA: a dos agentes que tomam decisões por você
Qual a tarefa mais burocrática e chata que você faz no computador? Um trabalho repetitivo com uma planilha? Preencher formulários?
Em breve, tarefas como essas poderão ser feitas sem que você precise sequer tocar no mouse ou no teclado. Pelo menos essa é a promessa da Anthropic, que esta semana revelou uma nova função chamada 'uso do computador' em seu modelo de IA mais avançado, o Claude Sonnet 3.5.
O modo "uso do computador", como o nome diz, permite aos desenvolvedores customizarem a IA para que use o computador de uma forma parecida como nós: movendo o cursor, clicando em botões, mudando de telas e digitando texto. A ideia é que a partir do consentimento e comando do usuário, a IA possa realizar todos os passos para cumprir uma determinada tarefa no computador.
A funcionalidade apesar de experimental dá o tom da próxima era da IA, que será dominada por agentes. Os agentes de IA são sistemas que interagem com o ambiente (digital, mas também até mesmo físico), coletam dados e planejam tarefas para atingir as metas estabelecidas pelos usuários.
Essa nova geração de agentes de IA surge como uma evolução dos modelos de linguagem que conhecemos, como o ChatGPT. Enquanto o ChatGPT revolucionou o uso da IA com suas respostas rápidas e conteúdos gerados a partir de comandos textuais, os agentes trazem uma interação ainda mais profunda, agindo de maneira autônoma para executar tarefas no mundo real.
Os poderosos modelos de linguagem estão virando a commodity para que os agentes de IA utilizem suas capacidades para atuarem de forma mais assertiva em fluxos de trabalhos. A ideia é criar diferentes tipos de sistemas com uma autonomia maior, que possa realizar tarefas por nós e nos ajudar a solucionar problemas complexos.
Por exemplo, com um Modelo de Linguagem, como o ChatGPT, você pode dialogar sobre novas receitas para um jantar que pretende fazer para familiares. Você pode fazer perguntas, propor ideias e, a partir de uma conversa, encontrar qual o prato mais adequado para a ocasião.
Mas com um agente de IA, a coisa vai mais longe. Além de conversar com você sobre as receitas, o agente pode acessar o inventário da sua geladeira inteligente para ver os ingredientes que estão faltando, conectar ao diferentes e-commerces que você usa para saber qual deles consegue entregar os produtos a tempo e dentro do orçamento que você estipulou.
O foco é construir fluxos de trabalhos em que os agentes possam tomar decisões mais autônomas, inclusive usando diferentes modelos de linguagem ao mesmo tempo, tudo para satisfazer o que queremos.
A Microsoft também está apostando suas fichas em agentes de IA. A empresa anunciou na segunda-feira (21) que irá permitir ao público construir seus próprios agentes no Copilot Studio, plataforma de customização de assistentes. Além disso, a Microsoft também apresentou dez novos tipos de agentes focados para vendas e gestão, que já vem acompanhado de alguns casos de sucessos.
A promessa é que cada organização tenha uma constelação de agentes. Alguns mais simples para dar respostas a partir de prompts, outros mais avançados com maior grau de autonomia. Os agentes de IA poderão desempenhar o trabalho de um funcionário - ou de equipes inteiras - para executar diferentes processos de negócios.
Quem me lê há mais tempo sabe que eu não compro os anúncios das bigtechs facilmente e sempre digo que precisamos adicionar ao debate variáveis que muitas vezes ficam de fora. Neste caso, eu acho que, de fato, os agentes de IA são promissores, porém temos que analisar com cautela os diferentes casos de uso que surgirão para entender melhor suas capacidades.
Outro ponto crucial que precisamos discutir é a segurança e o uso responsável dessas ferramentas. Agentes de IA possuem um grau de autonomia muito maior do que qualquer chatbot atual, o que aumenta o potencial de impacto no ambiente digital e físico. Apesar das promessas das empresas sobre controles e salvaguardas, será necessário um esforço de pesquisa para garantir que esses agentes funcionem de forma segura e ética, evitando cenários de descontrole que possam interferir diretamente na nossa realidade.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.