Passamos o último trimestre testando agentes de IA em programação, atendimento ao cliente, vendas, pesquisa e fluxos de trabalho de negócios. Não nos baseamos em marketing de fornecedores, mas usamos essas ferramentas diariamente para ver o que funciona e o que não funciona.
A maioria das ferramentas atuais são copilotos, não pilotos automáticos. Elas realizam pesquisas e automatizam tarefas repetitivas, mas ainda exigem tomada de decisão humana para tudo o que realmente importa.
Exemplos de plataformas e ferramentas populares de estilo agentivo
- Lyro do Tidio: Chat ao vivo com agentes focado em PMEs
- Creatio: CRM baseado em agentes e construtor de agentes de IA para empresas de médio e grande porte.
- Cursor: edição de código de IA
- Otter.ai: IA para anotações
- OpenAI Frontier: Gerenciamento e orquestração de agentes empresariais
- Kiro (AWS): IDE agético orientado a especificações e agente de codificação autônomo
- Averi: criação de conteúdo de marketing de IA
- Make (Celonis) : Automação escalável de baixo código
- Kompas AI: Pesquisa aprofundada e geração de relatórios
- LangGraph: Geração de fluxos de trabalho agéticos complexos de nível de produção
- Beam AI : Fluxos de trabalho com grande volume de documentos
- Relevância da IA : Análises integradas + fluxos de decisão
- IBM Watson Orchestrate : Orquestração de nível empresarial
O que é um agente de IA?
Um agente de IA executa loops. Essa é a principal diferença em relação a um chatbot.
Fonte: GitHub 1
Não existe uma definição única e consensual. A IA tradicional define agentes como sistemas que interagem com o seu ambiente. Algumas empresas de análise de dados definem-nos como sistemas totalmente autónomos que operam de forma independente durante longos períodos, utilizando ferramentas como funções ou APIs para interagir com o ambiente e tomar decisões com base no contexto e nos objetivos. 2 Outros usam o termo para descrever implementações mais prescritivas que seguem fluxos de trabalho predefinidos. 3
Aqui estão os fatores que fazem com que um sistema de IA seja considerado mais agente :
Aqui está um exemplo real e uma conversa sobre um agente de software de código aberto gerenciando implantações na Humanlayer: 4
Fonte: GitHub 5
Capacidades dos sistemas de IA agentes
Adaptado de: Cobus Greyling 6
Saiba mais: Agentes de IA empresariais , construtores de agentes de IA , modelos de ação em larga escala (LAMs) e IA agética em cibersegurança .
Agentes de Codificação
Cursor
O Cursor continua sendo o editor de código com IA mais adotado entre desenvolvedores individuais. Em tópicos do Reddit, até mesmo pessoas que preferem outras ferramentas o comparam com outros editores. Sua vantagem reside na usabilidade: integração perfeita com o VSCode, troca rápida de contexto entre arquivos e um fluxo de trabalho que prioriza a velocidade em detrimento da inteligência bruta.
A versão de 2026 adicionou subagentes paralelos para subtarefas discretas e o BugBot para revisão automatizada de código em nível de PR (Pull Request). 7 Cursor Blame (Enterprise) para atribuição de IA por linha e geração de imagens dentro do agente. Salesforce relatou ganhos de velocidade de mais de 30% após a implementação do Cursor em 20.000 desenvolvedores. 8 A Cursor ultrapassou a marca de US$ 1 bilhão em receita anualizada, com mais de um milhão de desenvolvedores pagantes. 9
Onde enfrenta dificuldades: A mudança de preços do Cursor, que passou de 500 requisições mensais fixas para um sistema baseado em créditos vinculado aos custos reais da API, gerou uma reação negativa significativa da comunidade. O número efetivo de requisições premium caiu de 500 para aproximadamente 225 por mês, considerando o preço de US$ 20. 10 reclamações sobre a cobrança ainda dominam as discussões no r/cursor e no G2. Os planos variam atualmente de US$ 20/mês (Pro) a US$ 200/mês (Ultra), com um plano intermediário de US$ 60/mês (Pro+). Equipes que utilizam fluxos de trabalho complexos com vários arquivos devem estimar seus gastos reais com tokens antes de escolher um plano. O Cursor também é menos eficiente que o Claude em raciocínio arquitetural e pode apresentar problemas em bases de código complexas.
Código Claude
A Claude Code ultrapassou US$ 2,5 bilhões em receita anualizada em fevereiro de 2026, tendo dobrado desde o início do ano. Ela representa mais da metade de todos os gastos corporativos com produtos Anthropic. 11 empresas representam 80% do volume total de negócios da Anthropic, e o número de clientes que gastam mais de US$ 100.000 anualmente com a Claude cresceu sete vezes no último ano.
A Anthropic lançou o Claude Cowork, um agente para desktop macOS construído sobre os fundamentos do Claude Code para usuários não técnicos. Ele utiliza acesso por permissões de pasta, permitindo que o Claude leia, escreva e execute tarefas complexas em arquivos sem a necessidade de conhecimento da linha de comando. O aplicativo foi desenvolvido pela própria equipe do Claude Code em aproximadamente 1,5 semana. Em 30 de janeiro, a Anthropic adicionou um sistema de plugins que possibilita a automação em nível departamental por meio de integrações personalizadas com o MCP, subagentes e comandos de barra. 12
A Anthropic lançou o Code Review para o Claude Code, um sistema multiagente que envia uma equipe de IA para analisar cada solicitação de pull request. O recurso está em fase de pré-visualização para usuários das versões Team e Enterprise. Na implementação interna da Anthropic, os comentários substanciais em pull requests aumentaram de 16% para 54% após o lançamento. 13 Menos de 1% das descobertas são marcadas como incorretas pelos engenheiros, e o sistema não aprova PRs; essa decisão permanece com os humanos.
Anthropic também lançou aplicativos interativos diretamente na interface de bate-papo do Claude, incluindo Slack, Canva, Figma, Box e Clay, permitindo que Claude realizasse ações nessas plataformas sem sair da conversa. 14
GitHub Copilot
O GitHub Copilot passou por uma grande expansão em 2026, deixando de ser uma ferramenta de sugestão de código para se tornar um ambiente de desenvolvimento multiagente. A atualização da CLI de 14 de janeiro introduziu quatro agentes paralelos especializados: Explorar (consulta rápida ao código-fonte sem sobrecarregar o contexto principal), Tarefa (execução automatizada de testes e builds com sumarização inteligente da saída) e Revisão de Código (identificação de problemas de lógica e segurança, não de preferências de estilo). Esses agentes são executados simultaneamente, comprimindo o que antes exigia transferências sequenciais em execução paralela. 15
Kiro (AWS)
Lançado em versão prévia em julho de 2025, o Kiro é um IDE orientado a especificações e baseado em agentes, que converte instruções em linguagem natural em requisitos estruturados, documentos de design técnico e tarefas de implementação sequenciais. No AWS re:Invent, em dezembro de 2025, a Amazon apresentou uma versão expandida do Kiro, capaz de funcionar de forma independente por dias, com contexto persistente entre sessões, com suporte de um Agente de Segurança da AWS (que identifica vulnerabilidades à medida que o código é escrito) e um Agente DevOps. 16
A Amazon impôs a adoção interna do Kiro em detrimento do Claude Code, com aproximadamente 70% de seus engenheiros de software tendo usado o Kiro pelo menos uma vez. No entanto, cerca de 1.500 engenheiros da Amazon assinaram uma publicação em um fórum interno defendendo o Claude Code, citando as deficiências de desempenho do Kiro como um impedimento à produtividade. Isso criou um conflito visível: os engenheiros de vendas da AWS que vendem o Claude Code por meio do Amazon Bedrock não podem usá-lo oficialmente em seus próprios projetos de produção. 17
Agentes de fluxo de trabalho de negócios
OpenAI Fronteira
A OpenAI lançou o Frontier em 2026 como uma plataforma aberta e completa para que empresas criem, implementem e gerenciem agentes de IA em diversos modelos, de qualquer fornecedor. HP, Intuit, Oracle, State Farm, Thermo Fisher e Uber estão entre os primeiros a adotá-lo. O Frontier é a resposta direta da OpenAI ao IBM WatsonX, Orchestrate, Relevance AI e Salesforce Agentforce em orquestração de agentes corporativos.
A OpenAI descontinuou seu framework Swarm e lançou um SDK de Agentes unificado e independente de provedor que suporta mais de 100 LLMs, sinalizando uma mudança de ferramentas experimentais para infraestrutura de nível de produção. 18
Principais funcionalidades: Identidade de agente definida com permissões explícitas e proteções baseadas em funções para ambientes regulamentados; avaliação de qualidade integrada e ciclos de feedback; uma camada de contexto de negócios compartilhada que conecta data warehouses, CRMs e aplicativos internos; e um ambiente de execução implantável localmente, na nuvem corporativa ou hospedado por terceiros. 19
IBM Watsonx Orchestrate
O Watsonx Orchestrate é voltado para orquestração de nível empresarial, com governança e segurança integradas. Ele foi projetado para setores regulamentados onde trilhas de auditoria e conformidade são essenciais. A contrapartida é real: prazos de implementação mais longos, custo mais elevado e a necessidade de investir no ecossistema Watsonx. Para empresas que já utilizam infraestrutura Watsonx, esta é a opção mais defensável. Para todos os outros, a sobrecarga raramente justifica a escolha.
Relevância IA
A Relevance AI combina análises integradas com fluxos de decisão. Ela obtém sucesso por meio da profunda integração com plataformas empresariais comuns, incluindo Salesforce, Slack, Notion e Google Analytics. Enquanto as plataformas horizontais oferecem flexibilidade, a Relevance proporciona um caminho mais rápido para a implementação em fluxos de trabalho existentes.
Agentes de atendimento ao cliente
Lira de Tidio
O Lyro da Tidio foca-se no chat ao vivo para pequenas e médias empresas (PMEs) com funcionalidades de atendimento automatizado. De acordo com relatos de utilizadores reais: resolve 70-80% das questões comuns sem intervenção humana e melhora com o feedback ao longo dos primeiros meses. Apresenta dificuldades em questões que exigem empatia ou julgamento. Não é a ferramenta adequada para situações complexas com clientes.
Salesforce Agentforce
A Agentforce tornou-se a plataforma dominante para agentes de atendimento ao cliente de nível empresarial. A Agentforce atingiu US$ 800 milhões em receita recorrente anual, um aumento de 169% em relação ao ano anterior. A empresa já fechou 29.000 negócios desde o seu lançamento, com um crescimento de 50% no número de negócios a cada trimestre. 20 Mais de 60% das reservas da Agentforce no quarto trimestre vieram da expansão de clientes existentes, o que sugere que o produto está oferecendo valor de produção suficiente para que os clientes expandam em vez de cancelarem.
Em uma implementação de produção na UCSF Health, o Agentforce Voice alcançou 88% de cobertura de tarefas usando treinamento baseado em simulação, um valor significativamente superior aos 60-70% típicos das abordagens tradicionais. 21
O padrão geral se repete em todas as plataformas: os agentes de atendimento ao cliente têm bom desempenho em consultas repetitivas e de alto volume, mas encontram dificuldades em tarefas que exigem discernimento, empatia ou contexto com múltiplas partes envolvidas.
Pesquisa e análise
Kompas AI
A Kompas AI é especializada em pesquisa aprofundada e geração de relatórios. Ela lê e sintetiza artigos acadêmicos, mantém as citações organizadas, monitora continuamente novas publicações e se integra com arXiv, PubMed e SSRN. A contrapartida é a velocidade: ela prioriza a precisão em detrimento da capacidade de processamento e tem um custo por consulta maior do que as IAs de uso geral. Para profissionais do conhecimento que precisam de resultados confiáveis e citados, essa compensação vale a pena.
Beam AI
O Beam AI lida com fluxos de trabalho que envolvem grande volume de documentos, especialmente em ambientes onde a extração de dados estruturados de grandes conjuntos de documentos é o principal gargalo.
Otter.ai
O Otter.ai continua sendo uma solução sólida para anotações de reuniões, mas não evoluiu muito além da transcrição e do resumo básico desde 2024. Se isso é tudo o que você precisa, ainda funciona. Se você precisa de agentes que atuem com base no conteúdo da reunião, procure outra alternativa.
Casos de uso de agentes de IA
Agentes de IA são utilizados em diversas funções e setores . Abaixo, listei algumas das maneiras mais comuns pelas quais agentes de IA estão sendo utilizados:
- Desenvolvedores
- Assistentes de SecOps
- Personagens de jogos com características humanas
- Criadores de conteúdo
- Assistentes de seguros
- Assistentes de Recursos Humanos (RH)
- Assistentes de atendimento ao cliente
- Assistentes de pesquisa
- Usuários de computador
- construtores de agentes de IA
Note que alguns desses são casos de uso de agentes , visto que a IA Agente engloba e amplia os agentes de IA tradicionais, adicionando autonomia, memória, raciocínio e comportamento orientado a objetivos.
O que diferencia os agentes realmente úteis?
Autonomia versus Controle
A decisão mais importante é quanta independência você realmente deseja. Agentes copiloto, como Cursor e Otter, mantêm a supervisão humana em decisões-chave, cuidando da pesquisa e da execução, mas exigindo aprovação antes de ações críticas. Plataformas de automação estratégica, como n8n e Make, seguem fluxos de trabalho predefinidos com mínima tomada de decisão em tempo real, o que é previsível e confiável, mas falha ao se deparar com cenários inesperados. Sistemas baseados em regras respondem a gatilhos sem compreensão contextual, não sendo realmente agentes, mas valiosos para automação direta.
A maioria das empresas em 2026 opera com agentes de nível 2 a 3. A autonomia total cria mais problemas do que soluções, a menos que você tenha implementado mecanismos de proteção robustos.
Especializado vs. Uso Geral
Agentes especializados possuem profundo conhecimento do domínio. Eles entendem os fluxos de trabalho, a terminologia e os requisitos de conformidade do setor, alcançam taxas de sucesso mais altas em seu domínio e são completamente inadequados para casos de uso adjacentes.
Plataformas horizontais como LangGraph, Watsonx Orchestrate e Relevance AI oferecem estruturas flexíveis para a criação de agentes personalizados. Elas priorizam a versatilidade em detrimento da otimização de domínio. O LangGraph concentra-se na geração de fluxos de trabalho multiagentes de nível de produção, o que é poderoso para desenvolvedores que criam sistemas complexos, mas exige conhecimento técnico. O Relevance AI é voltado para usuários de negócios com modelos predefinidos e configuração mais fácil. Agentes de pesquisa como o Kompas AI priorizam a precisão e a abrangência em detrimento da velocidade.
Profundidade de integração
A Anthropic doou o MCP para a Agentic AI Foundation da Linux Foundation, tornando-o um padrão aberto neutro em relação a fornecedores, sob o mesmo modelo de governança independente do Kubernetes e do Node.js. O MCP agora possui mais de 10.000 servidores publicados e 97 milhões de downloads mensais do SDK, com suporte de primeira classe em Claude, Cursor, GitHub Copilot, Gemini, VS Code e ChatGPT.
As integrações nativas de plataforma diferenciam os agentes focados em negócios. O Beam AI e o Relevance AI obtêm sucesso por se integrarem profundamente com o Google Analytics, Slack, Notion e Google Analytics. O valor reside menos nas capacidades de IA em si e mais no fluxo de dados contínuo. Arquiteturas com foco em APIs, como n8n e Make, permitem integrações personalizadas, mas exigem conhecimento técnico, oferecendo suporte a centenas de conectores pré-construídos e permitindo nós personalizados.
Segurança e Conformidade
Os requisitos de implantação em produção criam diferenças arquitetônicas significativas. Agentes de nível empresarial, como o WatsonX e agentes para o setor de saúde, priorizam certificações de segurança (SOC 2, ISO 27001), trilhas de auditoria, estruturas de conformidade (GDPR, HIPAA), controle de acesso baseado em funções, criptografia de dados e fluxos de trabalho de governança. Essa sobrecarga de infraestrutura aumenta os custos, mas possibilita a implantação em setores regulamentados.
Um teste notável no mundo real desses limites: em fevereiro de 2026, três agências do gabinete dos EUA ordenaram que seus funcionários parassem de usar o Claude depois que Anthropic se recusou a remover as proibições contratuais sobre vigilância doméstica em massa e armas totalmente autônomas. 22 O episódio ilustra que as decisões de governança tomadas no nível do fornecedor têm consequências operacionais diretas para os clientes empresariais em ambientes regulamentados ou adjacentes ao governo.
Ferramentas voltadas para desenvolvedores, como o LangGraph e agentes de codificação, focam em depuração, registro de logs e integração com sistemas de controle de versão, atendendo usuários técnicos que implementam sua própria segurança. Ferramentas voltadas para o consumidor final geralmente carecem completamente de recursos de conformidade corporativa.
O problema de governança que ninguém ainda resolveu.
As ferramentas de governança estão começando a acompanhar o ritmo. Diversas soluções concretas já foram lançadas:
- O Cisco AI Agent Monitor para Splunk Observability Cloud oferece rastreamento em tempo real da qualidade do fluxo de trabalho do agente, custo por execução e anomalias comportamentais, entrando em fase de testes públicos. 23
- OpenAI Na Frontier, cada agente recebe uma identidade definida com permissões explícitas, trilhas de auditoria e mecanismos de proteção, seguindo o modelo de como as empresas gerenciam o acesso de funcionários humanos. 24
- A Agentic AI Foundation (AAIF), OpenAI, Anthropic e Block cofundaram um consórcio apoiado pela Linux Foundation em dezembro de 2025 para estabelecer padrões de governança abertos e independentes de fornecedores para IA agente. AWS, Google, Microsoft, Bloomberg e Cloudflare juntaram-se como membros Platinum. Anthropic doou o MCP para a fundação, garantindo que ele permaneça um padrão aberto da indústria, em vez de um protocolo proprietário. 25
O que funciona e o que não funciona (exemplos reais)
O que realmente funciona hoje em dia
Assistência de programação no Nível 3: Combinação de cursor e Claude, usada por milhares de desenvolvedores. Cursor para fluxo de trabalho e iteração rápida, Claude para problemas complexos.
Fluxo de trabalho típico:
- Use o Cursor para 80% da codificação (implementação de funcionalidades, refatoração).
- Em caso de dúvidas, recorra a Claude Code para obter ajuda com o raciocínio arquitetônico.
- Permita que o agente execute os testes e itere sobre as falhas.
- A versão final é revisada por humanos antes da fusão.
Automação da prospecção de vendas: agentes de IA qualificam leads, agendam reuniões e enviam acompanhamentos. Empresas relatam aumento de 2 a 3 vezes na produtividade da equipe de vendas.
A Klarna designou agentes de vendas para realizar o contato inicial e a qualificação dos clientes. Os representantes humanos se concentram em negociações complexas e na construção de relacionamentos.
Atendimento ao cliente para dúvidas comuns: Agentes atendem de 70% a 80% das solicitações de rotina fora do horário comercial. Os índices de satisfação do cliente melhoraram porque as respostas são instantâneas, em vez de "entraremos em contato amanhã".
Síntese de pesquisa: Pesquisadores acadêmicos utilizam agentes para analisar novos artigos, extrair trechos relevantes e manter bancos de dados de citações. Isso economiza horas de revisão bibliográfica manual.
O que ainda não funciona
Implantação totalmente autônoma: agentes de nível 4 implantando código em produção sem aprovação humana. Muito arriscado para a maioria das empresas. Mesmo com testes extensivos, casos extremos causam problemas.
Exceção: Sistemas simples e bem delimitados, onde as falhas são recuperáveis.
Situações complexas com clientes: os atendentes se desestabilizam quando empatia, discernimento ou uma compreensão sutil são necessários. Um simples "Eu entendo sua frustração" vindo de um atendente soa vazio.
Tomada de decisão com múltiplas partes interessadas: os agentes não conseguem lidar com a política interna, compreender o contexto não verbal ou interpretar as entrelinhas em negociações comerciais.
Estratégia criativa: Os agentes conseguem executar táticas, mas não desenvolvem abordagens estratégicas inovadoras. Eles otimizam dentro de parâmetros predefinidos, mas não questionam esses parâmetros em si.
A realidade dos custos
Todos falam sobre as capacidades dos agentes. Poucos discutem a economia.
Custos diretos:
- Chamadas à API do modelo: US$ 0,003 a US$ 0,10 por 1.000 tokens (varia conforme o modelo)
- Execução de ferramentas: APIs, fontes de dados, integrações
- Infraestrutura: Hospedagem e computação para sistemas auto-hospedados
Custos ocultos:
- O uso da janela de contexto aumenta rapidamente em conversas com várias interações.
- Tentativas de execução falhas (o agente tenta, falha, tenta novamente; você paga por cada tentativa)
- Tempo de depuração e refinamento
- Infraestrutura de governança e segurança
- Treinar a equipe para trabalhar de forma eficaz com os agentes.
Organizações líderes tratam a otimização de custos de agentes como uma preocupação arquitetônica de primeira classe. Elas incorporam modelos econômicos ao projeto do agente, em vez de adaptar controles de custos após a implantação.
Exemplos de estratégias de otimização:
- Direcione consultas simples para modelos menores e mais baratos.
- Utilize o cache de prompts de forma agressiva (redução de custo de 90% para contextos repetidos).
- Implemente disjuntores para impedir agentes descontrolados.
- Monitore o uso de tokens por tarefa e otimize as solicitações.
- Processe solicitações em lote quando a latência não for crítica.
Se você está analisando a infraestrutura que viabiliza a IA ativa para a web, aqui estão nossos benchmarks mais recentes:
- Navegadores remotos : como a infraestrutura do navegador permite que os agentes interajam com a web de forma segura .
- Benchmark de navegadores MCP : Melhores servidores MCP para uso de ferramentas e acesso à web.
Uma mudança estrutural também está em curso na forma como os fornecedores precificam as ferramentas de IA. A transição da Cursor para um sistema de créditos de pool duplo e a inclusão do Claude Code nos planos Team da Anthropic refletem a normalização da IA como um custo de infraestrutura discriminado no mercado, em vez de uma despesa por consulta. As principais organizações de engenharia agora modelam o gasto de tokens no nível do fluxo de trabalho, e não por solicitação individual. 26
Seja o primeiro a comentar
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.