Contáctanos
No se encontraron resultados.

Los 10+ mejores marcos y herramientas de orquestación agenica

Hazal Şimşek
Hazal Şimşek
actualizado el Ene 27, 2026
Vea nuestra normas éticas

Comparamos cuatro marcos de trabajo basados en agentes utilizando un flujo de trabajo idéntico de planificación de viajes con cinco agentes y configuraciones LLM consistentes. Cada marco se ejecutó 100 veces y medimos la latencia de la canalización, el uso de tokens, las transiciones entre agentes y la brecha de ejecución entre agentes y herramientas para aislar la sobrecarga real de la orquestación.

Punto de referencia de orquestación agencial

Loading Chart

Todos los frameworks completaron la tarea con éxito en 100 ejecuciones cada uno. Sin embargo, LangGraph finalizó 2,2 veces más rápido que CrewAI, mientras que LangChain y AutoGen mostraron diferencias de 8 a 9 veces en la eficiencia de tokens. Esto refleja decisiones arquitectónicas fundamentales sobre cómo cada framework orquesta flujos de trabajo multiagente desde la capa de orquestación, cómo enrutan mensajes, gestionan el estado y coordinan las transferencias de agentes.

Para comprender el porqué, medimos cada fase del ciclo de vida del agente.

Rendimiento de los agentes

Agente de análisis sintáctico: El agente realiza una extracción de texto sencilla con una complejidad mínima. Todos los marcos de trabajo muestran una latencia similar.

Agente buscador de vuelos : Podemos observar diferencias significativas en la latencia y el uso de tokens. Este agente utiliza la herramienta de la API de vuelos, y observamos una notable brecha entre el inicio del agente y la llamada a la herramienta. Analizaremos esta brecha en detalle más adelante, donde veremos que 5 segundos de la latencia total de 9 segundos de CrewAI se deben a esta brecha.

Agente de información meteorológica: Observamos que el mismo patrón de clasificación se mantiene tanto para la latencia como para el uso de tokens, tal como se observó en el agente de búsqueda de vuelos.

LangChain genera muchos más tokens y una latencia mayor en comparación con otros frameworks, excepto CrewAI, cuya sobrecarga se debe principalmente a la brecha entre el agente y la herramienta. Esto se debe al enfoque de gestión de memoria de LangChain, que mantiene los pasos intermedios y el historial completo de la conversación, lo que genera sobrecarga en flujos de trabajo multiagente.

LangGraph emerge como el marco más rápido con la menor cantidad de tokens. Su arquitectura basada en grafos pasa solo los deltas de estado necesarios entre nodos en lugar de historiales de conversación completos, lo que resulta en una mínima cantidad de tokens.
uso y latencia reducida.

Agente de actividad: La mayoría de los marcos demuestran un rendimiento relativamente similar. Sin llamadas a herramientas, todos los marcos convergen a rangos similares (6-8 segundos para la latencia, 650-744 para los tokens), lo que sugiere que
La variación radica principalmente en el tiempo de generación de LLM, con una mínima sobrecarga de orquestación. Sin embargo, la verdadera diferencia de rendimiento surge en el agente del Planificador de Viajes.

Agente planificador de viajes : El agente recibe y sintetiza los resultados de los cuatro agentes anteriores (analizador, buscador de vuelos, informador meteorológico y recomendador de actividades) en cada marco. Sin embargo, cómo funciona cada marco
El manejo de esta agregación de contexto revela diferencias arquitectónicas fundamentales.

CrewAI pasa la salida completa y sin modificar de cada tarea anterior directamente al contexto del planificador a través de su sistema de parámetros de contexto. El LLM recibe los tokens completos de las salidas de los agentes anteriores más la tarea.
la descripción misma. Este enfoque no es una limitación, sino una filosofía de diseño central: CrewAI prioriza la síntesis integral y sensible al contexto, donde los agentes tienen visibilidad completa del trabajo anterior.
El resultado es un itinerario detallado de 5.339 tokens que integra exhaustivamente toda la información disponible.

LangChain, AutoGen y LangGraph manejan el contexto de manera diferente. Si bien los tres frameworks transmiten las salidas de los agentes anteriores al planificador, implementan diversas estrategias de optimización que reducen la carga acumulativa del contexto. La gestión de memoria de LangChain puede comprimir o resumir las salidas intermedias, y es posible que el framework no conserve la verbosidad completa de la respuesta de cada agente al encadenarlas. Esto da como resultado una salida de 3187 tokens más concisa que la de CrewAI, pero aún sustancial.

AutoGen muestra un comportamiento similar con 3316 tokens, lo que sugiere enfoques de manejo de contexto comparables entre estos dos marcos. La gestión de estado basada en grafos de LangGraph pasa solo el estado necesario.
deltas entre nodos, lo que da como resultado la salida más eficiente de 2589 tokens a través de sus transiciones de estado optimizadas.

Brecha entre agente y herramienta

El intervalo entre el agente y la herramienta es el tiempo que transcurre entre que un agente recibe su tarea y cuando realmente invoca la herramienta.

La pausa de 5 segundos en el buscador de vuelos de CrewAI representa el tiempo real de deliberación, mientras que otros sistemas muestran llamadas a herramientas casi instantáneas.

La arquitectura de CrewAI encarna una filosofía de agente autónomo. Cuando el agente Flight Finder recibe su tarea, no ejecuta inmediatamente la herramienta get_flights. En cambio, sigue un proceso de razonamiento:

  1. Comprender la tarea: El agente analiza qué información necesita para lograr el objetivo.
  2. Evaluación de opciones: Considera las herramientas disponibles y determina cuál es la más apropiada.
  3. Planificación del enfoque: El agente decide los parámetros y la estrategia de ejecución.
  4. Tomar acción: Finalmente, invoca la herramienta con los parámetros determinados. Este lapso de 5 segundos representa el tiempo que CrewAI dedica a "pensar" antes de actuar, una decisión de diseño que prioriza la calidad de la decisión y el razonamiento autónomo sobre la velocidad pura. Al agente no se le indica "usa esta herramienta específica"; determina de forma independiente el mejor curso de acción.

CrewAI no ofrece la opción de desactivar la deliberación y pasar a la llamada directa a herramientas.

En cambio, los frameworks LangGraph, LangChain y Autogen utilizan enfoques de ejecución directa de herramientas, logrando tiempos de ejecución inferiores a un milisegundo.

LangChain y LangGraph admiten agentes de estilo ReAct, que muestran razonamiento siguiendo el patrón «pensamiento → acción → observación». Sin embargo, el componente «Pensamiento» en ReAct se basa exclusivamente en indicaciones textuales. Por ejemplo, el LLM podría generar «Pensamiento: Debería…». Esto introduce una generación adicional de tokens, pero no crea un ciclo de deliberación independiente como el intervalo de 5 segundos de CrewAI. Estos pasos de «pensamiento» se generan dentro de la misma llamada al LLM, como parte de un único proceso de generación.

Sobrecarga de orquestación entre agentes

Medimos la latencia entre agentes calculando el tiempo promedio entre la finalización de un agente y el inicio del siguiente en 100 ejecuciones, pero las diferencias fueron mínimas, del orden de los milisegundos. Esto revela que la arquitectura del framework es más importante para los patrones de ejecución de herramientas y la gestión del contexto, no las transferencias entre agentes. Las diferencias de rendimiento entre los frameworks se deben a la deliberación de las herramientas y la síntesis del contexto, no al tiempo empleado en cambiar entre agentes.

¿Qué es la orquestación de agentes?

La orquestación agencial coordina agentes de IA autónomos dentro de un sistema unificado para completar tareas complejas y estructuradas en múltiples sistemas y dominios.

La orquestación múltiple permite que varios agentes colaboren como un equipo virtual, donde cada agente desempeña un rol específico: algunos recopilan datos, otros los analizan y unos pocos toman decisiones. La capa de orquestación garantiza que estos agentes se comuniquen, planifiquen tareas y trabajen juntos.

A diferencia de los scripts de automatización estáticos, la orquestación basada en agentes aprovecha la IA generativa y los modelos de IA para adaptarse al contexto, minimizar la necesidad de intervención humana y permitir una ejecución fluida en diversos sistemas.

Orquestación de agentes frente a orquestación LLM

En ocasiones, estos términos se utilizan indistintamente porque ambos implican la coordinación de sistemas de IA, pero difieren en su enfoque:

  • La orquestación de LLM se centra en el modelo, optimizando las interacciones y los flujos de trabajo entre múltiples modelos de lenguaje.
  • La orquestación agencial coordina agentes autónomos para resolver tareas de varios pasos en diferentes sistemas, con una mínima intervención humana.

Principios fundamentales

  1. Autonomía: Los agentes pueden actuar de forma independiente dentro de sus funciones definidas, con el apoyo de llamadas a funciones de sistemas externos.
  2. Colaboración: Múltiples agentes de IA se comunican para resolver problemas complejos, distribuir múltiples tareas y lograr la automatización integral.
  3. Alineación: Los sistemas mantienen objetivos coherentes y garantizan el cumplimiento de los requisitos organizativos y reglamentarios en industrias altamente reguladas.
  4. Observabilidad: Los registros, las herramientas de monitorización y las evaluaciones permiten una monitorización y optimización continuas.
  5. Supervisión humana: Los enfoques con intervención humana combinan la automatización con la aportación humana en contextos de alto riesgo o ambiguos.

Patrones de orquestación

La orquestación de agentes se puede clasificar en varios patrones según cómo se coordinan los agentes dentro de un sistema. Estos patrones determinan el flujo de tareas, la comunicación entre agentes y la arquitectura general del sistema.

Figura 1: Enfoques de orquestación centralizados frente a descentralizados 1

Orquestación centralizada

En este modelo, un único gestor o agente de enrutamiento se encarga de asignar tareas, controlar el flujo de trabajo y garantizar el cumplimiento de los objetivos. El gestor actúa como un centro neurálgico, dirigiendo las tareas a agentes especializados según reglas predefinidas o un plan dinámico.

Entre los patrones específicos dentro de esta categoría se incluyen:

  • Orquestación secuencial: Un flujo de trabajo lineal donde un gestor dirige las tareas a través de una secuencia fija y secuencial de agentes. Esto es ideal para procesos con dependencias claras, como los flujos de procesamiento de datos.
Figura 2: Ejemplo de orquestación secuencial 2
  • Orquestación jerárquica: una estructura escalable y por niveles donde se utiliza una relación gerente-subordinado para gestionar tareas complejas en múltiples departamentos o equipos.
Figura 3: Ejemplo de orquestación magnética 3

Orquestación descentralizada

Este patrón elimina el control centralizado, permitiendo que múltiples agentes interactúen directamente y completen una tarea compleja. Este enfoque mejora la resiliencia y ofrece mayor flexibilidad para la resolución colaborativa de problemas.

Entre los patrones específicos dentro de esta categoría se incluyen:

  • Orquestación de chat grupal: Los agentes colaboran a través de un hilo de conversación compartido, basándose en las contribuciones de los demás para llegar a una decisión o resolver un problema. Un moderador puede facilitar la discusión, pero los agentes se comunican directamente para alcanzar un consenso.
Figura 4: Ejemplo de orquestación de chat grupal 4
  • Orquestación de traspaso: Los agentes delegan tareas dinámicamente entre sí sin necesidad de un gestor central. Cada agente puede evaluar la tarea y decidir si la gestiona o la transfiere a otro agente con mayor experiencia, de forma similar a un sistema de derivación.
Figura 5: Ejemplo de orquestación de transferencia de agente 5

Orquestación federada

Este patrón resulta útil en entornos altamente regulados o distribuidos. Permite la colaboración entre diferentes departamentos o sistemas organizativos, manteniendo la gobernanza y la seguridad de los datos. A menudo combina elementos de enfoques centralizados y descentralizados para gestionar una red más amplia de agentes y sistemas.

Figura 6: Enfoque de orquestación federada 6

Herramientas y marcos de trabajo

Varios marcos de trabajo para agentes de IA proporcionan la infraestructura para flujos de trabajo basados en agentes y orquestación multiagente. Algunos de ellos incluyen:

Aquí tienes una lista completa de estas herramientas en orden alfabético:

  • LangGraph de LangChain: Proporciona un diseño modular y flujos de trabajo basados en grafos para tareas complejas y estructuradas.
  • MetaGPT de FoundationAgents: Codifica la colaboración basada en roles (por ejemplo, ingeniero de software, control de calidad) para coordinar múltiples agentes en el desarrollo de software.
  • AutoGen de Microsoft: Se centra en la colaboración conversacional entre agentes digitales, a menudo configurados como bucles planificador-ejecutor-crítico.
  • CrewAI : Organiza agentes especializados en “equipos” con objetivos específicos para cada función, lo que resulta útil para los procesos empresariales y las operaciones rutinarias.
  • SDK de agentes por OpenAI: Permite la orquestación ligera y la transferencia de agentes con llamadas a funciones de herramientas externas.
  • CAMEL-AI : Proporciona a las sociedades modulares de agentes de IA autónomos coordinadores para simulaciones a gran escala y procesos complejos.
  • Kit de desarrollo de agentes de Google: Admite la orquestación de múltiples agentes con capacidades integradas de evaluación, depuración e implementación.
  • Langroid : Implementa un modelo basado en actores para la orquestación de múltiples agentes, haciendo hincapié en la modularidad y la delegación.
  • BeeAI : Hace hincapié en la interoperabilidad mediante el protocolo de contexto del modelo y la integración de agentes de terceros para una integración perfecta.
  • Servicio de agentes de Azure AI Foundation: Permite el funcionamiento de los agentes en los entornos de desarrollo, implementación y producción, al abstraer la complejidad de la infraestructura.

Compara estos marcos de trabajo y conoce sus capacidades principales:

Protocolos de comunicación de agentes

Los marcos de orquestación de agentes de código abierto, como LangGraph, CrewAI y AutoGen, implementan sus propias convenciones para la comunicación entre agentes. Esto genera problemas de interoperabilidad al combinar agentes de diferentes marcos dentro de la misma capa de orquestación. Dos protocolos emergentes buscan solucionar este problema.

El Protocolo de Contexto de Modelo (MCP) de Anthropic estandariza la forma en que los agentes se conectan a herramientas y fuentes de datos externas. En lugar de que cada marco implemente su propia capa de integración de herramientas, MCP proporciona una interfaz común que las plataformas de orquestación pueden aprovechar para una comunicación consistente entre agentes y herramientas.

El protocolo Agente a Agente (A2A) de Google permite que los agentes basados en diferentes marcos de trabajo descubran las capacidades de los demás e intercambien mensajes. A2A está diseñado para complementar MCP: mientras que MCP gestiona las interacciones entre agentes y herramientas, A2A se centra en la colaboración entre agentes. Los agentes anuncian sus capacidades mediante "Tarjetas de Agente", que son documentos de metadatos JSON que describen la identidad, los puntos finales y las modalidades compatibles.

Por qué los protocolos son importantes para la orquestación:

  • Interoperabilidad: A2A ha obtenido el apoyo de más de 150 organizaciones, entre ellas LangChain, Salesforce y SAP, lo que permite que agentes de diferentes proveedores trabajen juntos.
  • Descubrimiento: Los agentes pueden encontrar y comprender dinámicamente las capacidades de los demás en tiempo de ejecución a través de mecanismos estandarizados.
  • Diseño complementario: Un sistema orquestado podría usar A2A para la comunicación entre agentes, mientras que cada agente internamente usa MCP para acceder a sus herramientas.
  • Complejidad reducida: Los protocolos estandarizados reducen la necesidad de adaptadores personalizados al mezclar agentes de diferentes ecosistemas.

Los marcos de trabajo que adoptan A2A o MCP pueden integrarse más fácilmente con agentes y herramientas externas, lo que reduce la dependencia de un proveedor y simplifica las implementaciones en múltiples marcos de trabajo.

Aplicaciones de orquestación agencial

La orquestación de agentes es la capacidad fundamental que transforma a los agentes individuales en un sistema cohesionado y orientado a objetivos. A continuación, se presentan aplicaciones reales donde los sistemas multiagente se coordinan para generar valor empresarial.

procesos empresariales

La orquestación basada en agentes permite la automatización integral en múltiples departamentos y sistemas. Coordina agentes especializados para gestionar flujos de trabajo complejos de varios pasos sin necesidad de transferencias manuales.

  • Recursos humanos: Coordina un equipo de agentes para gestionar todo el ciclo de vida del empleado, desde la incorporación y las preguntas y respuestas sobre políticas hasta la gestión de la plantilla y la desvinculación.
  • Incorporación de clientes:
  • Operaciones de atención al cliente: Los sistemas coordinados mejoran la calidad del servicio al gestionar las interacciones con los clientes a través de diferentes canales, con un grupo de agentes que atienden las consultas iniciales, proporcionan información de diferentes bases de datos y transfieren los problemas complejos a un operador humano para su verificación.

Explora los agentes de IA para la automatización de flujos de trabajo.

Cadena de suministro

La orquestación basada en agentes mejora la gestión de la cadena de suministro al coordinar múltiples agentes especializados para gestionar y optimizar una red compleja de planificación, aprovisionamiento, logística y gestión de inventarios.

  • Mantenimiento predictivo: Una plataforma de orquestación coordina agentes para analizar datos de equipos en tiempo real, predecir posibles fallos y activar automáticamente un agente de mantenimiento para programar una reparación o solicitar piezas nuevas.
  • Gestión de inventario: Los agentes se coordinan para realizar un seguimiento de los niveles de existencias, reordenar automáticamente los suministros cuando se alcanza un umbral y comunicarse con los agentes de logística para gestionar interrupciones en tiempo real, como retrasos en los envíos.
  • Incorporación de proveedores: Un sistema coordinado de agentes digitales gestiona todo el proceso, desde la realización de comprobaciones de cumplimiento y la generación de contratos hasta la integración de los nuevos proveedores en los flujos de trabajo existentes de la empresa.

Sistemas empresariales

La orquestación agencial proporciona la lógica central para los procesos impulsados por IA que requieren una colaboración fluida entre diferentes plataformas empresariales, como ERP, CRM y RPA.

  • De la compra al pago: Una serie de agentes coordinados gestiona todo el ciclo de adquisición, desde que un agente de compras realiza un pedido hasta que un agente de cuentas por pagar procesa la factura para su pago, lo que reduce los tiempos del ciclo y aumenta la transparencia.
  • Ciclo de pedido a cobro: Un sistema multiagente acelera todo el proceso, desde la recepción del pedido hasta el pago, coordinando a los agentes que gestionan el procesamiento, la entrega y las cuentas por cobrar, lo que mejora el flujo de caja y la satisfacción del cliente.
  • Resolución de disputas: Un flujo de trabajo coordinado automatiza el seguimiento de reclamaciones y contracargos mediante un agente que recopila información, otro que analiza la disputa y un tercero que comunica la resolución, lo que simplifica el proceso y lo hace más rápido.

Descubra cómo se utilizan los agentes de IA en los sistemas empresariales, como por ejemplo:

Servicios bancarios y financieros

En este sector, la orquestación se utiliza para flujos de trabajo complejos y sensibles al riesgo que requieren la colaboración de múltiples agentes para garantizar la precisión y el cumplimiento.

  • Cumplimiento normativo: Un sistema coordinado de agentes garantiza el cumplimiento mediante la validación de la información del cliente cotejándola con listas de vigilancia, señalando las discrepancias y manteniendo un registro de auditoría transparente de cada acción para su revisión regulatoria.
  • Tramitación de préstamos e hipotecas: Un flujo de trabajo coordinado permite a un grupo de agentes gestionar todo el proceso de aprobación del préstamo, desde la recopilación y verificación de documentos hasta la aplicación de modelos financieros y la autorización final para su revisión por un analista humano.
  • Detección y prevención de fraudes: Este es un ejemplo clásico de orquestación, donde un agente supervisa las transacciones, otro identifica y señala la actividad sospechosa, y un tercero congela la cuenta y genera un informe de incidentes para un equipo de seguridad humano.

Descubre cómo se utilizan los agentes de IA y los modelos LLM basados en agentes en el sector financiero:

Energía y servicios públicos

La orquestación basada en agentes permite la gestión de sistemas complejos y altamente distribuidos, como las redes eléctricas y la gestión de la fuerza laboral, al posibilitar que agentes especializados se comuniquen y actúen en tiempo real.

  • Gestión de la red eléctrica: Un sistema multiagente con agentes diferenciados para las centrales generadoras, los centros de distribución, los contadores inteligentes individuales y las soluciones de red inteligente trabaja conjuntamente para equilibrar la oferta y la demanda de energía, optimizar la distribución y prevenir interrupciones del suministro.
  • De la medición al cobro: Un proceso coordinado de la medición al cobro puede automatizar todo el ciclo de facturación, coordinando a los agentes que se encargan de la lectura automatizada de contadores, la generación de facturas y el cobro de pagos para mejorar la precisión y la eficiencia.
  • Gestión de la fuerza laboral: Un sistema de orquestación optimiza la forma en que se programan y despliegan los técnicos de campo, mediante la coordinación de agentes para realizar un seguimiento de la disponibilidad de los técnicos, asignar tareas en función de la ubicación y las habilidades, y proporcionar actualizaciones en tiempo real sobre el progreso del trabajo.

Telecomunicaciones

En el sector de las telecomunicaciones, la orquestación se utiliza para gestionar y automatizar redes complejas a gran escala y operaciones de cara al cliente.

  • Operaciones de red: Un sistema coordinado de agentes supervisa diferentes partes de la red para detectar automáticamente fallos, diagnosticar el problema y activar una serie de acciones para resolverlo, garantizando así la fiabilidad de la red y minimizando el tiempo de inactividad.
  • Incorporación de clientes: La orquestación acelera el proceso al permitir que los agentes se coordinen para gestionar la activación de la tarjeta SIM, la configuración del dispositivo y la habilitación del servicio, lo que proporciona una experiencia de cliente impecable de principio a fin.
  • Gestión de facturación e ingresos: Un flujo de trabajo coordinado automatiza los ajustes de facturación, los pagos y los reembolsos complejos mediante la gestión de cada paso por parte de agentes especializados, lo que aumenta la precisión y la satisfacción del cliente.

Beneficios

El 79% de los ejecutivos han adoptado agentes de IA. Sin embargo, el 19% de las empresas tienen dificultades con la coordinación. 7 La orquestación de agentes ayuda a gestionar agentes en diferentes aplicaciones. Estos son algunos de los beneficios de la orquestación de agentes:

  • Eficiencia operativa : Optimiza las operaciones rutinarias, reduce los costos y mejora la escalabilidad.
  • Agilidad operativa: Permite responder de forma dinámica a los datos y las interrupciones en tiempo real.
  • Colaboración fluida: Garantiza la cooperación entre agentes, personas y múltiples sistemas.
  • Ventajas competitivas: Fomenta la innovación al tiempo que permite que los sistemas de IA operen junto con el personal humano.
  • Mayor satisfacción: Impulsa experiencias superiores para el cliente y mejoras cuantificables en la calidad del servicio.

Desafíos

  • Gobernanza : Requiere una sólida gobernanza de datos para prevenir riesgos derivados de la interacción de múltiples agentes con sistemas diversos.
  • Cumplimiento normativo : Los sistemas deben garantizar el cumplimiento normativo en sectores altamente regulados, especialmente en finanzas y atención médica.
  • Supervisión humana : Un despliegue eficaz requiere umbrales claros para la intervención humana y la escalada de situaciones.
  • La integración sin problemas con los flujos de trabajo existentes y los sistemas heredados sigue siendo una barrera importante. Estos sistemas antiguos pueden estar construidos sobre arquitecturas obsoletas que no son compatibles con las tecnologías de IA modernas.

Metodología de evaluación comparativa

Arquitectura del flujo de trabajo


Nuestro flujo de trabajo secuencial de agentes procesa las solicitudes de viaje a través de cinco etapas:

  1. Agente de análisis sintáctico: Extrae datos estructurados de la entrada en lenguaje natural ("Quiero viajar de Berlín a Roma el 25 de octubre de 2025. Me quedaré 3 días") para identificar el origen, el destino, las fechas y la duración.
  2. Agente buscador de vuelos : Llama a la API de Amadeus para recuperar los vuelos disponibles utilizando los códigos IATA extraídos y las fechas de salida.
  3. Agente de información meteorológica: Obtiene pronósticos meteorológicos para el destino durante toda la estancia utilizando WeatherAPI.
  4. Agente recomendador de actividades: relaciona las actividades con las condiciones climáticas (museos cuando llueve, excursiones al aire libre cuando hace sol).
  5. Agente planificador de viajes: Sintetiza todos los resultados anteriores en un itinerario completo día a día con
    Vuelos, pronósticos meteorológicos y actividades recomendadas.

Variables controladas

Para garantizar una comparación justa, mantuvimos componentes idénticos en todos los marcos de trabajo:
Configuración LLM:

  • Modelo: Claude Haiku 4.5 vía OpenRouter
  • Temperatura: 0,1
  • No se imponen límites máximos de tokens a ningún agente.

Funciones de la herramienta:

  • Implementaciones idénticas en Python de get_flights() y get_weather() en todos los frameworks.
  • Llamadas externas a la API de Amadeus (vuelos) y WeatherAPI (clima).

Parámetros de prueba

  • Tamaño de la muestra : 100 ejecuciones por framework
  • Modo de ejecución : Ejecución secuencial de agentes (sin procesamiento paralelo)
  • Agregación de métricas: Valores promedio en todas las ejecuciones.

Métricas medidas

  1. Latencia de la canalización: Tiempo total de ejecución de extremo a extremo desde la entrada hasta el itinerario final.
  2. Transiciones entre agentes : Sobrecarga del sistema entre traspasos secuenciales de agentes.
  3. Latencia por agente: Tiempo de ejecución individual para cada uno de los cinco agentes.
  4. Brecha entre agente y herramienta: Tiempo transcurrido desde la inicialización del agente hasta la primera invocación de la herramienta.
  5. Uso del token: Tokens de salida generados.

Implementación de temporización: Toda la temporización se capturó utilizando time.time() de Python con precisión de milisegundos. Para cada agente, registramos la hora de inicio antes de la ejecución y la hora de finalización después de la finalización, calculando la latencia como la
diferencia. Para la ejecución de la herramienta, medimos el tiempo inmediatamente antes de llamar a la API e inmediatamente después de recibir la respuesta. Las transiciones de agente a agente capturaron el intervalo entre el momento en que un agente completa y
Cuando el marco inicia el siguiente agente, esta sobrecarga pura del marco excluye el tiempo de ejecución de LLM y de la herramienta.

Conteo de tokens: Utilizamos un enfoque de doble fuente para mayor precisión:

  1. Seguimiento integrado del marco de trabajo (cuando esté disponible):
  • LangChain: cb.total_tokens desde las funciones de devolución de llamada
  • LangGraph: Uso de tokens desde puntos de control de estado
  • AutoGen: agente.get_total_usage() a partir de los resultados del chat
  1. Estimación de Tiktoken (alternativa para Claude a través de OpenRouter)
    Dado que Claude no expone el recuento de tokens a través de OpenRouter en todos los frameworks, utilizamos tiktoken como una aproximación consistente en todas las implementaciones.

Infraestructura de observabilidad: Todas las métricas validadas a través de herramientas de observabilidad :

  • Laminar: Recopilación de trazas en tiempo real, mediciones de latencia y seguimiento de tokens.
  • AgentOps: Seguimiento de la ejecución de agentes, monitorización del rendimiento.
    Estas plataformas proporcionaron una validación de referencia para nuestra instrumentación manual, asegurando la medición.
    precisión en diferentes marcos de trabajo.

Resultados agregados como promedios de 100 ejecuciones.

Lecturas adicionales sobre la orquestación de agentes

Descubre más sobre la IA agencial consultando:

Hazal Şimşek
Hazal Şimşek
Analista de la industria
Hazal es analista del sector en AIMultiple, donde se especializa en minería de procesos y automatización de TI.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450