Servicios
Contáctanos
No se encontraron resultados.

Agentes de IA locales: Goose, Observer AI, AnythingLLM

Cem Dilmegani
Cem Dilmegani
actualizado el Ene 28, 2026
Vea nuestra normas éticas

Los agentes de IA locales suelen describirse como offline, en el dispositivo o totalmente locales. Dedicamos tres días a mapear el ecosistema de agentes de IA locales que se ejecutan de forma autónoma en hardware personal sin depender de API externas ni servicios en la nube.

Nuestro análisis clasifica las soluciones líderes en tres áreas clave, basándose en pruebas prácticas realizadas con agentes para desarrolladores, herramientas de automatización y asistentes de productividad.

Categorización de agentes de IA locales

Categoría
Herramientas/Marcos de trabajo
Casos de uso principales (local/sin conexión)
Desarrollador y agentes del sistema
Goose, Localforge, Devika, Roo Code (modo Boomerang), Continuar.dev, Cursor, CodeGenie, SuperCoder, Aider, Cline, Kilo Code
Codificación local, depuración, automatización de archivos/procesos, tareas locales de DevOps
Agentes locales de automatización y control
IA de observación, uso del navegador, DeepBrowser
Control del navegador local, automatización de archivos, interacción con aplicaciones, flujos de trabajo en el dispositivo.
Agentes de conocimiento y productividad
AnythingLLM (Escritorio), LocalGPT (Usuario único), PrivateGPT
Preguntas y respuestas sobre documentos sin conexión, resumen, búsqueda local/RAG

Consulte las descripciones de las categorías .

1. Desarrolladores y agentes del sistema

*Tipos de ejecución:

  • Totalmente local : la herramienta se ejecuta de forma nativa en hardware personal utilizando entornos de ejecución locales. Herramientas capaces de funcionar completamente sin conexión.
  • Local híbrido : El modelo principal o la ejecución de tareas se realiza localmente, pero algunas características, como la integración con el IDE, la indexación de contexto, la sincronización o el razonamiento, aún dependen de servicios en la nube o API.

** Explicación de la columna "en máquina":

  • Totalmente en el dispositivo: La inferencia, el razonamiento y la ejecución de las operaciones sin conexión se realizan completamente de forma local.
  • Inferencia local con asistencia en la nube: el modelo principal se ejecuta localmente, pero el IDE o las funciones de administración utilizan servicios en línea.
  • Ejecución local, razonamiento remoto: el código se ejecuta localmente, pero las API externas potencian los pasos de razonamiento o planificación.

Ganso

Goose es un agente de desarrollo de código abierto diseñado para funcionar completamente en hardware local. 1

Capacidades principales:

  • Utiliza entornos de ejecución LLM locales para el razonamiento y la generación de código.
  • Ejecuta tareas de varios pasos, como escribir, probar y depurar código.
  • Interactúa directamente con el sistema de archivos local y las herramientas de desarrollo.
  • No requiere conectividad de red cuando se configura con modelos locales.

Goose cumple con la definición estricta de agente autónomo local, ya que la observación, el razonamiento y la acción se producen en el propio dispositivo.

Roo Code(Modo bumerán)

Roo Code es un asistente de codificación integrado en el IDE que enfatiza el refinamiento iterativo.

  • El modo bumerán permite la ejecución local de acciones.
  • El razonamiento suele basarse en modelos basados en la nube.
  • Las funciones de coordinación y gestión del IDE no son totalmente locales.

Como resultado, Roo Code debería clasificarse como un agente de desarrollo híbrido con intervención humana, en lugar de un sistema totalmente local.

Configuración del agente de IA local en Roo Code:

Roo Code permite a los desarrolladores crear perfiles de configuración personalizados que definen cómo se conecta a diferentes modelos de IA, incluidos los LLM alojados localmente.

Desde Configuración → Proveedores, puede agregar perfiles a través de OpenRouter u otros proveedores compatibles, y luego elegir un modelo local que se ejecute a través de Ollama o LM Studio.

Cada perfil de configuración puede almacenar sus propios parámetros, como la temperatura, la profundidad de razonamiento y los límites de tokens. Esto permite alternar entre modelos ligeros en la nube y entornos de ejecución totalmente locales para la inferencia en el dispositivo.

Cursor

Cursor permite el uso de LLM locales para la inferencia, pero sigue dependiendo de los servicios en la nube para:

  • Indexación de códigos
  • Editar aplicación
  • Coordinación del flujo de trabajo

Por lo tanto, Cursor admite inferencia local, pero no un bucle de agente totalmente local, y no puede funcionar sin conexión.

Cómo usar un LLM local dentro de Cursor:

Fuente: Logan alucina 2

Ayudante

Aider es un asistente de codificación con IA de código abierto, basado en línea de comandos, diseñado para trabajar directamente con repositorios Git locales. Modifica el código generando parches y confirmaciones en lugar de operar a través de una interfaz IDE.

Aider se usa a menudo con modelos alojados en la nube, pero:

  • La herramienta en sí se ejecuta localmente.
  • Cuando se combina con un entorno de ejecución de modelo local, puede funcionar completamente en el dispositivo.

Por lo tanto, la capacidad de funcionar sin conexión depende de la elección del modelo, no es intrínseca a la herramienta.

2. Agentes locales de automatización y control

IA observadora

Observer AI es un marco de trabajo de código abierto para agentes de automatización local.

Características principales:

  • Ejecuta agentes utilizando LLM locales
  • Observa el estado de la pantalla mediante OCR o capturas de pantalla.
  • Ejecuta código Python a través de un entorno de ejecución integrado.
  • No requiere conexión a la nube.

La IA de observador proporciona la infraestructura para el comportamiento del agente en lugar de una política fija para el agente, y se describe mejor como un marco de bucle de control local.

Uso del navegador

Browser-Use permite la interacción con el navegador mediante inteligencia artificial a través de Playwright.

  • Las acciones del navegador se ejecutan localmente.
  • El razonamiento puede realizarse utilizando modelos locales o remotos.
  • El funcionamiento sin conexión solo es posible cuando se combina con la inferencia local.

Esto sitúa a Browser-Use firmemente en la categoría de automatización híbrida por defecto.

Cómo usar un LLM local dentro del navegador:

Un método para instalarlo es usar el comando pip install browser-use, que configura tanto la interfaz de Python como el control del navegador local en la misma máquina.

Cuando se ejecute posteriormente (por ejemplo, con python -m browser_use), abrirá y controlará una instancia del navegador localmente, ejecutando acciones y razonamientos ya sea a través de un LLM local (por ejemplo, a través de Ollama) o a través de API conectadas:

Configuración del navegador: uso local 3

Para aquellos que quieran ver la configuración completa en acción, aquí tienen una guía en vídeo paso a paso que muestra cómo instalar y ejecutar Browser-Use en un equipo local:

El tutorial abarca todo, desde la instalación de dependencias como Playwright y LangChain hasta la conexión de Browser-Use con un modelo local a través de Ollama. 4

Para obtener más información, consulte nuestra comparativa sobre las capacidades de uso de las herramientas del navegador .

3. Agentes de conocimiento y productividad

Cualquier cosaLLM (Escritorio)

Cuando se configura con modelos locales, AnythingLLM Desktop:

  • Realiza la indexación de documentos localmente.
  • Ejecuta el razonamiento del agente en el dispositivo.
  • Admite funciones limitadas (por ejemplo, escritura de archivos).
  • No requiere conectividad a la nube.

Si bien su autonomía es limitada en comparación con la de los agentes del sistema, se puede considerar un agente de productividad local según una definición de tarea restringida.

Un ejemplo de uso de un agente de IA local

Probamos AnythingLLM Desktop para ver cómo funciona un agente local en el dispositivo, desde la configuración hasta el resultado final.

1. Configuración del espacio de trabajo

Abrimos la configuración del espacio de trabajo y fuimos a Configuración del agente.
Allí, elegimos un proveedor de LLM y seleccionamos el modelo mistral-medium-2505.
Tras hacer clic en Actualizar agente del espacio de trabajo, el espacio de trabajo confirmó que la configuración se había completado.

2. Habilitar las habilidades del agente

A continuación, abrimos el panel Configurar habilidades del agente.
Este menú le permite habilitar las funciones integradas del agente con un solo clic. No se requiere programación.

3. Probar la habilidad “Guardar Files”

Hemos habilitado la habilidad Guardar Files, lo que permite al agente escribir los resultados directamente en la máquina local.
Tras encenderlo y guardar el cambio, el agente estaba listo.

Para probarlo, volvimos a la ventana de chat y utilizamos uno de los ejemplos de mensajes que aparecen en la documentación.
Esto confirmó que el agente podía generar un archivo y prepararlo para guardarlo localmente.

4. Ejecutar el agente en el chat

Le pedimos al agente que resumiera un tema histórico y lo invocamos usando @agent.
Modificamos el comando para guardar la salida como un archivo de texto simple en lugar de un PDF.

El sistema confirmó que el modo de chat con el agente estaba activo y mostró cómo salir del bucle.
El agente elaboró el resumen y preparó el archivo para su guardado.

5. Guardar el archivo localmente

Para guardar la salida, utilizamos el comando de ejemplo de la documentación de AnythingLLM:
“¿@agent puede guardar esta información como un PDF en la carpeta de mi escritorio?”
Utilizamos la misma estructura en el chat, pero para un archivo de texto.

Se abrió una ventana del explorador de archivos y guardamos el resultado en el dispositivo.
El archivo apareció en la carpeta Descargas, lo que indica que todo el proceso, el razonamiento, la ejecución y el guardado se realizaron íntegramente en el dispositivo.

Descripciones de categorías de agentes de IA locales

  • Agentes de desarrollador y de sistema (capa de acción): Agentes que se ejecutan directamente en su dispositivo para realizar tareas de codificación, automatización del sistema y del flujo de trabajo de forma local.
  • Agentes de automatización y control local: Agentes que automatizan acciones del mundo real en su máquina controlando el navegador, la interfaz de usuario o el sistema operativo.
  • Agentes de conocimiento y productividad: Asistentes locales para chatear, resumir y gestionar documentos sin enviar datos a la nube.

Capas arquitectónicas en la pila de agentes locales

  • Capa de acción (agentes) : Sistemas que observan el estado, invocan herramientas y actúan sobre el entorno local.
  • Capa de razonamiento y orquestación (marcos de trabajo) : Bibliotecas como LangGraph o LlamaIndex que brindan soporte para la planificación, la memoria y la coordinación. Estas no son agentes en sí mismas.
  • Capa de ejecución (entornos de ejecución locales) : Entornos de ejecución de modelos como Ollama o LM Studio que permiten la inferencia local.

Orientación práctica

Los sistemas de IA locales deben ensamblarse de forma incremental:

  1. Si se requiere inferencia sin conexión, comience con un entorno de ejecución local.
  2. Agregue una capa de conocimiento solo cuando sea necesario comprender el documento.
  3. Introduzca agentes de automatización o control cuando se requieran acciones en el mundo real.
  4. Utilice los marcos de orquestación únicamente para flujos de trabajo complejos de varios pasos.

En la mayoría de los casos, una arquitectura completamente organizada en capas es innecesaria.

Cómo abordar la pila de agentes de IA local

Comience con el conjunto mínimo de capas que requiera su caso de uso. Si su agente necesita razonamiento sin conexión, empiece con un entorno de ejecución local como Ollama o LM Studio. Si necesita comprender sus archivos, añada una capa de conocimiento como AnythingLLM o LocalGPT. Para los agentes que deben realizar acciones (abrir aplicaciones, controlar el navegador, gestionar archivos), añada una capa de automatización local. Utilice marcos de trabajo como LangGraph o LlamaIndex solo cuando necesite flujos de trabajo de varios pasos, bucles de planificación o cadenas de herramientas complejas.

Preguntas frecuentes

Los agentes de IA locales operan de forma autónoma en hardware personal sin depender de API externas ni de infraestructura en la nube.

Cem Dilmegani
Cem Dilmegani
Analista principal
Cem ha sido el analista principal de AIMultiple desde 2017. AIMultiple informa a cientos de miles de empresas (según similarWeb), incluyendo el 55% de las empresas Fortune 500 cada mes. El trabajo de Cem ha sido citado por importantes publicaciones globales como Business Insider, Forbes, Washington Post, firmas globales como Deloitte, HPE y ONG como el Foro Económico Mundial y organizaciones supranacionales como la Comisión Europea. Puede consultar más empresas y recursos de renombre que citan a AIMultiple. A lo largo de su carrera, Cem se desempeñó como consultor, comprador y emprendedor tecnológico. Asesoró a empresas en sus decisiones tecnológicas en McKinsey & Company y Altman Solon durante más de una década. También publicó un informe de McKinsey sobre digitalización. Lideró la estrategia y adquisición de tecnología de una empresa de telecomunicaciones, reportando directamente al CEO. Asimismo, lideró el crecimiento comercial de la empresa de tecnología avanzada Hypatos, que alcanzó ingresos recurrentes anuales de siete cifras y una valoración de nueve cifras partiendo de cero en tan solo dos años. El trabajo de Cem en Hypatos fue reseñado por importantes publicaciones tecnológicas como TechCrunch y Business Insider. Cem participa regularmente como ponente en conferencias internacionales de tecnología. Se graduó en ingeniería informática por la Universidad de Bogazici y posee un MBA de la Columbia Business School.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450