Los agentes de IA locales suelen describirse como offline, en el dispositivo o totalmente locales. Dedicamos tres días a mapear el ecosistema de agentes de IA locales que se ejecutan de forma autónoma en hardware personal sin depender de API externas ni servicios en la nube.
Nuestro análisis clasifica las soluciones líderes en tres áreas clave, basándose en pruebas prácticas realizadas con agentes para desarrolladores, herramientas de automatización y asistentes de productividad.
Categorización de agentes de IA locales
Categoría | Herramientas/Marcos de trabajo | Casos de uso principales (local/sin conexión) |
|---|---|---|
Desarrollador y agentes del sistema | Goose, Localforge, Devika, Roo Code (modo Boomerang), Continuar.dev, Cursor, CodeGenie, SuperCoder, Aider, Cline, Kilo Code | Codificación local, depuración, automatización de archivos/procesos, tareas locales de DevOps |
Agentes locales de automatización y control | IA de observación, uso del navegador, DeepBrowser | Control del navegador local, automatización de archivos, interacción con aplicaciones, flujos de trabajo en el dispositivo. |
Agentes de conocimiento y productividad | AnythingLLM (Escritorio), LocalGPT (Usuario único), PrivateGPT | Preguntas y respuestas sobre documentos sin conexión, resumen, búsqueda local/RAG |
Consulte las descripciones de las categorías .
1. Desarrolladores y agentes del sistema
*Tipos de ejecución:
- Totalmente local : la herramienta se ejecuta de forma nativa en hardware personal utilizando entornos de ejecución locales. Herramientas capaces de funcionar completamente sin conexión.
- Local híbrido : El modelo principal o la ejecución de tareas se realiza localmente, pero algunas características, como la integración con el IDE, la indexación de contexto, la sincronización o el razonamiento, aún dependen de servicios en la nube o API.
** Explicación de la columna "en máquina":
- Totalmente en el dispositivo: La inferencia, el razonamiento y la ejecución de las operaciones sin conexión se realizan completamente de forma local.
- Inferencia local con asistencia en la nube: el modelo principal se ejecuta localmente, pero el IDE o las funciones de administración utilizan servicios en línea.
- Ejecución local, razonamiento remoto: el código se ejecuta localmente, pero las API externas potencian los pasos de razonamiento o planificación.
Ganso
Goose es un agente de desarrollo de código abierto diseñado para funcionar completamente en hardware local. 1
Capacidades principales:
- Utiliza entornos de ejecución LLM locales para el razonamiento y la generación de código.
- Ejecuta tareas de varios pasos, como escribir, probar y depurar código.
- Interactúa directamente con el sistema de archivos local y las herramientas de desarrollo.
- No requiere conectividad de red cuando se configura con modelos locales.
Goose cumple con la definición estricta de agente autónomo local, ya que la observación, el razonamiento y la acción se producen en el propio dispositivo.
Roo Code(Modo bumerán)
Roo Code es un asistente de codificación integrado en el IDE que enfatiza el refinamiento iterativo.
- El modo bumerán permite la ejecución local de acciones.
- El razonamiento suele basarse en modelos basados en la nube.
- Las funciones de coordinación y gestión del IDE no son totalmente locales.
Como resultado, Roo Code debería clasificarse como un agente de desarrollo híbrido con intervención humana, en lugar de un sistema totalmente local.
Configuración del agente de IA local en Roo Code:
Roo Code permite a los desarrolladores crear perfiles de configuración personalizados que definen cómo se conecta a diferentes modelos de IA, incluidos los LLM alojados localmente.
Desde Configuración → Proveedores, puede agregar perfiles a través de OpenRouter u otros proveedores compatibles, y luego elegir un modelo local que se ejecute a través de Ollama o LM Studio.
Cada perfil de configuración puede almacenar sus propios parámetros, como la temperatura, la profundidad de razonamiento y los límites de tokens. Esto permite alternar entre modelos ligeros en la nube y entornos de ejecución totalmente locales para la inferencia en el dispositivo.
Cursor
Cursor permite el uso de LLM locales para la inferencia, pero sigue dependiendo de los servicios en la nube para:
- Indexación de códigos
- Editar aplicación
- Coordinación del flujo de trabajo
Por lo tanto, Cursor admite inferencia local, pero no un bucle de agente totalmente local, y no puede funcionar sin conexión.
Cómo usar un LLM local dentro de Cursor:
Fuente: Logan alucina 2
Ayudante
Aider es un asistente de codificación con IA de código abierto, basado en línea de comandos, diseñado para trabajar directamente con repositorios Git locales. Modifica el código generando parches y confirmaciones en lugar de operar a través de una interfaz IDE.
Aider se usa a menudo con modelos alojados en la nube, pero:
- La herramienta en sí se ejecuta localmente.
- Cuando se combina con un entorno de ejecución de modelo local, puede funcionar completamente en el dispositivo.
Por lo tanto, la capacidad de funcionar sin conexión depende de la elección del modelo, no es intrínseca a la herramienta.
2. Agentes locales de automatización y control
IA observadora
Observer AI es un marco de trabajo de código abierto para agentes de automatización local.
Características principales:
- Ejecuta agentes utilizando LLM locales
- Observa el estado de la pantalla mediante OCR o capturas de pantalla.
- Ejecuta código Python a través de un entorno de ejecución integrado.
- No requiere conexión a la nube.
La IA de observador proporciona la infraestructura para el comportamiento del agente en lugar de una política fija para el agente, y se describe mejor como un marco de bucle de control local.
Uso del navegador
Browser-Use permite la interacción con el navegador mediante inteligencia artificial a través de Playwright.
- Las acciones del navegador se ejecutan localmente.
- El razonamiento puede realizarse utilizando modelos locales o remotos.
- El funcionamiento sin conexión solo es posible cuando se combina con la inferencia local.
Esto sitúa a Browser-Use firmemente en la categoría de automatización híbrida por defecto.
Cómo usar un LLM local dentro del navegador:
Un método para instalarlo es usar el comando pip install browser-use, que configura tanto la interfaz de Python como el control del navegador local en la misma máquina.
Cuando se ejecute posteriormente (por ejemplo, con python -m browser_use), abrirá y controlará una instancia del navegador localmente, ejecutando acciones y razonamientos ya sea a través de un LLM local (por ejemplo, a través de Ollama) o a través de API conectadas:
Configuración del navegador: uso local 3
Para aquellos que quieran ver la configuración completa en acción, aquí tienen una guía en vídeo paso a paso que muestra cómo instalar y ejecutar Browser-Use en un equipo local:
El tutorial abarca todo, desde la instalación de dependencias como Playwright y LangChain hasta la conexión de Browser-Use con un modelo local a través de Ollama. 4
Para obtener más información, consulte nuestra comparativa sobre las capacidades de uso de las herramientas del navegador .
3. Agentes de conocimiento y productividad
Cualquier cosaLLM (Escritorio)
Cuando se configura con modelos locales, AnythingLLM Desktop:
- Realiza la indexación de documentos localmente.
- Ejecuta el razonamiento del agente en el dispositivo.
- Admite funciones limitadas (por ejemplo, escritura de archivos).
- No requiere conectividad a la nube.
Si bien su autonomía es limitada en comparación con la de los agentes del sistema, se puede considerar un agente de productividad local según una definición de tarea restringida.
Un ejemplo de uso de un agente de IA local
Probamos AnythingLLM Desktop para ver cómo funciona un agente local en el dispositivo, desde la configuración hasta el resultado final.
1. Configuración del espacio de trabajo
Abrimos la configuración del espacio de trabajo y fuimos a Configuración del agente.
Allí, elegimos un proveedor de LLM y seleccionamos el modelo mistral-medium-2505.
Tras hacer clic en Actualizar agente del espacio de trabajo, el espacio de trabajo confirmó que la configuración se había completado.
2. Habilitar las habilidades del agente
A continuación, abrimos el panel Configurar habilidades del agente.
Este menú le permite habilitar las funciones integradas del agente con un solo clic. No se requiere programación.
3. Probar la habilidad “Guardar Files”
Hemos habilitado la habilidad Guardar Files, lo que permite al agente escribir los resultados directamente en la máquina local.
Tras encenderlo y guardar el cambio, el agente estaba listo.
Para probarlo, volvimos a la ventana de chat y utilizamos uno de los ejemplos de mensajes que aparecen en la documentación.
Esto confirmó que el agente podía generar un archivo y prepararlo para guardarlo localmente.
4. Ejecutar el agente en el chat
Le pedimos al agente que resumiera un tema histórico y lo invocamos usando @agent.
Modificamos el comando para guardar la salida como un archivo de texto simple en lugar de un PDF.
El sistema confirmó que el modo de chat con el agente estaba activo y mostró cómo salir del bucle.
El agente elaboró el resumen y preparó el archivo para su guardado.
5. Guardar el archivo localmente
Para guardar la salida, utilizamos el comando de ejemplo de la documentación de AnythingLLM:
“¿@agent puede guardar esta información como un PDF en la carpeta de mi escritorio?”
Utilizamos la misma estructura en el chat, pero para un archivo de texto.
Se abrió una ventana del explorador de archivos y guardamos el resultado en el dispositivo.
El archivo apareció en la carpeta Descargas, lo que indica que todo el proceso, el razonamiento, la ejecución y el guardado se realizaron íntegramente en el dispositivo.
Descripciones de categorías de agentes de IA locales
- Agentes de desarrollador y de sistema (capa de acción): Agentes que se ejecutan directamente en su dispositivo para realizar tareas de codificación, automatización del sistema y del flujo de trabajo de forma local.
- Agentes de automatización y control local: Agentes que automatizan acciones del mundo real en su máquina controlando el navegador, la interfaz de usuario o el sistema operativo.
- Agentes de conocimiento y productividad: Asistentes locales para chatear, resumir y gestionar documentos sin enviar datos a la nube.
Capas arquitectónicas en la pila de agentes locales
- Capa de acción (agentes) : Sistemas que observan el estado, invocan herramientas y actúan sobre el entorno local.
- Capa de razonamiento y orquestación (marcos de trabajo) : Bibliotecas como LangGraph o LlamaIndex que brindan soporte para la planificación, la memoria y la coordinación. Estas no son agentes en sí mismas.
- Capa de ejecución (entornos de ejecución locales) : Entornos de ejecución de modelos como Ollama o LM Studio que permiten la inferencia local.
Orientación práctica
Los sistemas de IA locales deben ensamblarse de forma incremental:
- Si se requiere inferencia sin conexión, comience con un entorno de ejecución local.
- Agregue una capa de conocimiento solo cuando sea necesario comprender el documento.
- Introduzca agentes de automatización o control cuando se requieran acciones en el mundo real.
- Utilice los marcos de orquestación únicamente para flujos de trabajo complejos de varios pasos.
En la mayoría de los casos, una arquitectura completamente organizada en capas es innecesaria.
Cómo abordar la pila de agentes de IA local
Comience con el conjunto mínimo de capas que requiera su caso de uso. Si su agente necesita razonamiento sin conexión, empiece con un entorno de ejecución local como Ollama o LM Studio. Si necesita comprender sus archivos, añada una capa de conocimiento como AnythingLLM o LocalGPT. Para los agentes que deben realizar acciones (abrir aplicaciones, controlar el navegador, gestionar archivos), añada una capa de automatización local. Utilice marcos de trabajo como LangGraph o LlamaIndex solo cuando necesite flujos de trabajo de varios pasos, bucles de planificación o cadenas de herramientas complejas.
Preguntas frecuentes
Los agentes de IA locales operan de forma autónoma en hardware personal sin depender de API externas ni de infraestructura en la nube.
Sé el primero en comentar
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.