Contáctanos
No se encontraron resultados.

Las 15 mejores plataformas y bibliotecas de IA de código abierto

Cem Dilmegani
Cem Dilmegani
actualizado el Mar 4, 2026
Vea nuestra normas éticas

Implementar un modelo de IA propio o, en algunos casos, ajustar modelos preexistentes conlleva varios desafíos:

  • Elegir un proveedor de servicios en la nube : Es posible que te integres profundamente con un proveedor, solo para descubrir que es difícil cambiar más adelante cuando sea necesario.
  • Escasez de recursos de GPU : Si su implementación se limita a una ubicación geográfica, es posible que experimente escasez de recursos de GPU disponibles debido a la alta demanda en esa región.
  • Dependencia de la nube y escalabilidad : Muchas plataformas te vinculan a servicios en la nube específicos.

Las plataformas de código abierto que ofrecen API unificadas ayudan a abordar estos desafíos al permitir la implementación en múltiples nubes y optimizar la gestión de recursos de GPU. A continuación, enumeramos 15 ejemplos de plataformas/bibliotecas de código abierto:

Breve descripción general de las plataformas y bibliotecas de código abierto.

A la hora de elegir estas plataformas, nos centramos principalmente en su escalabilidad, su facilidad de integración y si están preparadas para su uso en entornos empresariales.

Puedes hacer clic en los enlaces para explorar explicaciones detalladas de cada uno:

1. Marcos de aprendizaje automático:

  • TensorFlow : Una biblioteca para el entrenamiento de aprendizaje automático a gran escala y su implementación en producción. Permite el entrenamiento de modelos en CPU, GPU y TPU.
  • PyTorch : Un marco de aprendizaje profundo en Python con gráficos computacionales dinámicos. Ideal para investigación y experimentación en aprendizaje profundo. Soporte limitado para TPU.
  • JAX : Una plataforma para computación numérica de alto rendimiento e investigación en aprendizaje automático. Su objetivo es la ejecución rápida de cálculos numéricos en CPU, GPU y TPU.
  • Keras : Una API de alto nivel para el aprendizaje profundo que se ejecuta sobre frameworks como TensorFlow. Tiene una sintaxis fácil de usar para principiantes.
  • Scikit-learn : Una biblioteca de Python de código abierto para tareas clásicas de aprendizaje automático como clasificación, regresión y agrupamiento. Ofrece una API fácil de usar. Funciona bien con conjuntos de datos pequeños y medianos.

2. AutoML y plataformas de aprendizaje automático distribuido:

  • H2O.ai : Una plataforma distribuida para automatizar flujos de trabajo de aprendizaje automático en big data.
  • MLflow : Una plataforma para gestionar el ciclo de vida del aprendizaje automático. Permite el seguimiento de experimentos, el empaquetado de modelos y funciona con TensorFlow, PyTorch, scikit-learn y R.

3. Ecosistemas de modelos de lenguaje a gran escala (LLM):

  • Hugging Face Transformers : Una plataforma/biblioteca con más de 63 000 modelos preentrenados para tareas de texto, visión, audio y multimodales. Se integra con TensorFlow, PyTorch y JAX.
  • GPT4All : Un ecosistema para ejecutar modelos LLM localmente en CPU o GPU, en línea o fuera de línea. Admite más de 1000 modelos como LLaMA, Mistral y DeepSeek R1.
  • Open WebUI : Interfaz web autohospedada para interactuar con LLM que admite múltiples proveedores de modelos, recuperación basada en documentos (RAG) y complementos extensibles.

4. Plataformas de IA conversacional:

  • Rasa : Plataforma para la creación de chatbots y asistentes virtuales. Ofrece herramientas para la revisión, el etiquetado y la colaboración en conversaciones.
  • Botpress : Plataforma con diseño de flujo visual e integraciones GPT. Combina la creación mediante arrastrar y soltar con la personalización a nivel de código.

5. Plataformas de agentes:

  • Langchain Deep Agents : Proporciona un marco para la creación de agentes de IA con capacidades de planificación de tareas, delegación de subagentes, memoria persistente e integración de herramientas.
  • OpenAgents : Permite que las redes de agentes de IA se descubran entre sí, se comuniquen y colaboren en tareas mediante una arquitectura modular y protocolos de comunicación estandarizados.
  • OpenClaw : Actúa como una puerta de enlace autoalojada que conecta modelos de IA con plataformas de mensajería, lo que permite a los usuarios automatizar tareas.

1. Marcos de aprendizaje automático

TensorFlow

Un ejemplo de plataformas de IA de código abierto: el panel de control de TensorFlow

TensorFlow, desarrollado por el equipo Brain (Google), es una biblioteca de código abierto para computación numérica y aprendizaje automático a gran escala . Utiliza grafos de flujo de datos (un diagrama donde las operaciones son nodos y los datos fluyen a lo largo de líneas de conexión) para construir modelos, lo que la hace escalable y adecuada para la producción.

TensorFlow admite múltiples tipos de hardware, incluyendo CPU y GPU, lo que permite su implementación en sistemas web, móviles, de borde y empresariales.

  • Abstracción con Keras : TensorFlow se integra con Keras, una API de alto nivel que reduce la complejidad en la creación y el entrenamiento de modelos. Esto facilita el inicio para los principiantes, a la vez que ofrece opciones de personalización.
  • Preparación para la producción : TensorFlow se utiliza ampliamente en entornos de producción. Admite la computación distribuida (ejecución simultánea en varias máquinas) y ofrece herramientas de implementación como TensorFlow Serving, TensorFlow Lite y TensorFlow.js.
  • TensorBoard : Incluye TensorBoard, una herramienta de visualización para monitorizar el entrenamiento, el rendimiento y la estructura del modelo. Resulta útil para la depuración y la optimización.

Limitaciones de TensorFlow

  • Centrado principalmente en datos numéricos : TensorFlow es bueno para el cálculo numérico (por ejemplo, datos de imágenes, texto y señales), pero es menos eficaz para tareas de razonamiento simbólico, como el procesamiento de reglas o el razonamiento de grafos de conocimiento.

PyTorch

PyTorch, desarrollada por el laboratorio de investigación de IA de Facebook, es una biblioteca de código abierto para el aprendizaje automático y el aprendizaje profundo .

  • Madurez del ecosistema: PyTorch respalda la investigación con gráficos computacionales dinámicos e interoperabilidad de modelos a través de ONNX.
    • El despliegue en producción se gestiona cada vez más mediante plataformas de servicio externas como vLLM y Triton Inference Server. Las herramientas anteriores, como TorchServe , que se utilizaban para el despliegue de modelos, se han archivado y ya no reciben mantenimiento activo.
  • Gráficos computacionales dinámicos : Permiten realizar cambios en la arquitectura del modelo durante la ejecución, lo que posibilita la flexibilidad para la experimentación y la investigación.
  • Facilidad de depuración : Al igual que un lenguaje de programación, PyTorch proporciona mensajes de error detallados y admite la depuración paso a paso.
  • PyTorch Lightning : Una capa de abstracción desarrollada por la comunidad que simplifica el código de PyTorch mediante abstracciones de alto nivel. Aunque no forma parte oficialmente de PyTorch, mejora la usabilidad y a menudo se compara con Keras de TensorFlow.

Limitaciones de PyTorch

  • Centrado principalmente en el aprendizaje profundo : PyTorch está altamente optimizado para redes neuronales profundas, pero puede ser menos versátil para tareas de IA más amplias, como el modelado probabilístico.

JAX

JAX se presentó públicamente alrededor de 2018 y fue desarrollado por la comunidad Google+.

El nombre significa "Just Another XLA" (Solo otro XLA), donde XLA se refiere a Álgebra Lineal Acelerada. JAX es reconocido por su capacidad para el cálculo numérico y la diferenciación automática.

  • Diferenciación automática: JAX puede calcular automáticamente cuánto debe ajustarse cada parámetro de un modelo para mejorar la precisión.
    • Este proceso se denomina retropropagación (comparar la predicción del modelo con el resultado correcto y, a continuación, propagar el error hacia atrás a través de la red para actualizar sus parámetros).
    • Al automatizar estos cálculos, JAX elimina la necesidad de codificar manualmente los gradientes.
  • Aceleración por hardware : Se ejecuta en CPU, GPU y TPU.
  • Paralelización y vectorización : Distribuye automáticamente las cargas de trabajo entre varios dispositivos, mejorando la escalabilidad.

Limitaciones de JAX

  • Ecosistema más pequeño : En comparación con TensorFlow o PyTorch, JAX tiene menos bibliotecas y tutoriales de terceros.
  • Herramientas de producción limitadas : Carece de un conjunto maduro de herramientas de implementación listas para la producción.

Nota: Si bien no son plataformas de IA completas, las bibliotecas como Keras (una API de alto nivel para el aprendizaje profundo) y Scikit-learn (para el aprendizaje automático clásico) suelen incluirse en herramientas de IA de código abierto:

Keras

Keras es una API de alto nivel para construir y entrenar modelos de aprendizaje profundo . Se ejecuta principalmente sobre TensorFlow, aunque también puede integrarse con otros backends. Su API de alto nivel es intuitiva para principiantes, pero lo suficientemente flexible para el desarrollo de redes neuronales más complejas.

  • Flexibilidad del backend : Se ejecuta sobre múltiples backends como TensorFlow y PyTorch.
  • Implementación eficiente : Admite la compilación XLA (álgebra lineal acelerada) para un entrenamiento e inferencia de modelos más rápidos.

Limitaciones de Keras

  • Control de nivel inferior : Proporciona un control menos preciso en comparación con el uso directo de bibliotecas de backend como TensorFlow o PyTorch.
  • Enfoque limitado : Diseñado principalmente para el aprendizaje profundo.

Scikit-learn

Scikit-learn (a menudo llamado sklearn) es una biblioteca de Python de código abierto para el aprendizaje automático . Está construida sobre NumPy (cálculo numérico) y Matplotlib (visualización de datos), y proporciona una amplia gama de herramientas para el preprocesamiento, modelado y evaluación de datos.

La biblioteca se centra en tareas fundamentales de aprendizaje automático, como la clasificación, la regresión y la agrupación.

  • Amplia cobertura de algoritmos : Implementa la mayoría de las técnicas clásicas de aprendizaje automático, incluyendo regresión lineal, árboles de decisión, máquinas de vectores de soporte (SVM), k-medias y métodos de conjunto.
  • Integración : Desarrollado sobre NumPy y SciPy, es compatible con el ecosistema más amplio de ciencia de datos de Python.

Limitaciones de Scikit-learn

  • No es adecuado para el aprendizaje profundo : a diferencia de TensorFlow o PyTorch, no maneja redes neuronales ni tareas de aprendizaje profundo a gran escala.
  • Limitaciones de rendimiento : Optimizado para conjuntos de datos pequeños y medianos; menos eficiente para datos a muy gran escala en comparación con los marcos de trabajo distribuidos.
  • Menos especializado para la producción : Diseñado principalmente para la investigación y la creación de prototipos, en lugar de para su implementación a gran escala.

2. AutoML y plataformas de aprendizaje automático distribuido

H2O.ai

H2O.ai es una plataforma de aprendizaje automático distribuida en memoria . Admite algoritmos estadísticos y de aprendizaje automático ampliamente utilizados, como máquinas de potenciación de gradiente (GBM), modelos lineales generalizados (GLM) y aprendizaje profundo.

  • Flujos de trabajo automatizados: Ejecuta el proceso completo de aprendizaje automático (entrenamiento, ajuste y evaluación de múltiples modelos) dentro de un límite de tiempo definido por el usuario.
  • Procesamiento distribuido en memoria: Los datos se procesan en múltiples nodos (máquinas o servidores) en una red, y cada nodo almacena parte de los datos en la memoria (RAM) en lugar de depender del almacenamiento en disco, que es más lento. Por lo tanto, si se analizan terabytes de datos, tenerlos en memoria permite realizar cálculos más rápidos.

Limitaciones de H2O.ai

  • Requiere muchos recursos : El diseño distribuido en memoria puede requerir importantes recursos computacionales.
  • Menor flexibilidad para la investigación : optimizado para flujos de trabajo de aprendizaje automático aplicado y AutoML. No es adecuado para tareas de investigación personalizadas.

MLflow

MLflow es una plataforma de código abierto diseñada para apoyar el desarrollo de modelos de aprendizaje automático y aplicaciones de IA generativa. Tiene cuatro componentes principales:

  • Seguimiento : Permite realizar un seguimiento de los experimentos registrando parámetros, métricas y resultados, lo que facilita la comparación de diferentes ejecuciones.
  • Modelos : Ofrece herramientas para empaquetar, gestionar e implementar modelos de diversas bibliotecas de aprendizaje automático en múltiples entornos de servicio e inferencia.
  • Evaluación y seguimiento de agentes de IA : Ayuda a los desarrolladores a crear agentes de IA fiables al proporcionar capacidades para evaluar, comparar y depurar el comportamiento de los agentes.
  • Registro de modelos : Facilita la gestión del ciclo de vida de los modelos, incluyendo el control de versiones, las transiciones entre fases (de preproducción a producción) y las anotaciones.

Las características incluyen:

  • Seguimiento de experimentos : Registra y compara parámetros, métricas, artefactos y resultados, para que los equipos puedan reproducir experimentos e identificar los modelos con mejor rendimiento.
  • Registro de modelos : Repositorio centralizado para gestionar el ciclo de vida del modelo, incluyendo el control de versiones (mantener diferentes versiones guardadas de un modelo) y las anotaciones (añadir notas o metadatos para contextualizar).
  • Amplio soporte para marcos de trabajo y API : Compatible con Python, Java, R y API REST, e integra con marcos de trabajo de aprendizaje automático populares como Scikit-learn, TensorFlow, PyTorch y XGBoost.

Limitaciones de MLflow

  • Complejidad de escalado: Ejecutar MLflow a gran escala requiere una infraestructura significativa (bases de datos, servidores de seguimiento).
  • Orquestación limitada: MLflow no proporciona orquestación de flujos de trabajo de forma nativa; se necesita la integración con herramientas como Airflow, Kubeflow o Prefect.

3. Ecosistemas de modelos de lenguaje a gran escala (LLM)

Transformers con caras abrazando

Hugging Face Transformers es una biblioteca de código abierto que proporciona modelos preentrenados para inferencia y entrenamiento. La biblioteca está construida principalmente sobre PyTorch , con soporte para el desarrollo de modelos a gran escala, utilidades de entrenamiento y despliegue simplificado mediante pipelines y entrenadores.

La compatibilidad con JAX está disponible a través de integraciones con Keras , mientras que la compatibilidad con TensorFlow, que existía anteriormente, se ha eliminado en las versiones recientes.

Hugging Face aloja modelos para diferentes dominios:

  • Texto
  • Visión
  • Audio
  • Multimodal

Las características principales son:

  • Modelos transformadores preentrenados : Hugging Face ofrece millones de modelos preentrenados (ya entrenados con grandes conjuntos de datos, para que los usuarios puedan ajustarlos o aplicarlos directamente sin empezar desde cero).
  • Comunidad activa y documentación : Amplios tutoriales, guías y contribuciones frecuentes mantienen la biblioteca actualizada con los últimos avances.

Limitaciones de Hugging Face Transformers

  • Altas exigencias computacionales : Muchos modelos requieren hardware potente (GPU/TPU) para funcionar de manera eficiente.
  • Calidad variable de los modelos : Los modelos aportados por la comunidad pueden estar desactualizados o recibir un mantenimiento inconsistente.

GPT4All

GPT4All es esencialmente un ecosistema de LLM de código abierto (que admite más de 1000 modelos, incluidos LLaMA, Mistral y DeepSeek R1).

Se trata de un chatbot local y privado para cargas de trabajo en múltiples dispositivos, que funciona tanto en CPU como en GPU y puede operar en línea o fuera de línea.

  • Funcionamiento sin conexión : Puede ejecutarse sin conexión a internet en ordenadores portátiles o dispositivos móviles.
  • Amplia compatibilidad con modelos : Compatible con modelos como DeepSeek R1, LLaMa, Mistral y Nous-Hermes (que abarcan muchos de los LLM de código abierto más utilizados).
  • Privacidad : Mantiene todos los datos localmente (las respuestas se generan en el equipo del usuario), lo que garantiza que la información confidencial permanezca segura.

Limitaciones de GPT4All

  • Ámbito de aplicación limitado : Diseñado principalmente como un chatbot, con aplicaciones restringidas más allá de la IA conversacional.

Abrir interfaz web

Open WebUI es una interfaz web autoalojada para interactuar con grandes modelos de lenguaje, disponible localmente o a través de API compatibles con OpenAI.

  • Compatibilidad con múltiples modelos: Se conecta a modelos locales o en la nube (por ejemplo, Ollama o API compatibles con OpenAI) a través de una interfaz unificada.
  • RAG y chat de documentos integrados: Permite consultar documentos cargados y bases de conocimiento mediante generación aumentada por recuperación.
  • Sistema de complementos y extensibilidad: Los desarrolladores pueden ampliar la funcionalidad con herramientas, flujos de trabajo y complementos, o agregar compatibilidad con proveedores de modelos adicionales.
  • Opciones de implementación flexibles: Se puede instalar utilizando Docker, Kubernetes u otras herramientas de contenedores.

Limitaciones de Open WebUI

  • Riesgos de seguridad en caso de configuración incorrecta: Las vulnerabilidades o las conexiones inseguras a servidores de modelos externos podrían exponer tokens o permitir el compromiso del sistema si no está debidamente protegido.

4. Plataformas de IA conversacional

Rasa

Rasa es una plataforma de IA conversacional de código abierto diseñada para crear chatbots y asistentes virtuales. Se centra en Desarrollo de IA conversacional y chatbots. Rasa incorpora conceptos estándar de plataformas de IA, como la gestión de datos, la monitorización, la colaboración y la integración de flujos de trabajo, al ámbito de la IA conversacional.

  • Herramientas de revisión de conversaciones : Ofrece una bandeja de entrada dedicada para revisar diálogos de usuarios reales, lo que ayuda a los equipos a comprender cómo interactúan las personas de forma natural con un chatbot implementado con Rasa.
  • Etiquetado y filtrado : Permite clasificar las conversaciones por intención, acción, valores de ranura y estado de revisión.
  • Funcionalidades de colaboración : Permite a los equipos compartir flujos de trabajo, asignar revisiones y categorizar conversaciones.
  • Detección de errores : Permite señalar los mensajes problemáticos para que puedan abordarse más adelante en el ciclo de desarrollo.

Limitaciones de Rasa

  • Ámbito de aplicación específico : Diseñado principalmente para mejorar los asistentes mediante la revisión de conversaciones, no como una plataforma general de PLN o ciencia de datos.
  • Esfuerzo manual necesario : Si bien el filtrado y el etiquetado son útiles, gran parte del proceso de mejora aún depende de la revisión manual de las conversaciones.

Botpress

Botpress es una plataforma de IA conversacional de código abierto diseñada para crear, implementar y administrar chatbots.

  • Flujo y control visual : Proporciona un creador de flujos mediante la función de arrastrar y soltar para diseñar conversaciones de chatbot, al tiempo que permite una personalización avanzada a través de código.
  • Integración de IA generativa : integración nativa de GPT para preguntas y respuestas basadas en la base de conocimientos y respuestas de formato libre.

Limitaciones de Botpress

  • Inmadurez del ecosistema de complementos e integración : La biblioteca de complementos e integración es más pequeña que la de competidores como Dialogflow o Rasa (los complementos de la comunidad aún no cuentan con un amplio soporte).
  • Funcionalidades empresariales limitadas en los niveles gratuitos/abiertos : capacidades como el inicio de sesión único (SSO), las herramientas de cumplimiento y las configuraciones de alta disponibilidad están disponibles principalmente en el nivel empresarial de pago.
  • Riesgos de dependencia de la IA generativa : Fuerte dependencia de las integraciones de GPT. El uso de API LLM externas o modelos grandes a menudo genera costos o latencia .

5. Plataformas de agentes

Agentes profundos de Langchain

Deep Agents es un marco de trabajo de agentes de código abierto de LangChain que proporciona un "arnés de agentes" estructurado con planificación integrada, uso de herramientas, memoria y coordinación de subagentes.

  • Planificación y descomposición de tareas: Los agentes pueden desglosar automáticamente las tareas complejas en pasos más pequeños utilizando herramientas de planificación integradas (por ejemplo, el seguimiento de tareas al estilo de una lista de tareas pendientes).
  • Delegación de subagentes: El marco permite que los agentes generen subagentes especializados para gestionar subtareas.
  • Gestión de contexto con sistemas de archivos: Los agentes pueden almacenar y recuperar información a través de sistemas de archivos virtuales o conectables.
  • Memoria persistente: El sistema puede almacenar conocimientos a lo largo de conversaciones o sesiones, lo que permite a los agentes mantener un contexto a largo plazo.
  • Herramientas para desarrolladores e interfaz de línea de comandos (CLI): El SDK de Deep Agents y la interfaz de línea de comandos permiten a los desarrolladores crear agentes que ejecutan código, acceden a archivos, realizan solicitudes web y se integran con API externas.

Limitaciones de los agentes profundos de Langchain

  • Ideal para tareas complejas: El marco de trabajo está diseñado para flujos de trabajo de larga duración o de varios pasos, por lo que puede suponer una sobrecarga innecesaria para aplicaciones de agentes más sencillas.
  • Mayor complejidad: Las funciones como los subagentes, los sistemas de archivos y las herramientas de planificación pueden aumentar la complejidad del sistema y requieren una configuración cuidadosa.

Agentes abiertos

OpenAgents proporciona la infraestructura para crear redes de agentes en las que los agentes de IA pueden descubrirse entre sí, comunicarse y colaborar en tareas.

  • Redes de agentes: Permiten que múltiples agentes de IA se conecten y colaboren en redes estructuradas para resolver tareas complejas.
  • Protocolos para la comunicación entre agentes: Incluye mecanismos integrados para el descubrimiento, la mensajería y la colaboración entre agentes.
  • Integración con herramientas y marcos de trabajo LLM: Funciona con proveedores LLM y marcos de trabajo de agentes comunes y admite protocolos como MCP y A2A para la interacción entre agentes.
  • Arquitectura modular: Utiliza un sistema modular y basado en eventos que permite a los desarrolladores ampliar la funcionalidad y personalizar el comportamiento de los agentes.

Limitaciones de OpenAgents

  • Aún en desarrollo: La documentación y las API están en constante desarrollo, lo que significa que los ejemplos o las interfaces pueden cambiar.
  • Complejidad de los sistemas multiagente: La creación y gestión de grandes redes de agentes puede plantear desafíos de coordinación e infraestructura.

Garra abierta

OpenClaw actúa como una puerta de enlace que conecta las plataformas de chat con los modelos de IA, lo que permite al asistente realizar tareas como gestionar correos electrónicos, programar eventos y automatizar flujos de trabajo.

  • Integración de mensajería multiplataforma: El asistente funciona a través de aplicaciones de chat comunes (por ejemplo, WhatsApp, Telegram, Discord, Slack), lo que permite a los usuarios interactuar con la IA desde las plataformas que ya utilizan.
  • Arquitectura autogestionada: Los usuarios ejecutan la puerta de enlace OpenClaw localmente o en su propio servidor, manteniendo el control sobre los datos y las claves API en lugar de depender de un servicio alojado en la nube.
  • Automatización de tareas: La IA puede ejecutar acciones reales como enviar correos electrónicos, gestionar calendarios o manejar flujos de trabajo digitales directamente desde comandos de chat.
  • Compatibilidad con múltiples modelos: OpenClaw puede conectarse a diferentes proveedores de modelos de IA (por ejemplo, OpenAI, Anthropic u otros), lo que permite a los usuarios elegir modelos en función de sus necesidades.
  • Enrutamiento de agentes y gestión de sesiones: La plataforma admite el enrutamiento multiagente y sesiones separadas para diferentes usuarios o espacios de trabajo.

Limitaciones de OpenClaw

  • Riesgos de seguridad derivados de las extensiones: Los complementos de terceros pueden contener código malicioso, lo que podría exponer datos confidenciales si no se revisan cuidadosamente.
  • Permisos de sistema elevados: Dado que el asistente puede acceder a archivos, ejecutar scripts o controlar aplicaciones, una configuración incorrecta o instrucciones maliciosas podrían crear vulnerabilidades de seguridad.

¿Qué es la IA de código abierto?

En la práctica, la IA de código abierto se refiere a sistemas, modelos o algoritmos que se ponen a disposición del público para que cualquiera pueda usarlos, estudiarlos, modificarlos y compartirlos. Entre las aplicaciones típicas se incluyen modelos de lenguaje complejos, sistemas de traducción, chatbots y otras herramientas basadas en IA.

Sin embargo, históricamente no ha existido un estándar ampliamente aceptado sobre lo que califica como IA de código abierto :

  • Ejemplos de código cerrado : OpenAI y Anthropic mantuvieron en secreto los conjuntos de datos, los modelos y los algoritmos.
  • Modelos de zona gris : Meta y Google publicaron modelos adaptables, pero los críticos argumentaron que no eran realmente de código abierto debido a limitaciones de licencia y conjuntos de datos no revelados.

Para abordar esta cuestión, la Open Source Initiative (OSI) , la organización conocida por establecer estándares de código abierto, publicó una definición formal de IA. 1

Según OSI, un sistema de IA de código abierto debería:

  • Puede utilizarse para cualquier fin sin necesidad de permiso.
  • Permitir la inspección de sus componentes para que los investigadores puedan comprender cómo funciona.
  • Debe poder modificarse para cualquier propósito, incluyendo la alteración de los resultados.
  • Debe poder compartirse, con o sin modificaciones, para cualquier propósito.

En la práctica, sin embargo, muchas versiones de IA descritas como "abiertas" se caracterizan mejor como modelos de ponderación abierta , lo que significa que publican las ponderaciones del modelo, pero no divulgan los datos de entrenamiento completos ni el proceso de desarrollo necesarios para cumplir con los criterios de código abierto de la OSI.

Cem Dilmegani
Cem Dilmegani
Analista principal
Cem ha sido el analista principal de AIMultiple desde 2017. AIMultiple informa a cientos de miles de empresas (según similarWeb), incluyendo el 55% de las empresas Fortune 500 cada mes. El trabajo de Cem ha sido citado por importantes publicaciones globales como Business Insider, Forbes, Washington Post, firmas globales como Deloitte, HPE y ONG como el Foro Económico Mundial y organizaciones supranacionales como la Comisión Europea. Puede consultar más empresas y recursos de renombre que citan a AIMultiple. A lo largo de su carrera, Cem se desempeñó como consultor, comprador y emprendedor tecnológico. Asesoró a empresas en sus decisiones tecnológicas en McKinsey & Company y Altman Solon durante más de una década. También publicó un informe de McKinsey sobre digitalización. Lideró la estrategia y adquisición de tecnología de una empresa de telecomunicaciones, reportando directamente al CEO. Asimismo, lideró el crecimiento comercial de la empresa de tecnología avanzada Hypatos, que alcanzó ingresos recurrentes anuales de siete cifras y una valoración de nueve cifras partiendo de cero en tan solo dos años. El trabajo de Cem en Hypatos fue reseñado por importantes publicaciones tecnológicas como TechCrunch y Business Insider. Cem participa regularmente como ponente en conferencias internacionales de tecnología. Se graduó en ingeniería informática por la Universidad de Bogazici y posee un MBA de la Columbia Business School.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450