Déployer son propre modèle d'IA ou, dans certains cas, peaufiner des modèles préexistants comporte plusieurs défis :
- Choisir un fournisseur de cloud : Vous pouvez vous intégrer profondément à un fournisseur, pour ensuite avoir du mal à en changer plus tard en cas de besoin.
- Pénurie de ressources GPU : Si votre déploiement est limité à une zone géographique, vous pourriez rencontrer des pénuries de ressources GPU disponibles en raison d'une forte demande dans cette région.
- Dépendance au cloud et évolutivité : De nombreuses plateformes vous lient à des services cloud spécifiques.
Les plateformes open source proposant des API unifiées contribuent à relever ces défis en permettant le déploiement multicloud et en optimisant la gestion des ressources GPU. Vous trouverez ci-dessous 15 exemples de plateformes/bibliothèques open source :
Aperçu succinct des plateformes et bibliothèques open source
Lors du choix de ces plateformes, nous nous sommes principalement concentrés sur leur capacité d'adaptation, leur facilité d'intégration et leur adéquation à un usage en entreprise.
Vous pouvez cliquer sur les liens pour explorer des explications détaillées pour chacun d'eux :
1. Cadres d'apprentissage automatique :
- TensorFlow : une bibliothèque pour l’entraînement et le déploiement en production de modèles d’apprentissage automatique à grande échelle. Permet l’entraînement de modèles sur CPU, GPU et TPU.
- PyTorch : Un framework d'apprentissage profond idiomatique en Python, doté de graphes de calcul dynamiques. Idéal pour la recherche et l'expérimentation en apprentissage profond. Prise en charge limitée des TPU.
- JAX : Une plateforme pour le calcul numérique haute performance et la recherche en apprentissage automatique. Elle vise à accélérer l’exécution des calculs numériques sur les CPU, les GPU et les TPU.
- Keras : une API de haut niveau pour l’apprentissage profond qui s’exécute sur des frameworks comme TensorFlow. Sa syntaxe est accessible aux débutants.
- Scikit-learn : Bibliothèque Python open source pour les tâches classiques d'apprentissage automatique telles que la classification, la régression et le clustering. Offre une API facile à utiliser. Fonctionne bien avec les petits et moyens jeux de données.
2. Plateformes d'apprentissage automatique automatisé et distribué :
- H2O.ai : Une plateforme distribuée pour l'automatisation des flux de travail d'apprentissage automatique sur les mégadonnées.
- MLflow : une plateforme de gestion du cycle de vie du ML. Elle prend en charge le suivi des expériences, le packaging des modèles et fonctionne avec TensorFlow, PyTorch, scikit-learn et R.
3. Écosystèmes de grands modèles de langage (LLM) :
- Hugging Face Transformers : une plateforme/bibliothèque comprenant plus de 63 000 modèles pré-entraînés pour le traitement de texte, d’images, d’audio et multimodal. Elle s’intègre à TensorFlow, PyTorch et JAX.
- GPT4All : Un écosystème permettant d’exécuter des modèles LLM localement sur des processeurs ou des cartes graphiques, en ligne ou hors ligne. Prend en charge plus de 1 000 modèles tels que LLaMA, Mistral et DeepSeek R1.
- Open WebUI : Interface web auto-hébergée pour interagir avec les LLM qui prend en charge plusieurs fournisseurs de modèles, la recherche documentaire (RAG) et des plugins extensibles.
4. Plateformes d'IA conversationnelle :
- Rasa : Plateforme de création de chatbots et d'assistants virtuels. Propose des outils de révision, d'étiquetage et de collaboration des conversations.
- Botpress : Plateforme avec une interface visuelle intuitive et des intégrations GPT. Elle combine la création par glisser-déposer et la personnalisation au niveau du code.
5. Plateformes d'agents :
- Langchain Deep Agents : Fournit un cadre pour la construction d'agents d'IA avec des capacités de planification des tâches, de délégation de sous-agents, de mémoire persistante et d'intégration d'outils.
- OpenAgents : Permet aux réseaux d'agents d'IA de se découvrir, de communiquer et de collaborer sur des tâches grâce à une architecture modulaire et des protocoles de communication standardisés.
- OpenClaw : Sert de passerelle auto-hébergée qui connecte les modèles d'IA aux plateformes de messagerie, permettant aux utilisateurs d'automatiser les tâches.
1. Cadres d'apprentissage automatique
TensorFlow

TensorFlow, développé par l'équipe Brain (référence 991259_1708), est une bibliothèque open source pour le calcul numérique et l'apprentissage automatique à grande échelle . Elle utilise des graphes de flux de données (un diagramme où les opérations sont représentées par des nœuds et les données par des lignes de connexion) pour construire des modèles, ce qui la rend évolutive et adaptée à la production.
TensorFlow prend en charge plusieurs types de matériel, notamment les processeurs et les GPU, permettant un déploiement sur les systèmes web, mobiles, périphériques et d'entreprise.
- Abstraction avec Keras : TensorFlow s’intègre à Keras, une API de haut niveau qui simplifie la création et l’entraînement des modèles. Cela facilite la prise en main pour les débutants tout en offrant des possibilités de personnalisation.
- Préparation à la production : TensorFlow est largement utilisé en production. Il prend en charge le calcul distribué (exécution simultanée sur plusieurs machines) et offre des outils de déploiement tels que TensorFlow Serving, TensorFlow Lite et TensorFlow.js.
- TensorBoard : Inclut TensorBoard, un outil de visualisation permettant de suivre l’entraînement, les performances et la structure du modèle. Utile pour le débogage et l’optimisation.
Les limitations de TensorFlow
- Principalement axé sur les données numériques : TensorFlow est performant pour les calculs numériques (par exemple, les données d’image, de texte et de signal) mais est moins efficace pour les tâches de raisonnement symbolique telles que le traitement des règles ou le raisonnement sur les graphes de connaissances.
PyTorch
PyTorch, développé par le laboratoire de recherche en IA de Facebook, est une bibliothèque open source pour l'apprentissage automatique et l'apprentissage profond .
- Maturité de l'écosystème : PyTorch prend en charge la recherche grâce à des graphes de calcul dynamiques et à l'interopérabilité des modèles via ONNX.
- Le déploiement en production est de plus en plus souvent géré par des plateformes de déploiement externes telles que vLLM et Triton Inference Server. Les outils plus anciens, comme TorchServe , utilisés auparavant pour le déploiement des modèles, ont été archivés et ne sont plus maintenus.
- Graphes de calcul dynamiques : Permettent de modifier l'architecture du modèle pendant l'exécution, offrant ainsi une flexibilité pour l'expérimentation et la recherche.
- Facilité de débogage : À l’instar d’un langage de programmation, PyTorch fournit des messages d’erreur détaillés et prend en charge le débogage étape par étape.
- PyTorch Lightning : une surcouche logicielle développée par la communauté qui simplifie le code PyTorch grâce à des abstractions de haut niveau. Bien qu'elle ne fasse pas officiellement partie de PyTorch, elle améliore l'ergonomie et est souvent comparée à Keras de TensorFlow.
Les limitations de PyTorch
- Principalement axé sur l'apprentissage profond : PyTorch est fortement optimisé pour les réseaux neuronaux profonds, mais peut être moins polyvalent pour des tâches d'IA plus générales telles que la modélisation probabiliste.
JAX
JAX a été présenté publiquement vers 2018 et développé par la communauté Google+.
Le nom JAX signifie « Just Another XLA », XLA faisant référence à l'algèbre linéaire accélérée. JAX est reconnu pour ses performances en calcul numérique et en différentiation automatique.
- Différenciation automatique : JAX peut calculer automatiquement dans quelle mesure chaque paramètre d’un modèle doit être ajusté pour améliorer la précision.
- Ce processus est appelé rétropropagation (comparaison de la prédiction du modèle avec le résultat correct, puis propagation de l'erreur à rebours à travers le réseau pour mettre à jour ses paramètres).
- En automatisant ces calculs, JAX élimine le besoin de codage manuel des gradients.
- Accélération matérielle : Fonctionne sur les processeurs, les GPU et les TPU.
- Parallélisation et vectorisation : répartit automatiquement les charges de travail sur plusieurs appareils, améliorant ainsi l’évolutivité.
Les limitations de JAX
- Écosystème plus restreint : comparé à TensorFlow ou PyTorch, JAX possède moins de bibliothèques tierces et de tutoriels.
- Outils de production limités : Manque d'une suite mature d'outils de déploiement prêts pour la production.
Remarque : Bien qu’il ne s’agisse pas de plateformes d’IA complètes, des bibliothèques comme Keras (une API de haut niveau pour l’apprentissage profond) et Scikit-learn (pour l’apprentissage automatique classique) sont souvent incluses dans les outils d’IA open source :
Keras
Keras est une API de haut niveau permettant de créer et d'entraîner des modèles d'apprentissage profond . Elle fonctionne principalement avec TensorFlow, mais peut également s'intégrer à d'autres backends. Son API est intuitive pour les débutants tout en offrant la flexibilité nécessaire au développement de réseaux neuronaux plus complexes.
- Flexibilité du backend : Fonctionne avec plusieurs backends tels que TensorFlow et PyTorch.
- Implémentation efficace : Prend en charge la compilation XLA (algèbre linéaire accélérée) pour un entraînement et une inférence de modèle plus rapides.
Les limitations de Keras
- Contrôle de bas niveau : Offre un contrôle moins précis que l’utilisation directe de bibliothèques backend comme TensorFlow ou PyTorch.
- Objectif précis : Conçu principalement pour l'apprentissage en profondeur.
Scikit-learn
Scikit-learn (souvent appelé sklearn) est une bibliothèque Python open source dédiée à l'apprentissage automatique . Elle repose sur NumPy (calcul numérique) et Matplotlib (visualisation de données) et offre un large éventail d'outils pour le prétraitement, la modélisation et l'évaluation des données.
La bibliothèque se concentre sur les tâches fondamentales d'apprentissage automatique telles que la classification, la régression et le clustering.
- Large couverture algorithmique : Implémente la plupart des techniques d'apprentissage automatique classiques, notamment la régression linéaire, les arbres de décision, les SVM, les k-moyennes et les méthodes d'ensemble.
- Intégration : Basé sur NumPy et SciPy, il est compatible avec l'écosystème plus large de la science des données Python.
Les limitations de Scikit-learn
- Ne convient pas à l'apprentissage profond : contrairement à TensorFlow ou PyTorch, il ne gère pas les réseaux neuronaux ni les tâches d'apprentissage profond à grande échelle.
- Limites de performance : Optimisé pour les ensembles de données de petite à moyenne taille ; moins efficace pour les données à très grande échelle comparé aux frameworks distribués.
- Moins spécialisé pour la production : Principalement conçu pour la recherche et le prototypage plutôt que pour un déploiement à grande échelle.
2. Plateformes d'apprentissage automatique et d'apprentissage automatique distribué
H2O.ai
H2O.ai est une plateforme d'apprentissage automatique distribuée en mémoire . Elle prend en charge des algorithmes statistiques et d'apprentissage automatique largement utilisés, tels que les machines à gradient boosté (GBM), les modèles linéaires généralisés (GLM) et l'apprentissage profond.
- Flux de travail automatisés : Exécute le processus d’apprentissage automatique de bout en bout (entraînement, réglage et évaluation de plusieurs modèles) dans un délai défini par l’utilisateur.
- Traitement distribué en mémoire : les données sont traitées sur plusieurs nœuds (machines ou serveurs) d’un réseau, chaque nœud stockant une partie des données en mémoire vive (RAM) plutôt que sur disque, plus lent. Ainsi, pour l’analyse de téraoctets de données, le stockage en mémoire permet des calculs plus rapides.
Les limitations de H2O.ai
- Nécessite d'importantes ressources : La conception distribuée en mémoire peut nécessiter des ressources de calcul considérables.
- Moins de flexibilité pour la recherche : optimisé pour l’apprentissage automatique appliqué et les flux de travail AutoML. Ne convient pas aux tâches de recherche personnalisées.
Flux ML
MLflow est une plateforme open source conçue pour faciliter le développement de modèles d'apprentissage automatique et d'applications d'IA générative. Elle comprend quatre composants principaux :
- Suivi : Permet le suivi des expériences en enregistrant les paramètres, les indicateurs et les résultats, facilitant ainsi la comparaison des différentes exécutions.
- Modèles : Offre des outils pour empaqueter, gérer et déployer des modèles provenant de diverses bibliothèques d'apprentissage automatique vers de multiples environnements de service et d'inférence.
- Évaluation et suivi des agents d'IA : Aide les développeurs à créer des agents d'IA fiables en fournissant des fonctionnalités permettant d'évaluer, de comparer et de déboguer les comportements des agents.
- Registre de modèles : Facilite la gestion du cycle de vie des modèles, y compris le contrôle de version, les transitions d'étape (de la phase de test à la production) et les annotations.
Caractéristiques :
- Suivi des expériences : Enregistre et compare les paramètres, les indicateurs, les artefacts et les résultats, afin que les équipes puissent reproduire les expériences et identifier les modèles les plus performants.
- Registre de modèles : Référentiel centralisé pour la gestion du cycle de vie des modèles, y compris le versionnage (conservation des différentes versions enregistrées d'un modèle) et les annotations (ajout de notes ou de métadonnées pour le contexte).
- Prise en charge étendue des frameworks et des API : Compatible avec Python, Java, R et les API REST, et s’intègre aux frameworks ML populaires tels que Scikit-learn, TensorFlow, PyTorch et XGBoost.
Les limitations de MLflow
- Complexité de mise à l'échelle : L'exécution de MLflow à grande échelle nécessite une infrastructure importante (bases de données, serveurs de suivi).
- Orchestration limitée : MLflow ne fournit pas nativement d’orchestration de flux de travail ; une intégration avec des outils comme Airflow, Kubeflow ou Prefect est nécessaire.
3. Écosystèmes de modèles de langage à grande échelle (LLM)
Transformers à visage câlin
Hugging Face Transformers est une bibliothèque open source fournissant des modèles pré-entraînés pour l'inférence et l'entraînement. Elle est principalement basée sur PyTorch et prend en charge le développement de modèles à grande échelle, les outils d'entraînement et un déploiement simplifié via des pipelines et des trainers.
La prise en charge de JAX est disponible via des intégrations avec Keras , tandis que la prise en charge antérieure de TensorFlow a été supprimée dans les versions récentes.
Hugging Face héberge des modèles pour différents domaines :
- Texte
- Vision
- Audio
- Multimodal
Les principales caractéristiques sont :
- Modèles de transformateurs pré-entraînés : Hugging Face propose des millions de modèles pré-entraînés (déjà entraînés sur de grands ensembles de données, permettant aux utilisateurs de les affiner ou de les appliquer directement sans repartir de zéro).
- Communauté active et documentation : des tutoriels complets, des guides et des contributions fréquentes permettent à la bibliothèque de rester à jour avec les dernières avancées.
Les limitations de Hugging Face Transformers
- Exigences de calcul élevées : De nombreux modèles nécessitent un matériel puissant (GPU/TPU) pour fonctionner efficacement.
- Qualité variable des modèles : Les modèles fournis par la communauté peuvent être obsolètes ou maintenus de manière incohérente.
GPT4All
GPT4All est essentiellement un écosystème de LLM open-source (prenant en charge plus de 1 000 modèles, dont LLaMA, Mistral et DeepSeek R1).
Il s'agit d'un chatbot local et privé pour les charges de travail multi-appareils, fonctionnant à la fois sur les CPU et les GPU, et pouvant fonctionner en ligne ou hors ligne.
- Fonctionnement hors ligne : Peut fonctionner sans connexion Internet sur les ordinateurs portables ou les appareils mobiles.
- Large compatibilité avec les modèles : Compatible avec des modèles tels que DeepSeek R1, LLaMa, Mistral et Nous-Hermes (couvrant de nombreux LLM open-source parmi les plus utilisés).
- Confidentialité : Toutes les données sont conservées en local (les réponses sont générées sur la machine de l'utilisateur), garantissant ainsi la sécurité des informations sensibles.
Les limitations de GPT4All
- Portée restreinte : Conçu principalement comme un chatbot, avec des applications limitées au-delà de l'IA conversationnelle.
Ouvrir l'interface Web
Open WebUI est une interface web auto-hébergée permettant d'interagir avec de grands modèles de langage, disponibles localement ou via des API compatibles OpenAI.
- Prise en charge multi-modèles : Se connecte aux modèles locaux ou cloud (par exemple, Ollama ou API compatibles OpenAI) via une interface unifiée.
- RAG et chat documentaire intégrés : Prend en charge l’interrogation des documents téléchargés et des bases de connaissances à l’aide de la génération augmentée par la récupération.
- Système de plugins et d'extensibilité : les développeurs peuvent étendre les fonctionnalités grâce à des outils, des pipelines et des plugins, ou ajouter la prise en charge de fournisseurs de modèles supplémentaires.
- Options de déploiement flexibles : Peut être installé à l’aide de Docker, Kubernetes ou d’autres outils de conteneurisation.
Limitations d'Open WebUI
- Risques de sécurité en cas de mauvaise configuration : des vulnérabilités ou des connexions non sécurisées à des serveurs de modèles externes pourraient exposer des jetons ou permettre la compromission du système si la sécurité n’est pas correctement assurée.
4. Plateformes d'IA conversationnelle
Rasa
Rasa est une plateforme d'IA conversationnelle open source conçue pour créer des chatbots et des assistants virtuels. Elle se concentre sur Développement d'IA conversationnelle et de chatbots. Rasa applique les concepts standards des plateformes d'IA, tels que la gestion des données, la surveillance, la collaboration et l'intégration des flux de travail, au domaine de l'IA conversationnelle.
- Outils d'analyse des conversations : Offre une boîte de réception dédiée à l'analyse des dialogues réels des utilisateurs, aidant les équipes à comprendre comment les utilisateurs interagissent naturellement avec un chatbot déployé avec Rasa.
- Étiquetage et filtrage : Prend en charge la classification des conversations par intention, action, valeurs d’emplacement et statut de révision.
- Fonctionnalités de collaboration : Permet aux équipes de partager des flux de travail, d'attribuer des révisions et de catégoriser les conversations.
- Détection des erreurs : Permet de signaler les messages problématiques afin qu'ils puissent être traités ultérieurement dans le cycle de développement.
Les limites de Rasa
- Champ d'application ciblé : Conçu principalement pour améliorer les assistants grâce à l'analyse des conversations, et non comme une plateforme générale de traitement automatique du langage naturel ou de science des données.
- Effort manuel requis : Bien que le filtrage et l'étiquetage soient utiles, une grande partie du processus d'amélioration repose encore sur l'examen manuel des conversations.
Botpress
Botpress est une plateforme d'IA conversationnelle open source conçue pour créer, déployer et gérer des chatbots.
- Flux visuel et contrôle : Fournit un outil de création de flux par glisser-déposer pour concevoir des conversations de chatbot tout en permettant une personnalisation avancée via le code.
- Intégration de l'IA générative : intégration native de GPT pour les questions-réponses sur les bases de connaissances et les réponses libres.
Les limitations de Botpress
- Immaturité de l'écosystème de plugins et d'intégrations : La bibliothèque de plugins et d'intégrations est plus petite que celle de concurrents comme Dialogflow ou Rasa (les plugins communautaires ne sont pas encore largement pris en charge).
- Fonctionnalités d'entreprise limitées dans les niveaux gratuits/ouverts : des fonctionnalités telles que l'authentification unique (SSO), les outils de conformité et les configurations à haute disponibilité sont principalement disponibles dans le niveau Entreprise payant.
- Risques liés à la dépendance à l'IA générative : Forte dépendance aux intégrations GPT. L'utilisation d'API LLM externes ou de modèles volumineux engendre souvent des coûts ou une latence .
5. Plateformes d'agents
Agents profonds Langchain
Deep Agents est un framework d'agents open-source de LangChain qui fournit un « harnais d'agents » structuré avec planification intégrée, utilisation d'outils, mémoire et coordination des sous-agents.
- Planification et décomposition des tâches : les agents peuvent automatiquement décomposer les tâches complexes en étapes plus petites à l’aide d’outils de planification intégrés (par exemple, le suivi des tâches de type liste de tâches).
- Délégation de sous-agents : le framework permet aux agents de créer des sous-agents spécialisés pour gérer les sous-tâches.
- Gestion du contexte avec les systèmes de fichiers : les agents peuvent stocker et récupérer des informations via des systèmes de fichiers virtuels ou enfichables.
- Mémoire persistante : le système peut stocker les connaissances acquises au fil des conversations ou des sessions, permettant ainsi aux agents de conserver le contexte à long terme.
- Outils de développement et interface de ligne de commande : le kit de développement logiciel (SDK) et l’interface de ligne de commande de Deep Agents permettent aux développeurs de créer des agents qui exécutent du code, accèdent à des fichiers, effectuent des requêtes Web et s’intègrent à des API externes.
Limitations des agents profonds Langchain
- Idéal pour les tâches complexes : ce framework est conçu pour les flux de travail longs ou à plusieurs étapes, il peut donc représenter une surcharge inutile pour les applications d’agent plus simples.
- Complexité accrue : des fonctionnalités telles que les sous-agents, les systèmes de fichiers et les outils de planification peuvent accroître la complexité du système et nécessiter une configuration minutieuse.
Agents ouverts
OpenAgents fournit l'infrastructure nécessaire à la création de réseaux d'agents dans lesquels des agents d'IA peuvent se découvrir, communiquer et collaborer sur des tâches.
- Réseaux d'agents : Permet à plusieurs agents d'IA de se connecter et de collaborer au sein de réseaux structurés pour résoudre des tâches complexes.
- Protocoles de communication entre agents : Inclut des mécanismes intégrés pour la découverte, la messagerie et la collaboration entre agents.
- Intégration avec les outils et frameworks LLM : Fonctionne avec les fournisseurs LLM et les frameworks d’agents courants et prend en charge des protocoles tels que MCP et A2A pour l’interaction avec les agents.
- Architecture modulaire : Utilise un système événementiel et modulaire qui permet aux développeurs d’étendre les fonctionnalités et de personnaliser le comportement de l’agent.
limitations d'OpenAgents
- En cours d'évolution : la documentation et les API sont en développement actif, ce qui signifie que les exemples ou les interfaces peuvent changer.
- Complexité des systèmes multi-agents : la construction et la gestion de grands réseaux d’agents peuvent engendrer des défis en matière de coordination et d’infrastructure.
Openclaw
OpenClaw sert de passerelle reliant les plateformes de chat aux modèles d'IA, permettant ainsi à l'assistant d'effectuer des tâches telles que la gestion des e-mails, la planification d'événements et l'automatisation des flux de travail.
- Intégration de la messagerie multiplateforme : l’assistant fonctionne via les applications de chat courantes (par exemple, WhatsApp, Telegram, Discord, Slack), permettant aux utilisateurs d’interagir avec l’IA depuis les plateformes qu’ils utilisent déjà.
- Architecture auto-hébergée : les utilisateurs exécutent la passerelle OpenClaw localement ou sur leur propre serveur, conservant ainsi le contrôle des données et des clés API au lieu de dépendre d’un service hébergé dans le cloud.
- Automatisation des tâches : L'IA peut exécuter des actions concrètes telles que l'envoi d'e-mails, la gestion de calendriers ou la gestion de flux de travail numériques directement à partir de commandes de chat.
- Prise en charge multi-modèles : OpenClaw peut se connecter à différents fournisseurs de modèles d'IA (par exemple, OpenAI, Anthropic ou autres), permettant aux utilisateurs de choisir des modèles en fonction de leurs besoins.
- Gestion des flux d'agents et des sessions : La plateforme prend en charge le routage multi-agents et les sessions séparées pour différents utilisateurs ou espaces de travail.
Les limitations d'OpenClaw
- Risques de sécurité liés aux extensions : les plugins tiers peuvent contenir du code malveillant, exposant potentiellement des données sensibles s’ils ne sont pas examinés avec soin.
- Autorisations système élevées : étant donné que l’assistant peut accéder aux fichiers, exécuter des scripts ou contrôler des applications, une mauvaise configuration ou des instructions malveillantes pourraient créer des failles de sécurité.
Qu'est-ce que l'IA open source ?
Dans la pratique, l'IA open source désigne les systèmes, modèles ou algorithmes mis à la disposition du public, permettant à chacun de les utiliser, de les étudier, de les modifier et de les partager. Parmi les applications typiques, on trouve les grands modèles de langage, les systèmes de traduction, les chatbots et autres outils basés sur l'IA.
Cependant, il n'a historiquement pas existé de norme largement acceptée pour définir ce qui constitue une IA open source :
- Exemples à code source fermé : OpenAI et Anthropic ont gardé secrets les ensembles de données, les modèles et les algorithmes.
- Modèles de zone grise : Meta et Google ont publié des modèles adaptables, mais les critiques ont fait valoir qu'ils n'étaient pas véritablement open source en raison des limites de licence et des ensembles de données non divulgués.
Pour remédier à cela, l' Open Source Initiative (OSI) , l'organisation connue pour établir des normes open source, a publié une définition formelle de l'IA. 1
Selon l'OSI, un système d'IA open source devrait :
- Être utilisable à toutes fins sans nécessiter d'autorisation.
- Autoriser l'inspection de ses composants afin que les chercheurs puissent comprendre son fonctionnement.
- Être modifiable à toutes fins, y compris pour la modification des résultats.
- Être partageable, avec ou sans modifications, à toutes fins.
En pratique, cependant, de nombreuses versions d'IA décrites comme « ouvertes » sont mieux caractérisées comme des modèles à poids ouverts , ce qui signifie qu'elles publient les poids du modèle mais ne divulguent pas l'intégralité des données d'entraînement ni le processus de développement requis pour répondre aux critères open-source de l'OSI.
Soyez le premier à commenter
Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.