Le 15 migliori piattaforme e librerie di intelligenza artificiale open source
Implementare un proprio modello di intelligenza artificiale o, in alcuni casi, perfezionare modelli preesistenti comporta diverse sfide:
- Scelta del fornitore di servizi cloud : Potreste integrarvi profondamente con un fornitore, per poi scoprire in seguito di avere difficoltà a passare a un altro quando necessario.
- Scarsità di risorse GPU : se la distribuzione è limitata a una specifica area geografica, si potrebbero verificare carenze di risorse GPU disponibili a causa dell'elevata domanda in quella regione.
- Vincolo al cloud e scalabilità : molte piattaforme ti vincolano a specifici servizi cloud.
Le piattaforme open source che offrono API unificate contribuiscono ad affrontare queste sfide consentendo la distribuzione multi-cloud e ottimizzando la gestione delle risorse GPU. Di seguito, elenchiamo 15 esempi di piattaforme/librerie open source:
Breve panoramica delle piattaforme e librerie open source
Nella scelta di queste piattaforme, ci siamo concentrati principalmente sulla loro scalabilità, sulla facilità di integrazione e sulla loro idoneità all'utilizzo in ambito aziendale.
Puoi cliccare sui link per esplorare le spiegazioni dettagliate di ciascuna:
1. Framework di apprendimento automatico:
- TensorFlow : una libreria per l'addestramento di modelli di machine learning su larga scala e la loro implementazione in produzione. Consente l'addestramento di modelli su CPU, GPU e TPU.
- PyTorch : un framework di deep learning in stile Python con grafi computazionali dinamici. Ideale per la ricerca e la sperimentazione nel deep learning. Supporto TPU limitato.
- JAX : Una piattaforma per il calcolo numerico ad alte prestazioni e la ricerca nel campo dell'apprendimento automatico. Il suo obiettivo è l'esecuzione rapida di calcoli numerici su CPU, GPU e TPU.
- Keras : un'API di alto livello per il deep learning che funziona su framework come TensorFlow. Ha una sintassi intuitiva, adatta anche ai principianti.
- Scikit-learn : una libreria Python open-source per attività di machine learning classiche come classificazione, regressione e clustering. Offre un'API di facile utilizzo. Funziona bene con dataset di piccole/medie dimensioni.
2. AutoML e piattaforme di apprendimento automatico distribuito:
- H2O.ai : una piattaforma distribuita per automatizzare i flussi di lavoro di machine learning sui big data.
- MLflow : una piattaforma per la gestione del ciclo di vita del machine learning. Supporta il tracciamento degli esperimenti, il packaging dei modelli e funziona con TensorFlow, PyTorch, scikit-learn e R.
3. Ecosistemi di modelli linguistici di grandi dimensioni (LLM):
- Hugging Face Transformers : una piattaforma/libreria con oltre 63.000 modelli pre-addestrati per attività di testo, visione, audio e multimodali. Si integra con TensorFlow, PyTorch e JAX.
- GPT4All : Un ecosistema per l'esecuzione di LLM localmente su CPU o GPU, online o offline. Supporta oltre 1.000 modelli come LLaMA, Mistral e DeepSeek R1.
- Open WebUI : Interfaccia web self-hosted per interagire con i modelli LLM, che supporta più fornitori di modelli, il recupero basato su documenti (RAG) e plugin estensibili.
4. Piattaforme di intelligenza artificiale conversazionale:
- Rasa : Piattaforma per la creazione di chatbot e assistenti virtuali. Offre strumenti per la revisione delle conversazioni, l'etichettatura e la collaborazione.
- Botpress : Piattaforma con progettazione a flusso visivo e integrazioni GPT. Combina la creazione tramite trascinamento con la personalizzazione a livello di codice.
5. Piattaforme per agenti:
- Langchain Deep Agents : Fornisce un framework per la creazione di agenti di intelligenza artificiale con funzionalità di pianificazione delle attività, delega di sub-agenti, memoria persistente e integrazione con altri strumenti.
- OpenAgents : Consente alle reti di agenti di intelligenza artificiale di scoprirsi a vicenda, comunicare e collaborare su diverse attività attraverso un'architettura modulare e protocolli di comunicazione standardizzati.
- OpenClaw : Funge da gateway self-hosted che collega i modelli di intelligenza artificiale alle piattaforme di messaggistica, consentendo agli utenti di automatizzare le attività.
1. Framework di apprendimento automatico
TensorFlow

TensorFlow, sviluppato dal team Brain, è una libreria open-source per il calcolo numerico e l'apprendimento automatico su larga scala . Utilizza grafi di flusso di dati (un diagramma in cui le operazioni sono nodi e i dati scorrono lungo linee di collegamento) per costruire modelli, rendendolo scalabile e adatto alla produzione.
TensorFlow supporta diverse tipologie di hardware, tra cui CPU e GPU, consentendo l'implementazione su sistemi web, mobile, edge e aziendali.
- Astrazione con Keras : TensorFlow si integra con Keras, un'API di alto livello che riduce la complessità nella creazione e nell'addestramento dei modelli. Questo facilita l'approccio per i principianti, offrendo al contempo ampie possibilità di personalizzazione.
- Prontezza per la produzione : TensorFlow è ampiamente utilizzato in produzione. Supporta il calcolo distribuito (esecuzione simultanea su più macchine) e offre strumenti di implementazione come TensorFlow Serving, TensorFlow Lite e TensorFlow.js.
- TensorBoard : include TensorBoard, uno strumento di visualizzazione per il monitoraggio dell'addestramento, delle prestazioni e della struttura del modello. Utile per il debug e l'ottimizzazione.
Limitazioni di TensorFlow
- Principalmente focalizzato sui dati numerici : TensorFlow è adatto al calcolo numerico (ad esempio, dati di immagini, testo e segnali), ma è meno efficace per attività di ragionamento simbolico come l'elaborazione di regole o il ragionamento su grafi di conoscenza.
PyTorch
PyTorch, sviluppato dal laboratorio di ricerca sull'intelligenza artificiale di Facebook, è una libreria open-source per l'apprendimento automatico e l'apprendimento profondo .
- Maturità dell'ecosistema: PyTorch supporta la ricerca con grafi computazionali dinamici e l'interoperabilità dei modelli tramite ONNX.
- La distribuzione in produzione viene sempre più gestita tramite framework di servizio esterni come vLLM e Triton Inference Server. Gli strumenti precedenti, come TorchServe , utilizzati in passato per la distribuzione dei modelli, sono stati archiviati e non sono più attivamente mantenuti.
- Grafi computazionali dinamici : consentono modifiche all'architettura del modello durante l'esecuzione, offrendo flessibilità per la sperimentazione e la ricerca.
- Facilità di debug : analogamente a un linguaggio di programmazione, PyTorch fornisce messaggi di errore dettagliati e supporta il debug passo passo.
- PyTorch Lightning : un wrapper sviluppato dalla community che semplifica il codice PyTorch con astrazioni di alto livello. Sebbene non faccia ufficialmente parte di PyTorch, ne migliora l'usabilità ed è spesso paragonato a Keras di TensorFlow.
Limitazioni di PyTorch
- Principalmente focalizzato sul deep learning : PyTorch è fortemente ottimizzato per le reti neurali profonde, ma può risultare meno versatile per attività di intelligenza artificiale più ampie, come la modellazione probabilistica.
JAX
JAX è stato presentato pubblicamente intorno al 2018 ed è stato sviluppato dalla comunità Google+.
Il nome è l'acronimo di "Just Another XLA", dove XLA sta per Accelerated Linear Algebra (Algebra Lineare Accelerata). JAX è riconosciuto per i suoi punti di forza nel calcolo numerico e nella differenziazione automatica.
- Differenziazione automatica: JAX è in grado di calcolare automaticamente di quanto ciascun parametro di un modello debba essere modificato per migliorarne la precisione.
- Questo processo è chiamato retropropagazione (confrontare la previsione del modello con il risultato corretto e quindi propagare l'errore all'indietro attraverso la rete per aggiornarne i parametri).
- Automatizzando questi calcoli, JAX elimina la necessità di codificare manualmente i gradienti.
- Accelerazione hardware : funziona su CPU, GPU e TPU.
- Parallelizzazione e vettorizzazione : distribuisce automaticamente i carichi di lavoro su più dispositivi, migliorando la scalabilità.
Limitazioni di JAX
- Ecosistema più piccolo : rispetto a TensorFlow o PyTorch, JAX ha un numero inferiore di librerie di terze parti e tutorial.
- Strumenti di produzione limitati : manca una suite completa e matura di strumenti di implementazione pronti per la produzione.
Nota: pur non essendo piattaforme di intelligenza artificiale complete, librerie come Keras (un'API di alto livello per il deep learning) e Scikit-learn (per il machine learning classico) sono spesso incluse negli strumenti di intelligenza artificiale open source:
Keras
Keras è un'API di alto livello per la creazione e l'addestramento di modelli di deep learning . Funziona principalmente su TensorFlow, ma può anche integrarsi con altri backend. La sua API di alto livello è intuitiva per i principianti, ma al contempo sufficientemente flessibile per lo sviluppo di reti neurali più complesse.
- Flessibilità del backend : funziona su più backend, come TensorFlow e PyTorch.
- Implementazione efficiente : supporta la compilazione XLA (algebra lineare accelerata) per un addestramento e un'inferenza del modello più rapidi.
Limiti di Keras
- Controllo di livello inferiore : offre un controllo meno granulare rispetto all'utilizzo diretto di librerie di backend come TensorFlow o PyTorch.
- Focus ristretto : progettato principalmente per l'apprendimento profondo.
Scikit-learn
Scikit-learn (spesso chiamato sklearn) è una libreria Python open-source per l'apprendimento automatico . È basata su NumPy (calcolo numerico) e Matplotlib (visualizzazione dei dati) e fornisce un'ampia gamma di strumenti per la preelaborazione, la modellazione e la valutazione dei dati.
La libreria si concentra sulle attività fondamentali dell'apprendimento automatico, come la classificazione, la regressione e il clustering.
- Ampia copertura di algoritmi : implementa la maggior parte delle tecniche di apprendimento automatico classiche, tra cui regressione lineare, alberi decisionali, macchine a vettori di supporto (SVM), k-means e metodi ensemble.
- Integrazione : Basato su NumPy e SciPy, è compatibile con il più ampio ecosistema Python per la scienza dei dati.
Limitazioni di Scikit-learn
- Non adatto al deep learning : a differenza di TensorFlow o PyTorch, non gestisce reti neurali o attività di deep learning su larga scala.
- Limiti prestazionali : ottimizzato per set di dati di piccole e medie dimensioni; meno efficiente per set di dati di grandi dimensioni rispetto ai framework distribuiti.
- Meno specializzato per la produzione : progettato principalmente per la ricerca e la prototipazione piuttosto che per la diffusione su larga scala.
2. AutoML e piattaforme di apprendimento automatico distribuito
H2O.ai
H2O.ai è una piattaforma di apprendimento automatico distribuita in memoria . Supporta algoritmi statistici e di apprendimento automatico ampiamente utilizzati, come le macchine a gradiente potenziato (GBM), i modelli lineari generalizzati (GLM) e il deep learning.
- Flussi di lavoro automatizzati: Esegue l'intero processo di apprendimento automatico (addestramento, ottimizzazione e valutazione di più modelli) entro un limite di tempo definito dall'utente.
- Elaborazione distribuita in memoria: i dati vengono elaborati su più nodi (macchine o server) in una rete, con ciascun nodo che memorizza parte dei dati in memoria (RAM) anziché affidarsi a una memoria su disco più lenta. Pertanto, se si analizzano terabyte di dati, avere i dati in memoria consente calcoli più veloci.
Limitazioni di H2O.ai
- Richiede molte risorse : la progettazione distribuita in memoria può richiedere notevoli risorse computazionali.
- Minore flessibilità per la ricerca : ottimizzato per flussi di lavoro di apprendimento automatico applicato e AutoML. Non adatto a progetti di ricerca personalizzati.
MLflow
MLflow è una piattaforma open-source progettata per supportare lo sviluppo di modelli di apprendimento automatico e applicazioni di intelligenza artificiale generativa. Si compone di quattro elementi principali:
- Tracciamento : consente di tracciare gli esperimenti registrando parametri, metriche e risultati, facilitando il confronto tra diverse esecuzioni.
- Modelli : Offre strumenti per impacchettare, gestire e distribuire modelli provenienti da diverse librerie di machine learning in molteplici ambienti di distribuzione e inferenza.
- Valutazione e tracciamento degli agenti IA : aiuta gli sviluppatori a creare agenti IA affidabili fornendo funzionalità per valutare, confrontare ed eseguire il debug dei comportamenti degli agenti.
- Registro dei modelli : facilita la gestione del ciclo di vita dei modelli, inclusi il controllo delle versioni, le transizioni di fase (dall'ambiente di staging a quello di produzione) e le annotazioni.
Le caratteristiche includono:
- Tracciamento degli esperimenti : registra e confronta parametri, metriche, artefatti e risultati, consentendo ai team di riprodurre gli esperimenti e identificare i modelli con le prestazioni migliori.
- Registro dei modelli : archivio centralizzato per la gestione del ciclo di vita del modello, inclusi il versioning (mantenimento di diverse versioni salvate di un modello) e le annotazioni (aggiunta di note o metadati per fornire contesto).
- Ampia compatibilità con framework e API : compatibile con Python, Java, R e API REST, e si integra con i più diffusi framework di machine learning come Scikit-learn, TensorFlow, PyTorch e XGBoost.
Limitazioni di MLflow
- Complessità di scalabilità: l'esecuzione di MLflow su larga scala richiede un'infrastruttura considerevole (database, server di tracciamento).
- Orchestrazione limitata: MLflow non offre nativamente funzionalità di orchestrazione del flusso di lavoro; è necessaria l'integrazione con strumenti come Airflow, Kubeflow o Prefect.
3. Ecosistemi di modelli linguistici di grandi dimensioni (LLM)
Hugging Face Transformers
Transformers è una libreria open-source che fornisce modelli pre-addestrati per l'inferenza e l'addestramento. La libreria è principalmente basata su PyTorch , con supporto per lo sviluppo di modelli su larga scala, utilità di addestramento e implementazione semplificata tramite pipeline e trainer.
Il supporto JAX è disponibile tramite integrazioni con Keras , mentre il supporto per TensorFlow, presente in precedenza, è stato rimosso nelle versioni più recenti.
Hugging Face ospita modelli per diversi domini:
- Testo
- Visione
- Audio
- Multimodal
Le caratteristiche principali sono:
- Modelli transformer pre-addestrati : Hugging Face offre milioni di modelli pre-addestrati (già addestrati su grandi dataset, in modo che gli utenti possano perfezionarli o applicarli direttamente senza partire da zero).
- Comunità attiva e documentazione : numerosi tutorial, guide e frequenti contributi mantengono la libreria aggiornata con gli ultimi progressi.
Hugging Face Limitazioni dei trasformatori
- Elevate esigenze computazionali : molti modelli richiedono hardware potente (GPU/TPU) per funzionare in modo efficiente.
- Qualità variabile dei modelli : i modelli forniti dalla comunità potrebbero essere obsoleti o non essere aggiornati in modo coerente.
GPT4All
GPT4All è essenzialmente un ecosistema di modelli lineari lineari open-source (che supporta oltre 1.000 modelli, tra cui LLaMA, Mistral e DeepSeek R1).
Si tratta di un chatbot locale e privato per carichi di lavoro multi-dispositivo, funziona sia su CPU che su GPU e può operare online o offline.
- Funzionalità offline : può funzionare senza connessione a Internet su laptop o dispositivi mobili.
- Ampio supporto di modelli : compatibile con modelli quali DeepSeek R1, LLaMa, Mistral e Nous-Hermes (che coprono molti dei modelli lineari di apprendimento open-source più diffusi).
- Privacy : tutti i dati vengono conservati localmente (le risposte vengono generate sul computer dell'utente), garantendo la sicurezza delle informazioni sensibili.
Limitazioni di GPT4All
- Ambito ristretto : progettato principalmente come chatbot, con applicazioni limitate al di là dell'intelligenza artificiale conversazionale.
Apri l'interfaccia Web
Open WebUI è un'interfaccia web self-hosted per interagire con modelli linguistici di grandi dimensioni, disponibile localmente o tramite API compatibili con OpenAI.
- Supporto multi-modello: si connette a modelli locali o cloud (ad esempio, Ollama o API compatibili con OpenAI) tramite un'interfaccia unificata.
- Chat integrata per RAG e documenti: supporta l'interrogazione di documenti caricati e basi di conoscenza tramite generazione aumentata per il recupero delle informazioni.
- Sistema di plugin ed estensibilità: gli sviluppatori possono estendere le funzionalità con strumenti, pipeline e plugin o aggiungere il supporto per ulteriori provider di modelli.
- Opzioni di implementazione flessibili: può essere installato utilizzando Docker, Kubernetes o altri strumenti di containerizzazione.
Limitazioni di Open WebUI
- Rischi per la sicurezza in caso di configurazione errata: vulnerabilità o connessioni non sicure a server di modelli esterni potrebbero esporre i token o consentire la compromissione del sistema se non adeguatamente protette.
4. Piattaforme di intelligenza artificiale conversazionale
Rasa
Rasa è una piattaforma di intelligenza artificiale conversazionale open-source progettata per la creazione di chatbot e assistenti virtuali. Si concentra su Sviluppo di IA conversazionale e chatbot. Rasa introduce nel campo dell'IA conversazionale concetti standard delle piattaforme di IA come la gestione dei dati, il monitoraggio, la collaborazione e l'integrazione dei flussi di lavoro.
- Strumenti di revisione delle conversazioni : offre una casella di posta dedicata per la revisione dei dialoghi reali degli utenti, aiutando i team a capire come le persone interagiscono naturalmente con un chatbot implementato con Rasa.
- Etichettatura e filtraggio : supporta la classificazione delle conversazioni in base a intento, azione, valori degli slot e stato di revisione.
- Funzionalità di collaborazione : consente ai team di condividere flussi di lavoro, assegnare revisioni e categorizzare le conversazioni.
- Rilevamento degli errori : consente di segnalare i messaggi problematici in modo che possano essere risolti in una fase successiva del ciclo di sviluppo.
I limiti di Rasa
- Ambito di applicazione specifico : progettato principalmente per migliorare gli assistenti virtuali attraverso l'analisi delle conversazioni, non come piattaforma generica di elaborazione del linguaggio naturale o di data science.
- Intervento manuale richiesto : sebbene il filtraggio e l'etichettatura siano utili, gran parte del processo di miglioramento dipende ancora dalla revisione manuale delle conversazioni.
Botpress
Botpress è una piattaforma di intelligenza artificiale conversazionale open-source progettata per la creazione, la distribuzione e la gestione di chatbot.
- Flusso e controllo visivi : offre un generatore di flussi drag-and-drop per progettare conversazioni chatbot, consentendo al contempo una personalizzazione avanzata tramite codice.
- Integrazione con l'IA generativa : integrazione nativa di GPT per domande e risposte nella knowledge base e risposte a testo libero.
Limiti di Botpress
- Immaturità dell'ecosistema di plugin e integrazioni : la libreria di plugin e integrazioni è più piccola rispetto a quella di concorrenti come Dialogflow o Rasa (i plugin della community non sono ancora ampiamente supportati).
- Funzionalità aziendali limitate nei piani gratuiti/aperti : funzionalità come SSO, strumenti di conformità e configurazioni ad alta disponibilità sono disponibili principalmente nel piano Enterprise a pagamento.
- Rischi di dipendenza dall'IA generativa : Forte dipendenza dalle integrazioni GPT. L'utilizzo di API LLM esterne o di modelli di grandi dimensioni spesso comporta costi o latenza .
5. Piattaforme per agenti
Agenti profondi Langchain
Deep Agents è un framework per agenti open-source sviluppato da LangChain che fornisce un "sistema di agenti" strutturato con funzionalità integrate di pianificazione, utilizzo degli strumenti, gestione della memoria e coordinamento dei sub-agenti.
- Pianificazione e scomposizione delle attività: gli agenti possono scomporre automaticamente attività complesse in fasi più piccole utilizzando strumenti di pianificazione integrati (ad esempio, il monitoraggio delle attività in stile "todo").
- Delega dei subagenti: il framework consente agli agenti di generare subagenti specializzati per gestire le sottoattività.
- Gestione del contesto con i file system: gli agenti possono memorizzare e recuperare informazioni tramite file system virtuali o collegabili.
- Memoria persistente: il sistema può memorizzare le informazioni tra conversazioni o sessioni, consentendo agli agenti di mantenere un contesto a lungo termine.
- Strumenti per sviluppatori e interfaccia a riga di comando: l'SDK di Deep Agents e l'interfaccia a riga di comando consentono agli sviluppatori di creare agenti in grado di eseguire codice, accedere a file, effettuare richieste web e integrarsi con API esterne.
Limitazioni degli agenti profondi di Langchain
- Ideale per attività complesse: il framework è progettato per flussi di lavoro di lunga durata o a più fasi, quindi potrebbe rappresentare un sovraccarico superfluo per applicazioni più semplici basate su agenti.
- Maggiore complessità: funzionalità come subagenti, file system e strumenti di pianificazione possono aumentare la complessità del sistema e richiedere un'attenta configurazione.
OpenAgents
OpenAgents fornisce l'infrastruttura per la creazione di reti di agenti in cui gli agenti di intelligenza artificiale possono scoprirsi a vicenda, comunicare e collaborare allo svolgimento dei compiti.
- Reti di agenti: consentono a più agenti di intelligenza artificiale di connettersi e collaborare in reti strutturate per risolvere compiti complessi.
- Protocolli per la comunicazione tra agenti: include meccanismi integrati per la scoperta, la messaggistica e la collaborazione tra agenti.
- Integrazione con strumenti e framework LLM: funziona con i principali provider LLM e framework per agenti e supporta protocolli come MCP e A2A per l'interazione tra agenti.
- Architettura modulare: utilizza un sistema modulare e basato sugli eventi che consente agli sviluppatori di estendere le funzionalità e personalizzare il comportamento degli agenti.
Limitazioni di OpenAgents
- In continua evoluzione: la documentazione e le API sono in fase di sviluppo attivo, pertanto gli esempi o le interfacce potrebbero subire modifiche.
- Complessità dei sistemi multi-agente: la creazione e la gestione di grandi reti di agenti possono introdurre sfide di coordinamento e infrastrutturali.
Openclaw
OpenClaw funge da gateway che collega le piattaforme di chat ai modelli di intelligenza artificiale, consentendo all'assistente di svolgere attività come la gestione delle email, la pianificazione di eventi e l'automazione dei flussi di lavoro.
- Integrazione con diverse piattaforme di messaggistica: l'assistente funziona tramite le app di chat più comuni (ad esempio, WhatsApp, Telegram, Discord, Slack), consentendo agli utenti di interagire con l'IA dalle piattaforme che già utilizzano.
- Architettura self-hosted: gli utenti eseguono il gateway OpenClaw localmente o sul proprio server, mantenendo il controllo sui dati e sulle chiavi API anziché affidarsi a un servizio ospitato nel cloud.
- Automazione delle attività: l'IA può eseguire azioni reali come l'invio di e-mail, la gestione dei calendari o la gestione dei flussi di lavoro digitali direttamente dai comandi di chat.
- Supporto multi-modello: OpenClaw può connettersi a diversi fornitori di modelli AI (ad esempio, OpenAI, Anthropic o altri), consentendo agli utenti di scegliere i modelli in base alle proprie esigenze.
- Gestione del routing degli agenti e delle sessioni: la piattaforma supporta il routing multi-agente e sessioni separate per utenti o aree di lavoro differenti.
Limitazioni di OpenClaw
- Rischi per la sicurezza derivanti dalle estensioni: i plugin di terze parti potrebbero contenere codice dannoso, esponendo potenzialmente dati sensibili se non attentamente esaminati.
- Elevati privilegi di sistema: poiché l'assistente può accedere ai file, eseguire script o controllare le applicazioni, una configurazione errata o istruzioni dannose potrebbero creare vulnerabilità di sicurezza.
Che cos'è l'intelligenza artificiale open-source?
Nell'applicazione pratica, l'intelligenza artificiale open source si riferisce a sistemi, modelli o algoritmi resi pubblicamente disponibili affinché chiunque possa utilizzarli, studiarli, modificarli e condividerli. Le applicazioni tipiche includono modelli linguistici complessi, sistemi di traduzione automatica, chatbot e altri strumenti basati sull'intelligenza artificiale.
Tuttavia, storicamente non è mai esistito uno standard ampiamente condiviso per definire cosa si intenda per IA open-source :
- Esempi di codice sorgente chiuso : OpenAI e Anthropic hanno mantenuto segreti i set di dati, i modelli e gli algoritmi.
- Modelli in zona grigia : Meta e Google hanno rilasciato modelli adattabili, ma i critici hanno sostenuto che non fossero veramente open source a causa dei limiti di licenza e dei set di dati non divulgati.
Per affrontare questo problema, l' Open Source Initiative (OSI) , l'organizzazione nota per la definizione degli standard open source, ha pubblicato una definizione formale di intelligenza artificiale. 1
Secondo l'OSI, un sistema di intelligenza artificiale open source dovrebbe:
- Può essere utilizzato per qualsiasi scopo senza richiedere autorizzazione.
- Consentire l'ispezione dei suoi componenti in modo che i ricercatori possano comprenderne il funzionamento.
- Deve essere modificabile per qualsiasi scopo, compresa la possibilità di alterare i risultati.
- Condivisibile, con o senza modifiche, per qualsiasi scopo.
In pratica, tuttavia, molte release di IA descritte come "aperte" sono meglio caratterizzate come modelli a pesi aperti , il che significa che pubblicano i pesi del modello ma non divulgano i dati di addestramento completi o il processo di sviluppo necessari per soddisfare i criteri open source dell'OSI.
Sii il primo a commentare
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.