Intelligenza artificiale generativa in ambito aziendale: 11 casi d'uso e best practice
L'intelligenza artificiale generativa (GenAI) offre nuove opportunità alle imprese rispetto alle aziende di medie dimensioni o alle startup, tra cui:
- Casi d'uso dell'IA generativa in ambito aziendale .
- L'opportunità di creare i modelli della tua azienda senza esporre dati privati a terzi.
Tuttavia, l'intelligenza artificiale generativa presenta sfide specifiche per le grandi organizzazioni. Ad esempio:
- Il 36% delle imprese esprime preoccupazione per l'esposizione dei dati proprietari quando utilizza piattaforme LLM commerciali. 1
- GenAI accelererà inoltre lo sviluppo di nuovi servizi e soluzioni, consentendo ai concorrenti di entrare più rapidamente nei mercati e conquistare quote di mercato.
- L'automazione basata su modelli generativi può migliorare l'esperienza del cliente o ridurre i costi, ma può anche introdurre rischi operativi e reputazionali a causa di pregiudizi o allucinazioni indotte dall'IA .
Esplora i nostri casi d'uso pratici di IA aziendale per scoprire come le grandi aziende possono creare, implementare e gestire in modo efficace i propri modelli di IA generativa.
Casi d'uso dell'intelligenza artificiale generativa in ambito aziendale
Il web è pieno di casi d'uso B2C, come la scrittura di email con il supporto dell'IA generativa, che non richiedono integrazioni profonde o modelli specializzati. Tuttavia, il valore aziendale dell'IA generativa emerge dalle applicazioni di IA aziendali elencate di seguito:
Casi d'uso comuni
Gestione della conoscenza aziendale (EKM): mentre le PMI e le aziende di medie dimensioni non hanno difficoltà a organizzare i loro dati limitati, le aziende Fortune 500 o Global Forbes 2000 necessitano di strumenti di gestione della conoscenza aziendale per numerosi casi d'uso. L'intelligenza artificiale generativa può essere d'aiuto. Le applicazioni includono:
- Estrazione di informazioni utili tramite l'etichettatura di dati non strutturati come i documenti.
- Sintesi di dati non strutturati.
- Ricerca aziendale che va oltre la semplice ricerca per parole chiave, tenendo conto delle relazioni tra le parole.
Parte del processo di ricerca aziendale include la risposta alle domande dei dipendenti su:
- Pratiche aziendali (ad esempio, politiche delle risorse umane)
- Dati interni aziendali come le previsioni di vendita
- Una combinazione di dati interni ed esterni. Ad esempio: in che modo eventuali sanzioni future contro le vendite di sistemi MLOps al nostro terzo mercato geografico più grande influirebbero sulle nostre prestazioni aziendali?
Le organizzazioni più grandi servono clienti globali e la capacità di traduzione automatica dei LLM è preziosa in casi d'uso come:
- Localizzazione del sito web
- Creazione di documentazione, come manuali tecnici, su larga scala per tutte le aree geografiche.
- Servizio clienti multilingue
- Monitoraggio dei social media rivolto a un pubblico globale
- Analisi del sentiment multilingue
Applicazioni specifiche per settore
La maggior parte del valore aziendale deriverà probabilmente dall'utilizzo di tecnologie di intelligenza artificiale generativa per l'innovazione nei settori specifici delle aziende: ciò potrebbe concretizzarsi in nuovi prodotti e servizi o in nuove modalità di lavoro (ad esempio, il miglioramento dei processi con l'IA generativa). Gli elenchi di applicazioni di IA generativa riportati di seguito possono servire da punto di partenza:
- Servizi finanziari GenAI
- Intelligenza generativa nell'istruzione
- Intelligenza artificiale generativa per la moda
- Intelligenza generativa in ambito sanitario
In che modo le imprese dovrebbero sfruttare l'intelligenza artificiale generativa?
Abbiamo tracciato un percorso dettagliato che le aziende possono seguire per sfruttare l'intelligenza artificiale generativa. Sebbene la maggior parte delle aziende non abbia bisogno di costruire i propri modelli, si prevede che la maggior parte delle grandi imprese (ad esempio, quelle presenti nella classifica Forbes Global 2000) svilupperà o ottimizzerà uno o più modelli di intelligenza artificiale generativa specifici per le proprie esigenze aziendali entro i prossimi anni. La messa a punto può consentire alle aziende di raggiungere i seguenti obiettivi:
- Ottieni una maggiore precisione personalizzando nel dettaglio l'output del modello per il tuo specifico ambito.
- Risparmia sui costi . I modelli personalizzabili con licenze che ne consentono l'uso commerciale si sono dimostrati quasi altrettanto precisi dei modelli proprietari, ma a un costo significativamente inferiore. 2
- Ridurre la superficie di attacco per i loro dati riservati
Aziende come Bloomberg stanno ottenendo risultati di livello mondiale sviluppando i propri strumenti di intelligenza artificiale generativa, sfruttando i dati interni. 3
Quali sono le linee guida per i modelli di intelligenza artificiale aziendale?
Come minimo, un modello di intelligenza artificiale generativa aziendale dovrebbe essere:
Fidato
Coerente
La maggior parte dei modelli lineari lineari (LLM) attualmente disponibili può fornire risultati diversi a partire dallo stesso input. Ciò limita la riproducibilità dei test, con il rischio di rilasciare modelli non sufficientemente testati.
Controllato
Le aziende dovrebbero ospitare o integrare l'IA generativa in ambienti in cui possano gestire la sicurezza e la conformità a livello granulare (ad esempio, in locale o in istanze cloud dedicate). L'alternativa è utilizzare interfacce di chat online o API come le API LLM di OpenAI.
Lo svantaggio di affidarsi alle API è che l'utente potrebbe dover esporre dati proprietari riservati al proprietario dell'API. Ciò aumenta la superficie di attacco per i dati proprietari. Leader globali come Amazon e Samsung hanno subito fughe di dati, tra cui documenti interni e codice sorgente prezioso, quando i loro dipendenti utilizzavano ChatGPT. 4 5
Da allora, le offerte per le aziende si sono notevolmente evolute:
- OpenAI Enterprise (2023) e, successivamente, il ChatGPT Team (2024) hanno introdotto la conservazione zero dei dati, la conformità SOC 2, l'integrazione SSO/SAML e i controlli amministrativi. 6
- I principali fornitori (ad esempio, Anthropic, Microsoft, Google, Cohere) ora pubblicizzano la possibilità di escludere i dati dei clienti, il che significa che le richieste e gli output degli utenti non vengono utilizzati per l'addestramento dei modelli.
- I fornitori hanno inoltre iniziato ad allinearsi ai requisiti dell'EU AI Act (2024), che enfatizzano i principi di un'IA responsabile come la trasparenza, la verificabilità e la gestione del rischio nei sistemi di IA ad alto rischio.
Nonostante questi progressi, permangono rischi residui quando ci si affida a sistemi cloud di terze parti:
- Persone interne malintenzionate o fornitori compromessi potrebbero comunque accedere ai dati aziendali.
- Le configurazioni errate delle API possono esporre flussi di dati sensibili.
- La mancanza di trasparenza nei modelli di gestione della liquidità (LLM) continua a rappresentare una sfida per i team addetti alla conformità.
Per i settori altamente regolamentati, l'hosting autonomo o l'implementazione privata di modelli di base (tramite modelli open-weight come LLaMA-4, Mistral o Granite) rimane l'approccio più sicuro, sebbene a costi operativi più elevati.
Spiegabile
Purtroppo, la maggior parte dei modelli di IA generativa non è in grado di spiegare il perché di determinati risultati. Ciò ne limita l'utilizzo, poiché gli utenti aziendali che desiderano basare importanti decisioni su assistenti basati sull'IA vorrebbero conoscere i dati che hanno guidato tali decisioni. L'IA applicata ai modelli di apprendimento per livelli (LLM) è ancora un'area di ricerca.
Affidabile
Le allucinazioni (ovvero l'invenzione di falsità) sono una caratteristica dei modelli mentali negativi e difficilmente potranno essere completamente eliminate. I sistemi di intelligenza artificiale generale aziendali richiedono i processi e le misure di sicurezza necessari per garantire che le allucinazioni dannose siano ridotte al minimo, rilevate o identificate dagli esseri umani prima che possano compromettere le operazioni aziendali.
Le aziende si affidano sempre più alle pipeline di generazione aumentata tramite recupero (RAG) per ridurre le incertezze, basando i modelli su dati affidabili. Tuttavia, permangono sfide in termini di infrastruttura, archiviazione e sicurezza, il che rende RAG non solo una soluzione temporanea, ma un requisito aziendale a lungo termine. 7
Sicuro
I modelli aziendali possono avere interfacce per utenti esterni. Malintenzionati possono utilizzare tecniche come l'iniezione di prompt per indurre il modello a eseguire azioni indesiderate o a condividere dati riservati.
Etico
Formazione etica
Il modello dovrebbe essere addestrato su dati provenienti da fonti etiche, dove la proprietà intellettuale (PI) appartiene all'azienda o al suo fornitore e i dati personali vengono utilizzati con il consenso.
- Le problematiche relative alla proprietà intellettuale nell'IA generativa, come ad esempio i dati di addestramento che includono contenuti protetti da copyright di cui il titolare non detiene i diritti, possono portare a modelli inutilizzabili e a procedimenti legali.
- L'utilizzo di informazioni personali nei modelli di training può comportare problemi di conformità. Ad esempio, ChatGPT di OpenAI ha dovuto rendere pubbliche le proprie politiche di raccolta dati e consentire agli utenti di rimuovere i propri dati a seguito delle preoccupazioni sollevate dal Garante per la protezione dei dati personali. 8
Per saperne di più, leggi le problematiche e le soluzioni relative al copyright nell'IA generativa .
Giusto
Per le imprese, i modelli iniqui possono comportare diversi rischi:
- Rischio normativo: i sistemi di intelligenza artificiale utilizzati in ambito di assunzioni, prestiti, assicurazioni o assistenza sanitaria potrebbero violare le leggi antidiscriminazione se producono risultati distorti .
- Rischio operativo: i risultati distorti possono compromettere la qualità delle decisioni, ad esempio raccomandando candidati non idonei o classificando erroneamente i segmenti di clientela.
- Rischio reputazionale: la divulgazione pubblica di comportamenti distorti dell'IA può danneggiare la fiducia nel marchio e le relazioni con i clienti.
- Limitazioni di mercato: i modelli addestrati principalmente su una specifica area geografica, lingua o gruppo demografico potrebbero avere prestazioni insoddisfacenti nei mercati globali.
Come le imprese affrontano il tema dell'equità
Le imprese affrontano il tema dell'equità nell'IA attraverso una combinazione di pratiche di governance e misure di sicurezza tecniche:
- Selezionano e curano set di dati di addestramento diversificati e rappresentativi, rimuovendo attributi sensibili o variabili proxy che potrebbero introdurre distorsioni.
- I modelli vengono valutati utilizzando metriche di equità (ad esempio, parità demografica o pari opportunità) e testati su casi limite per identificare potenziali disparità.
- Le organizzazioni integrano anche la supervisione umana, come la validazione umana per le decisioni ad alto impatto e i comitati di revisione etica dell'IA.
- Le aziende monitorano costantemente gli output dei modelli in produzione per individuare schemi distorti e riaddestrare i modelli man mano che diventano disponibili dati nuovi o più equilibrati.
Con licenza
L'azienda deve possedere una licenza commerciale per utilizzare il modello. Ad esempio, l'utilizzo di modelli come LLaMa di Meta prevede licenze non commerciali che ne impediscono l'uso legale nella maggior parte dei casi in un'azienda a scopo di lucro. Anche i modelli con licenze permissive come Vicuna, basato su LLaMa, finiscono per avere licenze non commerciali poiché sfruttano il modello LLaMa. 9 10
Sostenibile
L'addestramento di modelli di intelligenza artificiale generativa da zero è costoso e ad alta intensità energetica , contribuendo alle emissioni di carbonio. I leader aziendali dovrebbero essere consapevoli del costo complessivo della tecnologia di intelligenza artificiale generativa e individuare i modi per minimizzarne gli impatti ecologici e finanziari.
Le imprese possono impegnarsi per conformarsi alla maggior parte di queste linee guida, che si collocano su un continuum, ad eccezione delle questioni relative alle licenze, alle problematiche etiche e al controllo.
- È chiaro come ottenere le licenze corrette ed evitare problemi etici, ma si tratta di obiettivi difficili da raggiungere.
- Raggiungere il controllo richiede alle aziende di costruire i propri modelli di base, tuttavia la maggior parte delle aziende non ha ben chiaro come farlo.
Come possono le imprese costruire modelli di base?
Esistono due approcci per costruire l'infrastruttura LLM della vostra azienda in un ambiente controllato.
1- Costruisci il tuo modello (BYOM)
Questo approccio consente di ottenere prestazioni di livello mondiale con un costo di pochi milioni di dollari, inclusi i costi di calcolo (1,3 milioni di ore GPU su GPU A100 da 40 GB nel caso di BloombergGPT) e i costi del team di data science. 11
Il BYOM (Bring Your Own Machine) è adottato principalmente dalle imprese che operano in settori altamente regolamentati (ad esempio, finanza, sanità, difesa) dove la sensibilità dei dati e i requisiti di conformità superano i costi. Alcune aziende seguono un approccio ibrido, addestrando modelli più piccoli specifici per il dominio e sfruttando al contempo modelli di base esterni per il ragionamento di carattere generale.
2- Migliorare un modello esistente
La maggior parte delle imprese adotta questo approccio per la sua efficienza in termini di costi e la sua flessibilità. Sono disponibili diversi metodi:
2.1- Messa a punto
Si tratta di una tecnica di apprendimento automatico più economica per migliorare le prestazioni di modelli linguistici di grandi dimensioni (LLM) pre-addestrati utilizzando set di dati selezionati.
La messa a punto delle istruzioni veniva precedentemente effettuata con grandi insiemi di dati, ma ora può essere ottenuta con un insieme di dati ridotto (ad esempio, 1.000 prompt e risposte selezionate nel caso di LIMA). 12 L'importanza di un approccio robusto alla raccolta dei dati, che ottimizzi la qualità e la quantità dei dati, è evidenziata nei primi esperimenti commerciali di messa a punto dei modelli lineari lineari (LLM). 13
I costi computazionali per la redazione di articoli di ricerca sono stati di soli 100 dollari, pur raggiungendo prestazioni quasi di livello mondiale. 14
La messa a punto dei modelli è un campo emergente, con nuovi approcci come l'Inference-Time Intervention (ITI), un metodo per ridurre le allucinazioni del modello, che vengono pubblicati ogni settimana. 15
2.2 - Apprendimento per rinforzo tramite feedback umano (RLHF)
Un modello ben ottimizzato può essere ulteriormente migliorato attraverso una valutazione che coinvolga l'intervento umano. 16 17
2.3 - Generazione aumentata del recupero (RAG)
RAG consente alle aziende di trasmettere informazioni cruciali ai modelli durante la fase di generazione. I modelli possono utilizzare queste informazioni per produrre risposte più accurate.
Framework moderni come LangChain e LlamaIndex facilitano l'integrazione sicura di dati aziendali strutturati e non strutturati. I metodi RAG avanzati ora includono il recupero multi-hop e l'integrazione della ricerca in tempo reale, migliorando ulteriormente l'affidabilità e l'accuratezza dei dati.
Le aziende si stanno orientando verso l'auto-grounding, in cui i modelli si connettono automaticamente a fonti di dati in tempo reale per mantenere gli output aggiornati. I fornitori di servizi cloud come Azure ora considerano RAG come l'architettura principale per i sistemi di controllo, i sistemi di conoscenza e le applicazioni per i clienti, dando priorità alla scalabilità e alla sicurezza. 18
Considerati gli elevati costi associati al BYOM, raccomandiamo alle aziende di utilizzare inizialmente versioni ottimizzate dei modelli esistenti. L'ottimizzazione dei modelli linguistici è un ambito emergente, con nuovi approcci che vengono sviluppati settimanalmente. Pertanto, le aziende dovrebbero essere aperte alla sperimentazione ed essere pronte a modificare il proprio approccio.
Modelli di fondazione più convenienti per le imprese
Le piattaforme di machine learning hanno rilasciato modelli di base con licenze commerciali, che si basano principalmente su testi presenti su Internet come fonte primaria di dati. Questi modelli possono essere utilizzati come modelli di base per costruire modelli linguistici aziendali di grandi dimensioni:
OpenAI GPT-5
GPT-5.4 è l'ultimo modello di frontiera di OpenAI progettato per il lavoro professionale e complesso che richiede conoscenze specifiche. Le funzionalità includono:
- Capacità di ragionamento e di elaborazione delle conoscenze avanzate: produce risultati di alta qualità per attività quali report, fogli di calcolo, presentazioni e analisi in diversi ambiti professionali.
- Capacità di codifica: Integra i punti di forza di codifica di GPT-5.3-Codex, consentendo la generazione di codice di qualità per la produzione e modifiche software multi-file.
- Flussi di lavoro e utilizzo degli strumenti basati sugli agenti: è possibile cercare e selezionare strumenti, automatizzare flussi di lavoro a più fasi ed eseguire attività lunghe in modo più affidabile.
- Capacità native di utilizzo del computer: gli agenti possono interagire con il software utilizzando screenshot, azioni del mouse/tastiera o codice di automazione per completare attività su app e siti web.
- Ampia finestra di contesto: supporta fino a 1 milione di token, consentendo l'analisi di grandi codebase, documenti lunghi o flussi di lavoro estesi in un'unica richiesta.
GPT-5.4 mostra notevoli miglioramenti in diversi benchmark. Ottiene l'83% di vittorie/pareggi su GDPval per le attività di lavoro intellettuale (in aumento rispetto al 70,9% di GPT-5.2). Nell'ingegneria del software, ottiene un punteggio del 57,7% su SWE-Bench Pro, indicando solide prestazioni di programmazione. Per le attività di utilizzo del computer, raggiunge il 75% su OSWorld-Verified, superando il valore di riferimento umano del 72,4%.
Ottiene buoni risultati anche nella ricerca sul web, con un punteggio dell'82,7% su BrowseComp.
Inoltre, le risposte di GPT-5.4 hanno il 33% di probabilità in meno di essere false e il 18% di probabilità in meno di contenere errori rispetto a GPT-5.2. 19
GPT-5.3-Codex è il modello di codifica agentica di OpenAI, che combina le capacità avanzate di ingegneria del software di GPT-5.2-Codex con il ragionamento più ampio e la conoscenza professionale di GPT-5.2.
Il modello gestisce flussi di lavoro di sviluppo complessi, come la ricerca, l'utilizzo di strumenti in più fasi e le attività di codifica di lunga durata, su basi di codice di grandi dimensioni.
Figura 1: Un esempio di richiesta di generazione di diapositive utilizzando il codex GPT-5.3. 20
DeepSeek
DeepSeek-V3 di DeepSeek è un modello MoE (~671B, con licenza MIT) con elevate prestazioni di ragionamento e codifica ed è open-source da marzo 2025. 21
DeepSeek-V3.1 di DeepSeek (agosto 2025) estende le funzionalità di contesto lungo con un tokenizzatore aggiornato e pesi aperti. 22
Google DeepMind
Gemini 3.1 Pro (Google DeepMind) è un modello linguistico di frontiera di grandi dimensioni progettato per il ragionamento complesso, la codifica e le attività multimodali, in grado di elaborare informazioni provenienti da testo , immagini , audio , video , codice e documenti .
In diversi benchmark, Gemini Pro dimostra prestazioni elevate in compiti di ragionamento, programmazione e multimodali. Ottiene il 77,1% su ARC-AGI-2 per il ragionamento astratto e il 94,3% su GPQA Diamond per domande scientifiche di livello universitario. Su Humanity's Last Exam, che misura il ragionamento accademico, ottiene un punteggio del 44,4% senza l'ausilio di strumenti.
Per la programmazione e l'ingegneria del software, il modello raggiunge il 68,5% su Terminal-Bench 2.0 e l'80,6% su SWE-Bench Verified. Ottiene buoni risultati anche nei benchmark di conoscenza e multimodali, con un punteggio del 92,6% su MMMLU (conoscenza multilingue) e circa l'80,5% su MMMU-Pro (ragionamento multimodale). 23
Meta LLaMA
LaMA 4 di Meta è stato rilasciato come LLaMA 4 Maverick , Scout e un'anteprima di Behemoth. Questi modelli sono nativamente multimodali (testo e immagini), supportano finestre di contesto fino a 10 milioni di token e rimangono ottimizzati per l'efficienza. 24
Llama 3 di Meta era il modello precedente con una licenza per uso commerciale con alcune limitazioni per le aziende molto grandi. 25
Mistral AI
Mistral 8x22B è l'ultimo modello open-weights sviluppato dalla startup europea di intelligenza artificiale generativa Mistral. Grazie alla sua licenza permissiva (Apache 2.0), che consente l'utilizzo commerciale senza restrizioni specifiche per le grandi aziende, può risultare interessante per tutte le imprese. 26 Mistral fornisce anche modelli come Mistral Large ma tale modello ha una licenza più restrittiva. 27
Di recente, Mistral ha ampliato la sua gamma includendo modelli come Mistral Large 3; modelli più piccoli come Mistral Small e Medium; modelli specializzati per la codifica come Codestral e Devstral; e modelli audio come Voxtral Transcribe 2, che offre funzionalità di trascrizione vocale in batch e in tempo reale. 28
IBM
I modelli Granite di IBM offrono prestazioni elevate secondo i benchmark di generazione del codice e sono disponibili con la licenza permissiva Apache 2.0. 29
L'ecosistema Granite si è inoltre ampliato per includere modelli vocali, come Granite-4.0-1B-Speech, che supportano il riconoscimento vocale e la traduzione multilingue. 30
Databricks
DBRX è un modello open-weights sviluppato dalla piattaforma dati Databricks. Viene fornito con una licenza commerciale con limitazioni simili a quelle dei modelli di Meta. Le limitazioni si applicano alle aziende che servono più di 700 milioni di utenti attivi. 31
Grok
Grok-4 di xAI è stato rilasciato nel luglio 2025 con l'utilizzo di strumenti nativi, l'integrazione della ricerca in tempo reale e una variante "Heavy" per il ragionamento avanzato. Grok 4.1 è stato rilasciato nel novembre 2025, migliorando il ragionamento, la coerenza, le sfumature di personalità/emotive e riducendo le allucinazioni rispetto a Grok 4. 32
xAI ha recentemente introdotto Grok 4.20 Beta, che aggiunge funzionalità multi-agente, consentendo l'esecuzione coordinata di compiti tra più agenti specializzati. Nel frattempo, è stato riportato che Grok 5 è in fase di addestramento, il che suggerisce che ulteriori progressi nel ragionamento e nelle capacità degli agenti siano in fase di sviluppo. 33
Scopri i dettagli aggiornati sui benchmark e sui prezzi dei modelli base per le applicazioni genAI aziendali:
Qual è lo stack tecnologico più adatto per la creazione di modelli linguistici di grandi dimensioni?
L'intelligenza artificiale generativa è una tecnologia di intelligenza artificiale e le grandi aziende sviluppano soluzioni di IA da oltre un decennio. L'esperienza ha dimostrato che sfruttare le piattaforme di Machine Learning Operations (MLOps) accelera significativamente lo sviluppo dei modelli.
Oltre alle loro piattaforme MLOps, le organizzazioni aziendali possono fare affidamento su un elenco crescente di strumenti e framework LLMOps (Large Language Model Operations) come Langchain, Semantic Kernel o watsonx.ai per personalizzare e costruire i propri modelli, nonché su strumenti di gestione del rischio basati sull'IA come Nemo Guardrails.
Nelle fasi iniziali dell'introduzione di nuove tecnologie, raccomandiamo ai dirigenti di dare priorità alle piattaforme aperte per costruire sistemi a prova di futuro. Nel campo delle tecnologie emergenti, il vendor lock-in rappresenta un rischio significativo. Le aziende possono ritrovarsi bloccate con sistemi obsoleti a fronte di rapidi e profondi cambiamenti tecnologici.
Infine, l'infrastruttura dati di un'azienda è tra le tecnologie di base più importanti per l'intelligenza artificiale generativa:
È necessario organizzare e formattare enormi quantità di dati interni.
Gli sforzi volti a migliorare la qualità e l'osservabilità dei dati dovrebbero garantire alle aziende l'accesso a set di dati di alta qualità, unici e di facile utilizzo, corredati da metadati chiari.
Per l'addestramento del modello potrebbero essere necessarie capacitàdi dati sintetici.
Come valutare le prestazioni dei modelli di grandi dimensioni?
Senza una misurazione dell'efficacia, il valore degli sforzi nel campo dell'IA generativa non può essere quantificato. Tuttavia, la valutazione dei modelli lineari basati su modelli (LLM) è un problema complesso a causa di problematiche relative ai set di dati di riferimento, all'interferenza dei benchmark con i dati di addestramento, all'incoerenza delle revisioni umane e ad altri fattori. 34 35 .
Raccomandiamo un approccio iterativo che aumenti gli investimenti nella valutazione man mano che i modelli si avvicinano all'utilizzo in produzione:
- Utilizza i punteggi dei test di riferimento per preparare le liste ristrette. Questi dati sono disponibili pubblicamente per un gran numero di modelli open source. 36 37
- Basandosi sui punteggi Elo utilizzati per classificare i giocatori nei giochi a somma zero come gli scacchi, è possibile confrontare i modelli da selezionare. Se esistono modelli con prestazioni superiori che non sono disponibili (ad esempio a causa di problemi di licenza o di sicurezza dei dati), questi possono essere utilizzati per confrontare le risposte dei diversi modelli. 38
Figura 2: Miglioramento dell'apprendimento con pochi esempi da OpenAI.
Questo può includere anche la guida al ragionamento a catena. La guida al ragionamento a catena è una tecnica di ingegneria del ragionamento che guida un modello linguistico a ragionare su un problema passo dopo passo prima di produrre una risposta finale. Generando passaggi di ragionamento intermedi, il modello può gestire meglio compiti complessi come matematica, logica o processi decisionali a più fasi.
Questo approccio spesso migliora la precisione e la trasparenza perché il modello scompone il problema in parti logiche più piccole anziché rispondere immediatamente con un'unica soluzione.
Figura 3: Esempio che illustra il funzionamento del suggerimento a catena di pensieri. 39
La generazione aumentata per il recupero (RAG) può essere utilizzata anche con modelli commerciali se l'azienda è soddisfatta delle politiche di sicurezza dei dati del fornitore del modello di base.
È inoltre possibile effettuare una messa a punto precisa per migliorare ulteriormente le prestazioni dei modelli commerciali offerti tramite API. 40
Fasi del modello pre-fondazione per le imprese
La creazione del modello aziendale può richiedere mesi, poiché è necessario completare i passaggi descritti di seguito. Ciascuno di questi passaggi può richiedere da settimane a mesi e non può essere completamente eseguito in parallelo:
- La raccolta dei dati può richiedere da settimane a mesi. I servizi di raccolta dati basati sull'IA possono accelerare questo processo, aiutando le aziende a generare set di dati di istruzioni bilanciati e di alta qualità, oltre ad altri dati utili per la creazione o la messa a punto dei modelli. È inoltre possibile collaborare con piattaforme di crowdsourcing per ottenere set di dati più diversificati.
- Assumere data scientist con esperienza in LLM o consulenti può richiedere da settimane a mesi.
- Formazione e impiego
- Integrazione dei modelli nei processi e nei sistemi aziendali
Raccomandiamo ai leader aziendali di incoraggiare la sperimentazione con l'IA di generazione (GenAI). Richiede un cambio di paradigma: dobbiamo considerare le macchine non come robot senza cervello, ma come co-creatori. Le organizzazioni dovrebbero iniziare a utilizzare la GenAI per promuovere questo cambiamento di mentalità, educando i dipendenti sul suo potenziale e mettendoli in condizione di cambiare il proprio modo di lavorare. Come spesso affermano i consulenti, la chiave di ogni trasformazione, inclusa quella dell'IA , risiede nelle persone.
Figura 4: Il framework di BCG per l'aspetto umano dell'adozione dell'IA generativa in azienda 41
I team possono sfruttare le API esistenti per automatizzare i processi in ambiti in cui il valore dei dati riservati è inferiore e l'integrazione dei sistemi è più semplice. Esempi di ambiti in cui i team possono sfruttare GenAI per migliorare la produttività e aumentare la familiarità con l'IA generativa senza dover creare modelli propri:
- Creazione di nuovi contenuti e ottimizzazione dei contenuti generati per le campagne di marketing.
- Generazione di codice per software front-end
- Intelligenza artificiale conversazionale per il coinvolgimento e l'assistenza clienti.
Sostenibilità e costi
L'intelligenza artificiale generativa richiede notevoli risorse computazionali e, di conseguenza, comporta costi sia finanziari che ambientali. Le aziende dovrebbero valutare attentamente questi compromessi quando decidono se sviluppare o ottimizzare i modelli.
Le considerazioni principali includono:
- Modellazione del ciclo di vita : la ricerca dimostra che l'impronta di carbonio dei modelli lineari di apprendimento (LLM) comprende l'addestramento, l'inferenza e persino l'hardware stesso. Strumenti come LLMCarbon forniscono framework per stimare questi costi end-to-end. 42
- Controlli di sostenibilità del cloud : i fornitori di servizi cloud (ad esempio, AWS) ora pubblicano dati sull'intensità di carbonio dei loro data center. 43
- Scegliere regioni più verdi o impianti a basso PUE (efficienza nell'utilizzo dell'energia) può ridurre significativamente le emissioni. 44
- Rapporti di settore : Rapporti indipendenti (ad esempio, Stanford AI Index, MIT Tech Review) evidenziano che le emissioni dei data center sono in aumento, nonostante il miglioramento dell'efficienza. 45 Ciò sottolinea la necessità di dimensionare correttamente i modelli e di ottimizzare l'inferenza, anziché inseguire sempre il modello più grande disponibile. 46
Strategie pratiche per la riduzione dei costi
Le imprese stanno adottando metodi quali:
- Utilizzare modelli più piccoli e specializzati (affinati su dati interni) anziché addestrarli da zero.
- Applicazione di tecniche di efficienza come la quantizzazione (compressione dei modelli) o la memorizzazione nella cache delle richieste.
- Sfruttando RAG, i modelli vengono generati solo quando necessario, anziché essere riaddestrati con ogni nuovo set di dati.
- Monitoraggio non solo dei costi finanziari, ma anche delle emissioni di CO₂ e del consumo idrico a livello di singolo caso d'uso, per garantire la massima trasparenza.
Raccomandazione : i leader aziendali dovrebbero considerare la sostenibilità sia come strategia di controllo dei costi sia come priorità di conformità. Allineando l'implementazione dell'IA agli obiettivi ESG aziendali, le imprese possono ridurre le spese e limitare il rischio reputazionale.
Qual è il livello di interesse per l'intelligenza artificiale generativa in ambito aziendale?
Sebbene vi siano molti segnali che indicano il boom dell'IA generativa in ambito aziendale (ad esempio, i ricavi dei consulenti legati all'IA generativa), questo non si è ancora riflesso nelle ricerche sui motori di ricerca. Tuttavia, si registra un crescente interesse per l'IA aziendale, probabilmente innescato dal lancio di ChatGPT.
Livello di adozione
Dall'anno scorso, le principali società di consulenza hanno aggiornato le roadmap per l'adozione dell'IA di nuova generazione nelle aziende, ponendo l'accento sul cambiamento del modello operativo, sulla governance e sulla creazione di valore, piuttosto che sui soli strumenti:
- Il 78% delle organizzazioni dichiara di utilizzare l'IA in almeno una funzione; le aziende stanno riorganizzando i flussi di lavoro, nominando responsabili della governance dell'IA e formalizzando i processi di valutazione del rischio dei modelli. 47
- GenAI sta superando la fase di picco dell'entusiasmo, con una roadmap che si sta orientando verso casi d'uso governati e commercializzati e verso un approccio basato su piattaforme. 48
Il divario nella commercializzazione dell'IA
Sebbene le prestazioni dei modelli migliorino ogni poche settimane, i prodotti aziendali spesso restano indietro. Molte soluzioni si limitano ad aggiungere l'IA ai flussi di lavoro esistenti (ad esempio, widget di chat, compilatori di moduli) invece di creare esperienze incentrate sull'IA e progettate da zero.
La vera opportunità sta nel ripensare i prodotti in modo che l'intelligenza artificiale diventi il modello di interazione centrale, non un semplice componente aggiuntivo. 49
FAQ
L'intelligenza artificiale generativa comprende output testuali, di immagini e audio prodotti da modelli di intelligenza artificiale, noti anche come modelli linguistici di grandi dimensioni (LLM), modelli linguistici, modelli di base o modelli di intelligenza artificiale generativa.
Lilli AI di McKinsey sfrutta i dati proprietari di McKinsey per rispondere alle domande dei consulenti e cita le fonti. McKinsey ha seguito un approccio indipendente dal modello LLM e utilizza più modelli LLM provenienti da Cohere e OpenAI in Lilli.
Walmart ha sviluppato My Assistant, un assistente virtuale basato sull'intelligenza artificiale generativa, per i suoi 50.000 dipendenti che non lavorano nei negozi.
Se avete altre domande o avete bisogno di aiuto per trovare i fornitori, possiamo aiutarvi:
Trova i fornitori giusti
Sii il primo a commentare
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.