Contattaci
Nessun risultato trovato.

Intelligenza artificiale generativa in ambito aziendale: 11 casi d'uso e best practice

Cem Dilmegani
Cem Dilmegani
aggiornato il Mar 12, 2026
Guarda il nostro norme etiche

L'intelligenza artificiale generativa (GenAI) offre nuove opportunità alle imprese rispetto alle aziende di medie dimensioni o alle startup, tra cui:

Tuttavia, l'intelligenza artificiale generativa presenta sfide specifiche per le grandi organizzazioni. Ad esempio:

  • Il 36% delle imprese esprime preoccupazione per l'esposizione dei dati proprietari quando utilizza piattaforme LLM commerciali. 1
  • GenAI accelererà inoltre lo sviluppo di nuovi servizi e soluzioni, consentendo ai concorrenti di entrare più rapidamente nei mercati e conquistare quote di mercato.
  • L'automazione basata su modelli generativi può migliorare l'esperienza del cliente o ridurre i costi, ma può anche introdurre rischi operativi e reputazionali a causa di pregiudizi o allucinazioni indotte dall'IA .

Esplora i nostri casi d'uso pratici di IA aziendale per scoprire come le grandi aziende possono creare, implementare e gestire in modo efficace i propri modelli di IA generativa.

Casi d'uso dell'intelligenza artificiale generativa in ambito aziendale

Il web è pieno di casi d'uso B2C, come la scrittura di email con il supporto dell'IA generativa, che non richiedono integrazioni profonde o modelli specializzati. Tuttavia, il valore aziendale dell'IA generativa emerge dalle applicazioni di IA aziendali elencate di seguito:

Casi d'uso comuni

Gestione della conoscenza aziendale (EKM): mentre le PMI e le aziende di medie dimensioni non hanno difficoltà a organizzare i loro dati limitati, le aziende Fortune 500 o Global Forbes 2000 necessitano di strumenti di gestione della conoscenza aziendale per numerosi casi d'uso. L'intelligenza artificiale generativa può essere d'aiuto. Le applicazioni includono:

  1. Estrazione di informazioni utili tramite l'etichettatura di dati non strutturati come i documenti.
  2. Sintesi di dati non strutturati.
  3. Ricerca aziendale che va oltre la semplice ricerca per parole chiave, tenendo conto delle relazioni tra le parole.

Parte del processo di ricerca aziendale include la risposta alle domande dei dipendenti su:

  1. Pratiche aziendali (ad esempio, politiche delle risorse umane)
  2. Dati interni aziendali come le previsioni di vendita
  3. Una combinazione di dati interni ed esterni. Ad esempio: in che modo eventuali sanzioni future contro le vendite di sistemi MLOps al nostro terzo mercato geografico più grande influirebbero sulle nostre prestazioni aziendali?

Le organizzazioni più grandi servono clienti globali e la capacità di traduzione automatica dei LLM è preziosa in casi d'uso come:

  1. Localizzazione del sito web
  2. Creazione di documentazione, come manuali tecnici, su larga scala per tutte le aree geografiche.
  3. Servizio clienti multilingue
  4. Monitoraggio dei social media rivolto a un pubblico globale
  5. Analisi del sentiment multilingue

Applicazioni specifiche per settore

La maggior parte del valore aziendale deriverà probabilmente dall'utilizzo di tecnologie di intelligenza artificiale generativa per l'innovazione nei settori specifici delle aziende: ciò potrebbe concretizzarsi in nuovi prodotti e servizi o in nuove modalità di lavoro (ad esempio, il miglioramento dei processi con l'IA generativa). Gli elenchi di applicazioni di IA generativa riportati di seguito possono servire da punto di partenza:

In che modo le imprese dovrebbero sfruttare l'intelligenza artificiale generativa?

Abbiamo tracciato un percorso dettagliato che le aziende possono seguire per sfruttare l'intelligenza artificiale generativa. Sebbene la maggior parte delle aziende non abbia bisogno di costruire i propri modelli, si prevede che la maggior parte delle grandi imprese (ad esempio, quelle presenti nella classifica Forbes Global 2000) svilupperà o ottimizzerà uno o più modelli di intelligenza artificiale generativa specifici per le proprie esigenze aziendali entro i prossimi anni. La messa a punto può consentire alle aziende di raggiungere i seguenti obiettivi:

  • Ottieni una maggiore precisione personalizzando nel dettaglio l'output del modello per il tuo specifico ambito.
  • Risparmia sui costi . I modelli personalizzabili con licenze che ne consentono l'uso commerciale si sono dimostrati quasi altrettanto precisi dei modelli proprietari, ma a un costo significativamente inferiore. 2
  • Ridurre la superficie di attacco per i loro dati riservati

Aziende come Bloomberg stanno ottenendo risultati di livello mondiale sviluppando i propri strumenti di intelligenza artificiale generativa, sfruttando i dati interni. 3

Quali sono le linee guida per i modelli di intelligenza artificiale aziendale?

Come minimo, un modello di intelligenza artificiale generativa aziendale dovrebbe essere:

Fidato

Coerente

La maggior parte dei modelli lineari lineari (LLM) attualmente disponibili può fornire risultati diversi a partire dallo stesso input. Ciò limita la riproducibilità dei test, con il rischio di rilasciare modelli non sufficientemente testati.

Controllato

Le aziende dovrebbero ospitare o integrare l'IA generativa in ambienti in cui possano gestire la sicurezza e la conformità a livello granulare (ad esempio, in locale o in istanze cloud dedicate). L'alternativa è utilizzare interfacce di chat online o API come le API LLM di OpenAI.

Lo svantaggio di affidarsi alle API è che l'utente potrebbe dover esporre dati proprietari riservati al proprietario dell'API. Ciò aumenta la superficie di attacco per i dati proprietari. Leader globali come Amazon e Samsung hanno subito fughe di dati, tra cui documenti interni e codice sorgente prezioso, quando i loro dipendenti utilizzavano ChatGPT. 4 5

Da allora, le offerte per le aziende si sono notevolmente evolute:

  • OpenAI Enterprise (2023) e, successivamente, il ChatGPT Team (2024) hanno introdotto la conservazione zero dei dati, la conformità SOC 2, l'integrazione SSO/SAML e i controlli amministrativi. 6
  • I principali fornitori (ad esempio, Anthropic, Microsoft, Google, Cohere) ora pubblicizzano la possibilità di escludere i dati dei clienti, il che significa che le richieste e gli output degli utenti non vengono utilizzati per l'addestramento dei modelli.
  • I fornitori hanno inoltre iniziato ad allinearsi ai requisiti dell'EU AI Act (2024), che enfatizzano i principi di un'IA responsabile come la trasparenza, la verificabilità e la gestione del rischio nei sistemi di IA ad alto rischio.

Nonostante questi progressi, permangono rischi residui quando ci si affida a sistemi cloud di terze parti:

  • Persone interne malintenzionate o fornitori compromessi potrebbero comunque accedere ai dati aziendali.
  • Le configurazioni errate delle API possono esporre flussi di dati sensibili.
  • La mancanza di trasparenza nei modelli di gestione della liquidità (LLM) continua a rappresentare una sfida per i team addetti alla conformità.

Per i settori altamente regolamentati, l'hosting autonomo o l'implementazione privata di modelli di base (tramite modelli open-weight come LLaMA-4, Mistral o Granite) rimane l'approccio più sicuro, sebbene a costi operativi più elevati.

Spiegabile

Purtroppo, la maggior parte dei modelli di IA generativa non è in grado di spiegare il perché di determinati risultati. Ciò ne limita l'utilizzo, poiché gli utenti aziendali che desiderano basare importanti decisioni su assistenti basati sull'IA vorrebbero conoscere i dati che hanno guidato tali decisioni. L'IA applicata ai modelli di apprendimento per livelli (LLM) è ancora un'area di ricerca.

Affidabile

Le allucinazioni (ovvero l'invenzione di falsità) sono una caratteristica dei modelli mentali negativi e difficilmente potranno essere completamente eliminate. I sistemi di intelligenza artificiale generale aziendali richiedono i processi e le misure di sicurezza necessari per garantire che le allucinazioni dannose siano ridotte al minimo, rilevate o identificate dagli esseri umani prima che possano compromettere le operazioni aziendali.

Le aziende si affidano sempre più alle pipeline di generazione aumentata tramite recupero (RAG) per ridurre le incertezze, basando i modelli su dati affidabili. Tuttavia, permangono sfide in termini di infrastruttura, archiviazione e sicurezza, il che rende RAG non solo una soluzione temporanea, ma un requisito aziendale a lungo termine. 7

Sicuro

I modelli aziendali possono avere interfacce per utenti esterni. Malintenzionati possono utilizzare tecniche come l'iniezione di prompt per indurre il modello a eseguire azioni indesiderate o a condividere dati riservati.

Etico

Formazione etica

Il modello dovrebbe essere addestrato su dati provenienti da fonti etiche, dove la proprietà intellettuale (PI) appartiene all'azienda o al suo fornitore e i dati personali vengono utilizzati con il consenso.

  1. Le problematiche relative alla proprietà intellettuale nell'IA generativa, come ad esempio i dati di addestramento che includono contenuti protetti da copyright di cui il titolare non detiene i diritti, possono portare a modelli inutilizzabili e a procedimenti legali.
  2. L'utilizzo di informazioni personali nei modelli di training può comportare problemi di conformità. Ad esempio, ChatGPT di OpenAI ha dovuto rendere pubbliche le proprie politiche di raccolta dati e consentire agli utenti di rimuovere i propri dati a seguito delle preoccupazioni sollevate dal Garante per la protezione dei dati personali. 8

Per saperne di più, leggi le problematiche e le soluzioni relative al copyright nell'IA generativa .

Giusto

Per le imprese, i modelli iniqui possono comportare diversi rischi:

  • Rischio normativo: i sistemi di intelligenza artificiale utilizzati in ambito di assunzioni, prestiti, assicurazioni o assistenza sanitaria potrebbero violare le leggi antidiscriminazione se producono risultati distorti .
  • Rischio operativo: i risultati distorti possono compromettere la qualità delle decisioni, ad esempio raccomandando candidati non idonei o classificando erroneamente i segmenti di clientela.
  • Rischio reputazionale: la divulgazione pubblica di comportamenti distorti dell'IA può danneggiare la fiducia nel marchio e le relazioni con i clienti.
  • Limitazioni di mercato: i modelli addestrati principalmente su una specifica area geografica, lingua o gruppo demografico potrebbero avere prestazioni insoddisfacenti nei mercati globali.

Come le imprese affrontano il tema dell'equità

Le imprese affrontano il tema dell'equità nell'IA attraverso una combinazione di pratiche di governance e misure di sicurezza tecniche:

  • Selezionano e curano set di dati di addestramento diversificati e rappresentativi, rimuovendo attributi sensibili o variabili proxy che potrebbero introdurre distorsioni.
  • I modelli vengono valutati utilizzando metriche di equità (ad esempio, parità demografica o pari opportunità) e testati su casi limite per identificare potenziali disparità.
  • Le organizzazioni integrano anche la supervisione umana, come la validazione umana per le decisioni ad alto impatto e i comitati di revisione etica dell'IA.
  • Le aziende monitorano costantemente gli output dei modelli in produzione per individuare schemi distorti e riaddestrare i modelli man mano che diventano disponibili dati nuovi o più equilibrati.

Con licenza

L'azienda deve possedere una licenza commerciale per utilizzare il modello. Ad esempio, l'utilizzo di modelli come LLaMa di Meta prevede licenze non commerciali che ne impediscono l'uso legale nella maggior parte dei casi in un'azienda a scopo di lucro. Anche i modelli con licenze permissive come Vicuna, basato su LLaMa, finiscono per avere licenze non commerciali poiché sfruttano il modello LLaMa. 9 10

Sostenibile

L'addestramento di modelli di intelligenza artificiale generativa da zero è costoso e ad alta intensità energetica , contribuendo alle emissioni di carbonio. I leader aziendali dovrebbero essere consapevoli del costo complessivo della tecnologia di intelligenza artificiale generativa e individuare i modi per minimizzarne gli impatti ecologici e finanziari.

Le imprese possono impegnarsi per conformarsi alla maggior parte di queste linee guida, che si collocano su un continuum, ad eccezione delle questioni relative alle licenze, alle problematiche etiche e al controllo.

  • È chiaro come ottenere le licenze corrette ed evitare problemi etici, ma si tratta di obiettivi difficili da raggiungere.
  • Raggiungere il controllo richiede alle aziende di costruire i propri modelli di base, tuttavia la maggior parte delle aziende non ha ben chiaro come farlo.

Come possono le imprese costruire modelli di base?

Esistono due approcci per costruire l'infrastruttura LLM della vostra azienda in un ambiente controllato.

1- Costruisci il tuo modello (BYOM)

Questo approccio consente di ottenere prestazioni di livello mondiale con un costo di pochi milioni di dollari, inclusi i costi di calcolo (1,3 milioni di ore GPU su GPU A100 da 40 GB nel caso di BloombergGPT) e i costi del team di data science. 11

Il BYOM (Bring Your Own Machine) è adottato principalmente dalle imprese che operano in settori altamente regolamentati (ad esempio, finanza, sanità, difesa) dove la sensibilità dei dati e i requisiti di conformità superano i costi. Alcune aziende seguono un approccio ibrido, addestrando modelli più piccoli specifici per il dominio e sfruttando al contempo modelli di base esterni per il ragionamento di carattere generale.

2- Migliorare un modello esistente

La maggior parte delle imprese adotta questo approccio per la sua efficienza in termini di costi e la sua flessibilità. Sono disponibili diversi metodi:

2.1- Messa a punto

Si tratta di una tecnica di apprendimento automatico più economica per migliorare le prestazioni di modelli linguistici di grandi dimensioni (LLM) pre-addestrati utilizzando set di dati selezionati.

La messa a punto delle istruzioni veniva precedentemente effettuata con grandi insiemi di dati, ma ora può essere ottenuta con un insieme di dati ridotto (ad esempio, 1.000 prompt e risposte selezionate nel caso di LIMA). 12 L'importanza di un approccio robusto alla raccolta dei dati, che ottimizzi la qualità e la quantità dei dati, è evidenziata nei primi esperimenti commerciali di messa a punto dei modelli lineari lineari (LLM). 13

I costi computazionali per la redazione di articoli di ricerca sono stati di soli 100 dollari, pur raggiungendo prestazioni quasi di livello mondiale. 14

La messa a punto dei modelli è un campo emergente, con nuovi approcci come l'Inference-Time Intervention (ITI), un metodo per ridurre le allucinazioni del modello, che vengono pubblicati ogni settimana. 15

2.2 - Apprendimento per rinforzo tramite feedback umano (RLHF)

Un modello ben ottimizzato può essere ulteriormente migliorato attraverso una valutazione che coinvolga l'intervento umano. 16 17

2.3 - Generazione aumentata del recupero (RAG)

RAG consente alle aziende di trasmettere informazioni cruciali ai modelli durante la fase di generazione. I modelli possono utilizzare queste informazioni per produrre risposte più accurate.

Framework moderni come LangChain e LlamaIndex facilitano l'integrazione sicura di dati aziendali strutturati e non strutturati. I metodi RAG avanzati ora includono il recupero multi-hop e l'integrazione della ricerca in tempo reale, migliorando ulteriormente l'affidabilità e l'accuratezza dei dati.

Le aziende si stanno orientando verso l'auto-grounding, in cui i modelli si connettono automaticamente a fonti di dati in tempo reale per mantenere gli output aggiornati. I fornitori di servizi cloud come Azure ora considerano RAG come l'architettura principale per i sistemi di controllo, i sistemi di conoscenza e le applicazioni per i clienti, dando priorità alla scalabilità e alla sicurezza. 18

Considerati gli elevati costi associati al BYOM, raccomandiamo alle aziende di utilizzare inizialmente versioni ottimizzate dei modelli esistenti. L'ottimizzazione dei modelli linguistici è un ambito emergente, con nuovi approcci che vengono sviluppati settimanalmente. Pertanto, le aziende dovrebbero essere aperte alla sperimentazione ed essere pronte a modificare il proprio approccio.

Modelli di fondazione più convenienti per le imprese

Le piattaforme di machine learning hanno rilasciato modelli di base con licenze commerciali, che si basano principalmente su testi presenti su Internet come fonte primaria di dati. Questi modelli possono essere utilizzati come modelli di base per costruire modelli linguistici aziendali di grandi dimensioni:

OpenAI GPT-5

GPT-5.4 è l'ultimo modello di frontiera di OpenAI progettato per il lavoro professionale e complesso che richiede conoscenze specifiche. Le funzionalità includono:

  • Capacità di ragionamento e di elaborazione delle conoscenze avanzate: produce risultati di alta qualità per attività quali report, fogli di calcolo, presentazioni e analisi in diversi ambiti professionali.
  • Capacità di codifica: Integra i punti di forza di codifica di GPT-5.3-Codex, consentendo la generazione di codice di qualità per la produzione e modifiche software multi-file.
  • Flussi di lavoro e utilizzo degli strumenti basati sugli agenti: è possibile cercare e selezionare strumenti, automatizzare flussi di lavoro a più fasi ed eseguire attività lunghe in modo più affidabile.
  • Capacità native di utilizzo del computer: gli agenti possono interagire con il software utilizzando screenshot, azioni del mouse/tastiera o codice di automazione per completare attività su app e siti web.
  • Ampia finestra di contesto: supporta fino a 1 milione di token, consentendo l'analisi di grandi codebase, documenti lunghi o flussi di lavoro estesi in un'unica richiesta.

GPT-5.4 mostra notevoli miglioramenti in diversi benchmark. Ottiene l'83% di vittorie/pareggi su GDPval per le attività di lavoro intellettuale (in aumento rispetto al 70,9% di GPT-5.2). Nell'ingegneria del software, ottiene un punteggio del 57,7% su SWE-Bench Pro, indicando solide prestazioni di programmazione. Per le attività di utilizzo del computer, raggiunge il 75% su OSWorld-Verified, superando il valore di riferimento umano del 72,4%.

Ottiene buoni risultati anche nella ricerca sul web, con un punteggio dell'82,7% su BrowseComp.

Inoltre, le risposte di GPT-5.4 hanno il 33% di probabilità in meno di essere false e il 18% di probabilità in meno di contenere errori rispetto a GPT-5.2. 19

GPT-5.3-Codex è il modello di codifica agentica di OpenAI, che combina le capacità avanzate di ingegneria del software di GPT-5.2-Codex con il ragionamento più ampio e la conoscenza professionale di GPT-5.2.

Il modello gestisce flussi di lavoro di sviluppo complessi, come la ricerca, l'utilizzo di strumenti in più fasi e le attività di codifica di lunga durata, su basi di codice di grandi dimensioni.

Figura 1: Un esempio di richiesta di generazione di diapositive utilizzando il codex GPT-5.3. 20

DeepSeek

DeepSeek-V3 di DeepSeek è un modello MoE (~671B, con licenza MIT) con elevate prestazioni di ragionamento e codifica ed è open-source da marzo 2025. 21

DeepSeek-V3.1 di DeepSeek (agosto 2025) estende le funzionalità di contesto lungo con un tokenizzatore aggiornato e pesi aperti. 22

Google DeepMind

Gemini 3.1 Pro (Google DeepMind) è un modello linguistico di frontiera di grandi dimensioni progettato per il ragionamento complesso, la codifica e le attività multimodali, in grado di elaborare informazioni provenienti da testo , immagini , audio , video , codice e documenti .

In diversi benchmark, Gemini Pro dimostra prestazioni elevate in compiti di ragionamento, programmazione e multimodali. Ottiene il 77,1% su ARC-AGI-2 per il ragionamento astratto e il 94,3% su GPQA Diamond per domande scientifiche di livello universitario. Su Humanity's Last Exam, che misura il ragionamento accademico, ottiene un punteggio del 44,4% senza l'ausilio di strumenti.

Per la programmazione e l'ingegneria del software, il modello raggiunge il 68,5% su Terminal-Bench 2.0 e l'80,6% su SWE-Bench Verified. Ottiene buoni risultati anche nei benchmark di conoscenza e multimodali, con un punteggio del 92,6% su MMMLU (conoscenza multilingue) e circa l'80,5% su MMMU-Pro (ragionamento multimodale). 23

Meta LLaMA

LaMA 4 di Meta è stato rilasciato come LLaMA 4 Maverick , Scout e un'anteprima di Behemoth. Questi modelli sono nativamente multimodali (testo e immagini), supportano finestre di contesto fino a 10 milioni di token e rimangono ottimizzati per l'efficienza. 24

Llama 3 di Meta era il modello precedente con una licenza per uso commerciale con alcune limitazioni per le aziende molto grandi. 25

Mistral AI

Mistral 8x22B è l'ultimo modello open-weights sviluppato dalla startup europea di intelligenza artificiale generativa Mistral. Grazie alla sua licenza permissiva (Apache 2.0), che consente l'utilizzo commerciale senza restrizioni specifiche per le grandi aziende, può risultare interessante per tutte le imprese. 26 Mistral fornisce anche modelli come Mistral Large ma tale modello ha una licenza più restrittiva. 27

Di recente, Mistral ha ampliato la sua gamma includendo modelli come Mistral Large 3; modelli più piccoli come Mistral Small e Medium; modelli specializzati per la codifica come Codestral e Devstral; e modelli audio come Voxtral Transcribe 2, che offre funzionalità di trascrizione vocale in batch e in tempo reale. 28

IBM

I modelli Granite di IBM offrono prestazioni elevate secondo i benchmark di generazione del codice e sono disponibili con la licenza permissiva Apache 2.0. 29

L'ecosistema Granite si è inoltre ampliato per includere modelli vocali, come Granite-4.0-1B-Speech, che supportano il riconoscimento vocale e la traduzione multilingue. 30

Databricks

DBRX è un modello open-weights sviluppato dalla piattaforma dati Databricks. Viene fornito con una licenza commerciale con limitazioni simili a quelle dei modelli di Meta. Le limitazioni si applicano alle aziende che servono più di 700 milioni di utenti attivi. 31

Grok

Grok-4 di xAI è stato rilasciato nel luglio 2025 con l'utilizzo di strumenti nativi, l'integrazione della ricerca in tempo reale e una variante "Heavy" per il ragionamento avanzato. Grok 4.1 è stato rilasciato nel novembre 2025, migliorando il ragionamento, la coerenza, le sfumature di personalità/emotive e riducendo le allucinazioni rispetto a Grok 4. 32

xAI ha recentemente introdotto Grok 4.20 Beta, che aggiunge funzionalità multi-agente, consentendo l'esecuzione coordinata di compiti tra più agenti specializzati. Nel frattempo, è stato riportato che Grok 5 è in fase di addestramento, il che suggerisce che ulteriori progressi nel ragionamento e nelle capacità degli agenti siano in fase di sviluppo. 33

Scopri i dettagli aggiornati sui benchmark e sui prezzi dei modelli base per le applicazioni genAI aziendali:

Qual è lo stack tecnologico più adatto per la creazione di modelli linguistici di grandi dimensioni?

L'intelligenza artificiale generativa è una tecnologia di intelligenza artificiale e le grandi aziende sviluppano soluzioni di IA da oltre un decennio. L'esperienza ha dimostrato che sfruttare le piattaforme di Machine Learning Operations (MLOps) accelera significativamente lo sviluppo dei modelli.

Oltre alle loro piattaforme MLOps, le organizzazioni aziendali possono fare affidamento su un elenco crescente di strumenti e framework LLMOps (Large Language Model Operations) come Langchain, Semantic Kernel o watsonx.ai per personalizzare e costruire i propri modelli, nonché su strumenti di gestione del rischio basati sull'IA come Nemo Guardrails.

Nelle fasi iniziali dell'introduzione di nuove tecnologie, raccomandiamo ai dirigenti di dare priorità alle piattaforme aperte per costruire sistemi a prova di futuro. Nel campo delle tecnologie emergenti, il vendor lock-in rappresenta un rischio significativo. Le aziende possono ritrovarsi bloccate con sistemi obsoleti a fronte di rapidi e profondi cambiamenti tecnologici.

Infine, l'infrastruttura dati di un'azienda è tra le tecnologie di base più importanti per l'intelligenza artificiale generativa:

  1. È necessario organizzare e formattare enormi quantità di dati interni.

  2. Gli sforzi volti a migliorare la qualità e l'osservabilità dei dati dovrebbero garantire alle aziende l'accesso a set di dati di alta qualità, unici e di facile utilizzo, corredati da metadati chiari.

  3. Per l'addestramento del modello potrebbero essere necessarie capacitàdi dati sintetici.

Come valutare le prestazioni dei modelli di grandi dimensioni?

Senza una misurazione dell'efficacia, il valore degli sforzi nel campo dell'IA generativa non può essere quantificato. Tuttavia, la valutazione dei modelli lineari basati su modelli (LLM) è un problema complesso a causa di problematiche relative ai set di dati di riferimento, all'interferenza dei benchmark con i dati di addestramento, all'incoerenza delle revisioni umane e ad altri fattori. 34 35 .

Raccomandiamo un approccio iterativo che aumenti gli investimenti nella valutazione man mano che i modelli si avvicinano all'utilizzo in produzione:

  • Utilizza i punteggi dei test di riferimento per preparare le liste ristrette. Questi dati sono disponibili pubblicamente per un gran numero di modelli open source. 36 37
  • Basandosi sui punteggi Elo utilizzati per classificare i giocatori nei giochi a somma zero come gli scacchi, è possibile confrontare i modelli da selezionare. Se esistono modelli con prestazioni superiori che non sono disponibili (ad esempio a causa di problemi di licenza o di sicurezza dei dati), questi possono essere utilizzati per confrontare le risposte dei diversi modelli. 38

Figura 2: Miglioramento dell'apprendimento con pochi esempi da OpenAI.

Questo può includere anche la guida al ragionamento a catena. La guida al ragionamento a catena è una tecnica di ingegneria del ragionamento che guida un modello linguistico a ragionare su un problema passo dopo passo prima di produrre una risposta finale. Generando passaggi di ragionamento intermedi, il modello può gestire meglio compiti complessi come matematica, logica o processi decisionali a più fasi.

Questo approccio spesso migliora la precisione e la trasparenza perché il modello scompone il problema in parti logiche più piccole anziché rispondere immediatamente con un'unica soluzione.

Figura 3: Esempio che illustra il funzionamento del suggerimento a catena di pensieri. 39

La generazione aumentata per il recupero (RAG) può essere utilizzata anche con modelli commerciali se l'azienda è soddisfatta delle politiche di sicurezza dei dati del fornitore del modello di base.

È inoltre possibile effettuare una messa a punto precisa per migliorare ulteriormente le prestazioni dei modelli commerciali offerti tramite API. 40

Fasi del modello pre-fondazione per le imprese

La creazione del modello aziendale può richiedere mesi, poiché è necessario completare i passaggi descritti di seguito. Ciascuno di questi passaggi può richiedere da settimane a mesi e non può essere completamente eseguito in parallelo:

  • La raccolta dei dati può richiedere da settimane a mesi. I servizi di raccolta dati basati sull'IA possono accelerare questo processo, aiutando le aziende a generare set di dati di istruzioni bilanciati e di alta qualità, oltre ad altri dati utili per la creazione o la messa a punto dei modelli. È inoltre possibile collaborare con piattaforme di crowdsourcing per ottenere set di dati più diversificati.
  • Assumere data scientist con esperienza in LLM o consulenti può richiedere da settimane a mesi.
  • Formazione e impiego
  • Integrazione dei modelli nei processi e nei sistemi aziendali

Raccomandiamo ai leader aziendali di incoraggiare la sperimentazione con l'IA di generazione (GenAI). Richiede un cambio di paradigma: dobbiamo considerare le macchine non come robot senza cervello, ma come co-creatori. Le organizzazioni dovrebbero iniziare a utilizzare la GenAI per promuovere questo cambiamento di mentalità, educando i dipendenti sul suo potenziale e mettendoli in condizione di cambiare il proprio modo di lavorare. Come spesso affermano i consulenti, la chiave di ogni trasformazione, inclusa quella dell'IA , risiede nelle persone.

Figura 4: Il framework di BCG per l'aspetto umano dell'adozione dell'IA generativa in azienda 41

I team possono sfruttare le API esistenti per automatizzare i processi in ambiti in cui il valore dei dati riservati è inferiore e l'integrazione dei sistemi è più semplice. Esempi di ambiti in cui i team possono sfruttare GenAI per migliorare la produttività e aumentare la familiarità con l'IA generativa senza dover creare modelli propri:

  • Creazione di nuovi contenuti e ottimizzazione dei contenuti generati per le campagne di marketing.
  • Generazione di codice per software front-end
  • Intelligenza artificiale conversazionale per il coinvolgimento e l'assistenza clienti.

Sostenibilità e costi

L'intelligenza artificiale generativa richiede notevoli risorse computazionali e, di conseguenza, comporta costi sia finanziari che ambientali. Le aziende dovrebbero valutare attentamente questi compromessi quando decidono se sviluppare o ottimizzare i modelli.

Le considerazioni principali includono:

  • Modellazione del ciclo di vita : la ricerca dimostra che l'impronta di carbonio dei modelli lineari di apprendimento (LLM) comprende l'addestramento, l'inferenza e persino l'hardware stesso. Strumenti come LLMCarbon forniscono framework per stimare questi costi end-to-end. 42
  • Controlli di sostenibilità del cloud : i fornitori di servizi cloud (ad esempio, AWS) ora pubblicano dati sull'intensità di carbonio dei loro data center. 43
    • Scegliere regioni più verdi o impianti a basso PUE (efficienza nell'utilizzo dell'energia) può ridurre significativamente le emissioni. 44
  • Rapporti di settore : Rapporti indipendenti (ad esempio, Stanford AI Index, MIT Tech Review) evidenziano che le emissioni dei data center sono in aumento, nonostante il miglioramento dell'efficienza. 45 Ciò sottolinea la necessità di dimensionare correttamente i modelli e di ottimizzare l'inferenza, anziché inseguire sempre il modello più grande disponibile. 46

Strategie pratiche per la riduzione dei costi

Le imprese stanno adottando metodi quali:

  • Utilizzare modelli più piccoli e specializzati (affinati su dati interni) anziché addestrarli da zero.
  • Applicazione di tecniche di efficienza come la quantizzazione (compressione dei modelli) o la memorizzazione nella cache delle richieste.
  • Sfruttando RAG, i modelli vengono generati solo quando necessario, anziché essere riaddestrati con ogni nuovo set di dati.
  • Monitoraggio non solo dei costi finanziari, ma anche delle emissioni di CO₂ e del consumo idrico a livello di singolo caso d'uso, per garantire la massima trasparenza.

Raccomandazione : i leader aziendali dovrebbero considerare la sostenibilità sia come strategia di controllo dei costi sia come priorità di conformità. Allineando l'implementazione dell'IA agli obiettivi ESG aziendali, le imprese possono ridurre le spese e limitare il rischio reputazionale.

Qual è il livello di interesse per l'intelligenza artificiale generativa in ambito aziendale?

Sebbene vi siano molti segnali che indicano il boom dell'IA generativa in ambito aziendale (ad esempio, i ricavi dei consulenti legati all'IA generativa), questo non si è ancora riflesso nelle ricerche sui motori di ricerca. Tuttavia, si registra un crescente interesse per l'IA aziendale, probabilmente innescato dal lancio di ChatGPT.

Livello di adozione

Dall'anno scorso, le principali società di consulenza hanno aggiornato le roadmap per l'adozione dell'IA di nuova generazione nelle aziende, ponendo l'accento sul cambiamento del modello operativo, sulla governance e sulla creazione di valore, piuttosto che sui soli strumenti:

  • Il 78% delle organizzazioni dichiara di utilizzare l'IA in almeno una funzione; le aziende stanno riorganizzando i flussi di lavoro, nominando responsabili della governance dell'IA e formalizzando i processi di valutazione del rischio dei modelli. 47
  • GenAI sta superando la fase di picco dell'entusiasmo, con una roadmap che si sta orientando verso casi d'uso governati e commercializzati e verso un approccio basato su piattaforme. 48

Il divario nella commercializzazione dell'IA

Sebbene le prestazioni dei modelli migliorino ogni poche settimane, i prodotti aziendali spesso restano indietro. Molte soluzioni si limitano ad aggiungere l'IA ai flussi di lavoro esistenti (ad esempio, widget di chat, compilatori di moduli) invece di creare esperienze incentrate sull'IA e progettate da zero.

La vera opportunità sta nel ripensare i prodotti in modo che l'intelligenza artificiale diventi il modello di interazione centrale, non un semplice componente aggiuntivo. 49

FAQ

L'intelligenza artificiale generativa comprende output testuali, di immagini e audio prodotti da modelli di intelligenza artificiale, noti anche come modelli linguistici di grandi dimensioni (LLM), modelli linguistici, modelli di base o modelli di intelligenza artificiale generativa.

Lilli AI di McKinsey sfrutta i dati proprietari di McKinsey per rispondere alle domande dei consulenti e cita le fonti. McKinsey ha seguito un approccio indipendente dal modello LLM e utilizza più modelli LLM provenienti da Cohere e OpenAI in Lilli.
Walmart ha sviluppato My Assistant, un assistente virtuale basato sull'intelligenza artificiale generativa, per i suoi 50.000 dipendenti che non lavorano nei negozi.

Se avete altre domande o avete bisogno di aiuto per trovare i fornitori, possiamo aiutarvi:

Trova i fornitori giusti

Collegamenti di riferimento

1.
Survey Report: Large Language Models in Production
Rubrik
2.
Unpopular opinion: Current AI is mostly engineering without science and can be a net negative for society for years. This is painful to say. I have been fascinated by AI for the last 20 years and… | Cem Dilmegani
3.
Introducing BloombergGPT, Bloomberg’s 50-billion parameter large language model, purpose-built from scratch for finance | Press | Bloomberg LP
4.
Amazon Warns Staff Not to Share Confidential Information With ChatGPT - Business Insider
Business Insider
5.
Samsung Bans ChatGPT, Google Bard, Other Generative AI Use by Staff After Leak - Bloomberg
Bloomberg
6.
Introducing ChatGPT Enterprise | OpenAI
7.
https://www.infinidat.com/en/resource-pdfs/role-storage-ai-applications-and-workloads.pdf
8.
OpenAI: ChatGPT back in Italy after meeting watchdog demands | AP News
AP News
9.
Introducing LLaMA: A foundational, 65-billion-parameter language model
10.
Large Language Models for Commercial Use | TrueFoundry
11.
https://arxiv.org/pdf/2303.17564
12.
[2305.11206] LIMA: Less Is More for Alignment
13.
Flowrite is now a part of MailMaestro
14.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
15.
[2306.03341] Inference-Time Intervention: Eliciting Truthful Answers from a Language Model
16.
Addestramento di modelli linguistici a seguire istruzioni con feedback umano
17.
RLHF: Reinforcement Learning from Human Feedback
18.
How RAG and auto-grounding transform enterprise applications with Azure | Sphesihle Mhlongo posted on the topic | LinkedIn
19.
Introducing GPT-5.4 | OpenAI
20.
Introducing GPT-5.3-Codex | OpenAI
21.
DeepSeek-V3-0324 Release | DeepSeek API Docs
22.
DeepSeek-V3.1 Release | DeepSeek API Docs
23.
Gemini 3.1 Pro — Google DeepMind
24.
Unmatched Performance and Efficiency | Llama 4
25.
Meta Llama 3 License
26.
Cheaper, Better, Faster, Stronger | Mistral AI
27.
Au Large | Mistral AI
28.
Voxtral transcribes at the speed of sound. | Mistral AI
29.
IBM’s Granite code model family is going open source - IBM Research
IBM
30.
Granite 4.0 1B Speech: Compact, Multilingual, and Built for the Edge
Hugging Face
31.
Introducing DBRX: A New State-of-the-Art Open LLM | Databricks Blog
32.
Grok 4 | xAI
xAI
33.
Release Notes | xAI Docs
xAI
34.
https://datasets-benchmarks-proceedings.neurips.cc/paper/2021/file/757b505cfd34c64c85ca5b5690ee5293-Paper-round2.pdf
35.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
36.
Open LLM Leaderboard - a Hugging Face Space by open-llm-leaderboard
Open LLM Leaderboard
37.
Chatbot Arena: Benchmarking LLMs in the Wild with Elo Ratings - LMSYS Blog | LMSYS Org
38.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
39.
https://arxiv.org/pdf/2201.11903
40.
OpenAI Platform
41.
The CEO’s Guide to the Generative AI Revolution | BCG
BCG Global
42.
https://proceedings.iclr.cc/paper_files/paper/2024/file/6b4ac044095525631df38e20919b45d2-Paper-Conference.pdf
43.
Operating sustainably – Google Data Centers
Google Data Centers
44.
Carbon free energy for Google Cloud regions
45.
https://hai.stanford.edu/ai-index/2025-ai-index-report
46.
Explained: Generative AI’s environmental impact | MIT News | Massachusetts Institute of Technology
47.
https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai/2025/the-state-of-ai-how-organizations-are-rewiring-to-capture-value_final.pdf
48.
The Latest Hype Cycle for Artificial Intelligence Goes Beyond GenAI
Gartner
49.
AI product innovation lags behind model advancements | Madhu Gurumurthy posted on the topic | LinkedIn
Cem Dilmegani
Cem Dilmegani
Analista principale
Cem è analista principale presso AIMultiple dal 2017. AIMultiple fornisce informazioni a centinaia di migliaia di aziende (secondo SimilarWeb), tra cui il 55% delle aziende Fortune 500, ogni mese. Il lavoro di Cem è stato citato da importanti pubblicazioni globali come Business Insider, Forbes, Washington Post, società globali come Deloitte e HPE, ONG come il World Economic Forum e organizzazioni sovranazionali come la Commissione Europea. È possibile consultare l'elenco di altre aziende e risorse autorevoli che hanno citato AIMultiple. Nel corso della sua carriera, Cem ha lavorato come consulente tecnologico, responsabile acquisti tecnologici e imprenditore nel settore tecnologico. Ha fornito consulenza alle aziende sulle loro decisioni tecnologiche presso McKinsey & Company e Altman Solon per oltre un decennio. Ha anche pubblicato un report di McKinsey sulla digitalizzazione. Ha guidato la strategia tecnologica e gli acquisti di un'azienda di telecomunicazioni, riportando direttamente al CEO. Ha inoltre guidato la crescita commerciale dell'azienda deep tech Hypatos, che ha raggiunto un fatturato annuo ricorrente a 7 cifre e una valutazione a 9 cifre partendo da zero in soli 2 anni. Il lavoro di Cem in Hypatos è stato oggetto di articoli su importanti pubblicazioni tecnologiche come TechCrunch e Business Insider. Cem partecipa regolarmente come relatore a conferenze internazionali di settore. Si è laureato in ingegneria informatica presso l'Università di Bogazici e ha conseguito un MBA presso la Columbia Business School.
Visualizza il profilo completo

Sii il primo a commentare

Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.

0/450