Una recente previsione stima che entro il 2028 l'intelligenza artificiale utilizzerà oltre la metà dell'energia elettrica consumata dai data center. 1 Con l'espansione dei carichi di lavoro ad alta intensità computazionale, come l'intelligenza artificiale generativa, si prevede anche un aumento della domanda totale di energia elettrica.
Scopri le principali statistiche sul consumo energetico dell'IA e le migliori pratiche elaborate dai principali ricercatori e agenzie del settore.
consumo energetico del data center per l'intelligenza artificiale
Per il grafico sopra riportato, abbiamo raccolto dati da diverse organizzazioni di ricerca e analisi di settore incentrate sul consumo energetico nell'ambito dell'intelligenza artificiale e dei data center. Queste fonti includono agenzie energetiche globali, studi accademici e iniziative di fornitori di tecnologia.
Ecco come sono stati raccolti i dati:
- Abbiamo utilizzato dati e proiezioni future provenienti da recenti analisi sul consumo energetico che stimano l'utilizzo globale di elettricità nei data center e la loro crescita.
- Ove disponibili, facciamo riferimento a metodologie di misurazione pubblicamente accessibili fornite dai principali provider di servizi cloud (ad esempio, i dati sull'impatto ambientale di Cloud) che divulgano metriche specifiche, come l'energia per inferenza.
Molti report utilizzano unità di misura o terminologie diverse, come la quota di elettricità globale destinata all'IA e all'apprendimento automatico, il consumo energetico per l'addestramento rispetto all'inferenza e la quota di elettricità globale dei data center, rendendo difficile confrontarli in un unico grafico. Per garantire che tutti i valori potessero essere presentati insieme in un unico grafico, abbiamo incluso gli studi che utilizzavano definizioni e unità di misura comparabili:
- Consumo globale di energia elettrica da parte dei data center.
- Quota di consumo elettrico dell'intelligenza artificiale all'interno dei data center.
- Consumo di elettricità da parte dei data center negli Stati Uniti, per evidenziare le differenze tra il consumo energetico globale e quello statunitense.
Raccomandazioni per la gestione del consumo energetico dell'IA
Secondo recenti ricerche, il consumo energetico dell'IA è ora dominato dall'inferenza e determinato meno dalle singole esecuzioni dei modelli e più dalla scalabilità, dalle modalità di implementazione e dalle inefficienze del sistema. Ecco i nostri consigli per gestire efficacemente il consumo energetico dell'IA:
Dare priorità all'efficienza dell'inferenza rispetto all'efficienza dell'addestramento.
Le ricerche dimostrano che oltre l'80% della potenza di calcolo dell'IA viene ora utilizzata per l'inferenza.
- Considerare il consumo energetico per inferenza (o per token/per output) come obiettivo primario di ottimizzazione.
- Ottimizza i percorsi di inferenza prima di investire in miglioramenti marginali nell'efficienza dell'addestramento.
- Concentrate gli sforzi di ottimizzazione sugli endpoint ad alta frequenza, non sui casi d'uso rari o di nicchia.
Misurare e pubblicare metriche energetiche per ogni singola attività, non solo affermazioni a livello di modello.
Secondo una ricerca del MIT , il consumo energetico (elettricità) per singola attività varia a seconda che si tratti di testo, immagini o video.
- Pipeline di strumentazione per misurare il consumo energetico per attività, inclusi i costi generali non relativi alla GPU (memoria, rete, orchestrazione).
Evitate di utilizzare modelli generativi generici per compiti specifici.
Un maggiore consumo energetico è strettamente legato ai modelli generativi, utilizzati per compiti come la classificazione anziché per modelli specializzati. La rivista MIT Technology Review dimostra che i modelli specifici per un determinato compito sono meno dispendiosi in termini di emissioni di carbonio e di energia.
- Utilizzare modelli specializzati o semplificati per la classificazione, la classificazione, l'estrazione e l'instradamento.
- Riservate i modelli generativi di grandi dimensioni ai compiti che richiedono una generazione aperta.
- Introduci le cascate di modelli (dal modello piccolo al modello grande, se necessario).
Ridurre gli sprechi a livello di sistema nel servizio di inferenza
Gli studi sulle infrastrutture dimostrano che i server rappresentano circa il 60% del consumo di energia elettrica dei data center.
- Aumentare l'utilizzo dell'acceleratore tramite:
- Lotto
- Memorizzazione nella cache
- Pianificazione più intelligente
- Elimina le chiamate ridondanti tra pipeline e microservizi.
- Implementare l'autoscaling in base alla domanda anziché il provisioning in base ai picchi.
Considerare l'efficienza hardware e il Power Usage Effectiveness (PUE) come aspetti software.
- Progettare modelli che si adattino in modo efficiente ai vincoli di memoria e larghezza di banda.
- Prima di aumentare la capacità, massimizza l'utilizzo dell'hardware esistente.
- Allineare le scelte architetturali del modello con gli acceleratori disponibili più efficienti dal punto di vista energetico.
Nella progettazione del sistema, tenere conto del consumo idrico e del ciclo di vita dell'hardware.
Una ricerca dell'UNRIC mostra che la domanda globale di acqua legata all'intelligenza artificiale è destinata ad aumentare in modo esponenziale.
- Privilegiare le soluzioni che riducono l'intensità del raffreddamento e il consumo di acqua.
- Prolungare la durata utile dell'hardware grazie all'efficienza dei modelli e al riutilizzo.
- Evitate riqualificazioni o riassegnazioni non necessarie che accelerano il ricambio dell'hardware.
Previsione degli effetti economici dell'intelligenza artificiale, 2026
I partecipanti allo studio hanno fornito stime delle principali variabili economiche (PIL, consumo energetico, produttività, partecipazione alla forza lavoro) sia in base alle aspettative normali sia in base a tre scenari espliciti di progresso dell'IA (lento, moderato, rapido):
- Secondo le stime dei partecipanti, entro il 2030 il consumo di elettricità negli Stati Uniti potrebbe rappresentare il 2,3% in uno scenario di crescita più lenta, il 4,9% in uno scenario di crescita moderata e il 7,4% in uno scenario di rapida espansione, rispetto a circa l'1% del 2024.
- Entro il 2050, si prevede che queste quote aumenteranno al 5% (lenta), all'8,3% (moderata) e al 15% (rapida).
- Gli specialisti di intelligenza artificiale e i superprevisori prevedono una domanda ancora maggiore in un contesto di rapida crescita entro il 2050, stimando un aumento intorno al 19,5%. 2
MIT Technology Review, 2025
La rivista MIT Technology Review suddivide il consumo energetico dell'IA in due fasi principali: l'addestramento del modello e l'inferenza dell'IA. Sostiene che l'inferenza sia ormai il principale fattore di consumo energetico, poiché le funzionalità di IA vengono integrate nella vita quotidiana attraverso prodotti e servizi.
Ciò mette inoltre in luce una lacuna in termini di trasparenza. La maggior parte dei principali fornitori di modelli di intelligenza artificiale "chiusi" non divulga informazioni sufficienti per stimare in modo affidabile il proprio consumo energetico totale o l'impronta di carbonio. 3
Elettricità e domanda totale:
- Centri dati negli Stati Uniti: il 4,4% del consumo totale di elettricità negli Stati Uniti è destinato ai centri dati.
- Intelligenza artificiale nei data center statunitensi: i server specifici per l'IA hanno utilizzato una quantità di energia stimata tra 53 e 76 terawattora (TWh) nel 2024, e le proiezioni indicano un consumo tra 165 e 326 TWh entro il 2028.
Addestramento vs. inferenza:
- Quota di inferenza: si stima che l'80%-90% della potenza di calcolo dell'IA sia utilizzata per l'inferenza.
- Esempio di energia di addestramento: l'addestramento GPT-4 è descritto come pari a circa 50 GWh.
Consumo energetico per singola attività (consumo di elettricità):
- Testo (Llama 3.1 8B): ~114 joule per risposta tenendo conto del sovraccarico non GPU.
- Testo (Llama 3.1 405B): ~6.706 joule per risposta con overhead.
- Immagini (Stable Diffusion 3 Medium, 1024×1024): ~2.282 joule totali; passaggi più elevati possono portare questo valore a ~4.402 joule.
- Video (esempi di CogVideoX): circa 109.000 joule per un breve output di bassa qualità; circa 3,4 milioni di joule per un video di 5 secondi di qualità superiore.
Emissioni delle infrastrutture e della rete elettrica:
- L'intensità di carbonio dell'elettricità consumata dai data center è superiore del 48% rispetto alla media statunitense.
- I sistemi di raffreddamento nei data center possono utilizzare grandi quantità di acqua, a volte anche acqua potabile.
Agenzia Internazionale dell'Energia, 2025
L'IEA analizza il fabbisogno energetico dell'intelligenza artificiale dal punto di vista dei data center e dei loro componenti. Fornisce un'analisi dettagliata di dove viene consumata l'elettricità all'interno di un data center e offre una prospettiva globale sulla crescita del consumo di energia elettrica nei data center. 4
Consumo globale di energia elettrica proveniente dai data center:
- Si stima che nel 2024 il consumo sarà di circa 415 TWh, pari a circa l'1,5% del consumo globale di elettricità.
- Si prevede che entro il 2030 raggiungerà circa 945 TWh, poco meno del 3% del consumo globale di elettricità nello scenario di base dell'AIE.
Consumo di energia elettrica dei data center per tipologia di apparecchiatura:
- Server : rappresentano circa il 60% del fabbisogno energetico nei moderni data center (la percentuale varia a seconda della tipologia).
- Sistemi di archiviazione : circa il 5%.
- Apparecchiature di rete : fino al 5%.
- Sistemi di raffreddamento e controllo ambientale : circa il 7% nei data center hyperscale efficienti e oltre il 30% nei data center aziendali meno efficienti.
Figura 1: Grafico che mostra i dati del 2024 relativi alla quota di consumo di energia elettrica in base al tipo di data center e di apparecchiatura.
Google Cloud, 2025
Google ha pubblicato una metodologia per misurare l'impatto ambientale dell'inferenza AI per i prompt di Gemini, inclusi elettricità, emissioni di carbonio e consumo di acqua. Presenta valori mediani per prompt e afferma di aver riscontrato significativi miglioramenti in termini di efficienza in un recente periodo di 12 mesi. 5
Impatti mediani per richiesta (richiesta di testo di Gemini Apps):
- 0,24 Wh di energia
- Emissioni di 0,03 gCO₂e
- 0,26 millilitri di acqua
affermazioni di miglioramento dell'efficienza
- Negli ultimi 12 mesi, Google ha affermato che il consumo energetico per messaggio medio è diminuito di 33 volte e l'impronta di carbonio totale è diminuita di 44 volte .
Efficienza e infrastruttura dei data center
- Il valore medio di Power Usage Effectiveness (PUE) per l'intera flotta è pari a 1,09 per Google data center.
- Si afferma che Ironwood, il TPU di ultima generazione di Google, sia 30 volte più efficiente dal punto di vista energetico rispetto al suo primo TPU disponibile al pubblico.
Organizzazione Carbon Brief, 2025
Carbon Brief sintetizza le informazioni dell'Agenzia internazionale per l'energia (IEA) 6 e altre fonti in una serie di grafici che mostrano gli impatti di base, le proiezioni di crescita e i rischi di concentrazione regionale. Evidenzia che il settore è oggi di piccole dimensioni a livello globale, ma sta crescendo rapidamente ed è localmente significativo in alcune aree geografiche. 7
Quote globali attuali
- I data center sono responsabili di poco più dell'1% della domanda globale di elettricità e dello 0,5% delle emissioni di CO₂ (vedi Figura 2).
Crescita
- Scenario centrale dell'AIE: il consumo di elettricità dei data center raggiungerà i 945 TWh entro il 2030.
- Quota di consumo energetico dei data center dovuta all'intelligenza artificiale: recentemente si attestava tra il 5% e il 15%, con una potenziale crescita fino al 35%-50% entro il 2030.
Esempi di concentrazione regionale:
- Irlanda: circa il 21% dell'elettricità nazionale è utilizzata per i data center, percentuale che potrebbe salire al 32% entro il 2026.
- Virginia (USA): 26% dell'elettricità consumata dai data center (come citato).
Mix di alimentazione per data center (a livello globale)
- Combustibili fossili: quasi il 60%
- Energie rinnovabili: 27%
- Nucleare: 15%
Figura 2: Basata sul Global Energy Review 2025 dell'IEA e sul suo rapporto Energia e IA, questa figura confronta il consumo di elettricità (TWh) e le emissioni di CO₂ (MtCO₂) dei data center globali nel 2024 con quelli di altri settori.
Centro regionale di informazione delle Nazioni Unite per l'Europa occidentale (UNRIC), 2025
L'UNRIC inquadra l'impatto ambientale dell'IA lungo tutto il suo ciclo di vita: software (addestramento, implementazione, inferenza, manutenzione) e hardware (materiali, produzione, costruzione, rifiuti elettronici). Sottolinea che il consumo di elettricità e l'utilizzo di acqua nei data center rappresentano impatti diretti e promuove misure politiche per migliorare la trasparenza e la responsabilità. 8
Statistiche e suddivisione per categorie (elettricità, acqua, categorie del ciclo di vita): Questo articolo è più categorico che numerico nelle sezioni estratte. Raggruppa esplicitamente gli impatti dell'IA in effetti diretti, indiretti e di ordine superiore . Ecco alcuni dei risultati principali:
- Categorie di impatto ambientale
- Direttamente: consumo di elettricità e acqua, emissioni di gas serra, estrazione mineraria, inquinamento e rifiuti elettronici.
- Indiretta: Emissioni derivanti da applicazioni e servizi basati sull'intelligenza artificiale.
- Di ordine superiore: Amplificazione delle disuguaglianze e delle problematiche legate a dati di addestramento distorti o di scarsa qualità.
- Centri dati e utilizzo delle risorse
- I centri dati consumano grandi quantità di elettricità, gran parte della quale è ancora fornita da combustibili fossili.
- Per i sistemi di raffreddamento e per la costruzione sono necessarie notevoli quantità d'acqua.
- Si prevede che la domanda globale di acqua legata all'intelligenza artificiale raggiungerà i 4,2-6,6 miliardi di metri cubi entro il 2027 , superando il consumo idrico annuo della Danimarca.
- Per produrre un computer da 2 chilogrammi possono essere necessari circa 800 chilogrammi di materie prime , inclusi minerali rari.
- consumo di elettricità e crescita
- Secondo le stime dell'IEA, una query ChatGPT consuma circa 10 volte più elettricità di una ricerca Google .
- Nel 2021, l'intelligenza artificiale e l'apprendimento automatico rappresentavano meno dello 0,2% del consumo globale di elettricità e meno dello 0,1% delle emissioni globali , ma la domanda è in rapida crescita.
- Alcune aziende tecnologiche segnalano una crescita annua superiore al 100% nella domanda di potenza di calcolo per l'addestramento e l'inferenza dell'intelligenza artificiale.
- Espansione dei centri dati
- Nel 2022 i data center rappresentavano circa l'1% della domanda globale di elettricità .
- In Irlanda, nel 2022 i data center hanno rappresentato il 17% del consumo nazionale di elettricità .
- Il numero di data center a livello mondiale è cresciuto da 500.000 nel 2012 a circa 8 milioni oggi .
Notizie del MIT sull'impatto ambientale dell'intelligenza artificiale generativa, 2025
MIT News spiega perché l'intelligenza artificiale generativa può essere dispendiosa in termini di risorse e distingue tra addestramento e inferenza. Sottolinea la densità di potenza, i problemi di affidabilità della rete elettrica e la mancanza di incentivi per gli utenti a ridurre i consumi quando gli impatti sono invisibili. 9
densità di potenza
- Un cluster di addestramento per l'intelligenza artificiale generativa potrebbe consumare da 7 a 8 volte più energia rispetto a un tipico carico di lavoro di calcolo.
consumo di energia elettrica del data center
- Il consumo globale di elettricità dei data center è stato stimato a 460 TWh nel 2022 e si prevede che raggiungerà circa 1.050 TWh entro il 2026 .
Esempio di addestramento del modello
- L'addestramento della GPT-3 ha generato un consumo stimato di 1.287 MWh e prodotto circa 552 tonnellate di CO₂.
Rapporto sul consumo energetico dei data center negli Stati Uniti, 2024
Questo rapporto stima il consumo storico di elettricità dei data center statunitensi e fornisce scenari fino al 2028. Collega esplicitamente l'inversione di tendenza della crescita successiva al 2017 ai server accelerati, comprese le unità di elaborazione grafica utilizzate per eseguire modelli di intelligenza artificiale. 10
Consumo totale di elettricità dei data center negli Stati Uniti:
- ~ 60 TWh (2014–2016) , relativamente stabile.
- 76 TWh entro il 2018 , circa l'1,9% del consumo di elettricità degli Stati Uniti.
- 176 TWh entro il 2023 , circa il 4,4% del consumo di elettricità degli Stati Uniti.
Intervallo di scenari per il 2028:
- Da 325 a 580 TWh entro il 2028.
- Equivalente al 6,7% - 12,0% del consumo di elettricità previsto negli Stati Uniti per il 2028.
Conducenti e categorie:
- La crescita è trainata dai server con accelerazione GPU per l'intelligenza artificiale, che ormai rappresentano una quota significativa della base installata.
- Il documento descrive le strategie di efficienza che in precedenza avevano mantenuto la domanda invariata, tra cui il miglioramento dei sistemi di raffreddamento, la gestione dell'energia, tassi di utilizzo più elevati e la riduzione del consumo energetico inattivo.
MIT Technology Review, 2023
La rivista MIT Technology Review riporta uno dei primi tentativi di quantificare il consumo energetico e le emissioni di carbonio dell'intelligenza artificiale durante l'uso quotidiano (fase di inferenza), anziché concentrarsi esclusivamente sulla fase di addestramento. L'articolo si basa su uno studio preliminare condotto da ricercatori di Hugging Face e della Carnegie Mellon University.
Lo studio dimostra che, sebbene l'addestramento di modelli di intelligenza artificiale di grandi dimensioni richieda un elevato consumo energetico, la maggior parte dell'impronta di carbonio di un modello di IA durante il suo ciclo di vita deriva dal suo utilizzo. Poiché i modelli più diffusi vengono utilizzati milioni o miliardi di volte, le emissioni derivanti dall'inferenza quotidiana possono superare rapidamente quelle derivanti dall'addestramento. 11
Intensità energetica e di carbonio per singola attività:
I ricercatori hanno misurato il consumo energetico in 10 attività comuni di intelligenza artificiale sulla piattaforma Hugging Face, testando 88 modelli diversi ed eseguendo 1.000 richieste per attività utilizzando lo strumento di misurazione Code Carbon. I principali confronti sono:
- Generazione dell'immagine: la generazione di una singola immagine con un modello potente consuma all'incirca la stessa energia necessaria per caricare completamente uno smartphone.
- Generare 1.000 immagini con un modello come Stable Diffusion XL produce emissioni di CO₂ paragonabili a quelle generate percorrendo circa 6,6 chilometri (4,1 miglia) in un'auto a benzina.
- La generazione di immagini è di gran lunga l'attività di intelligenza artificiale che consuma più energia e produce più emissioni di carbonio tra quelle analizzate.
- Generazione del testo: la generazione del testo richiede un consumo energetico significativamente inferiore.
- La produzione di 1.000 messaggi di testo consuma solo circa il 16% della carica di uno smartphone.
- Il modello di testo meno inquinante tra quelli studiati ha emesso una quantità di emissioni pari a quella prodotta percorrendo appena 0,0006 miglia.
Dimensioni del modello e specializzazione del compito:
Lo studio evidenzia un notevole divario di efficienza tra i modelli generativi di uso generale e i modelli specifici per un determinato compito:
- I modelli generativi di grandi dimensioni consumano molta più energia perché sono progettati per svolgere molteplici compiti (generare, classificare, riassumere). Ad esempio, utilizzare un modello generativo per classificare le recensioni dei film richiede circa 30 volte più energia rispetto all'utilizzo di un modello più piccolo ottimizzato specificamente per la classificazione del sentiment.
- I modelli più piccoli e specializzati risultano costantemente meno inquinanti in termini di emissioni di carbonio per applicazioni specifiche.
Emissioni di utilizzo rispetto alle emissioni di allenamento:
I ricercatori hanno confrontato le emissioni derivanti dall'addestramento con le emissioni cumulative dovute all'utilizzo:
- Il modello BLOOM più grande utilizzato per addestrare Hugging Face è stato superato dopo circa 590 milioni di utilizzi.
- Per modelli estremamente popolari come ChatGPT , le emissioni derivanti dall'utilizzo potrebbero superare quelle derivanti dall'addestramento entro poche settimane, a causa dell'enorme volume di utenti giornalieri.
- Questo accade perché l'addestramento avviene una sola volta, mentre l'inferenza avviene in modo continuo e su larga scala.
Implicazioni più ampie e pareri degli esperti:
- Gli esperti notano che le emissioni per singola attività sono risultate superiori alle aspettative, destando preoccupazioni man mano che l'intelligenza artificiale generativa si integra nei software di uso quotidiano ( e-mail , motori di ricerca , elaborazione testi).
- I ricercatori sottolineano che i modelli più recenti e di dimensioni maggiori sono sostanzialmente più inquinanti in termini di emissioni di carbonio rispetto ai sistemi di intelligenza artificiale di pochi anni fa.
FAQ
I data center rappresentano già una quota significativa e crescente della domanda di energia elettrica. Negli Stati Uniti, nel 2023 i data center hanno consumato circa il 4,4% dell'energia elettrica totale e le proiezioni suggeriscono che il consumo di energia elettrica dei data center statunitensi potrebbe raggiungere i 426 terawattora (TWh) entro il 2030, con un aumento del 133% rispetto ai livelli del 2024. Una parte sostanziale di questa crescita è trainata dai carichi di lavoro di intelligenza artificiale in esecuzione su server accelerati.
Nel 2024, i server specifici per l'intelligenza artificiale hanno consumato una quantità di energia elettrica stimata tra 53 e 76 TWh, con una previsione di aumento tra 165 e 326 TWh all'anno entro il 2028. Considerando il valore più alto di questa stima, il solo consumo di elettricità legato all'IA potrebbe alimentare circa il 22% delle famiglie statunitensi.
Sebbene l'addestramento di modelli di grandi dimensioni sia un processo ad alta intensità energetica, l'inferenza è ora il principale fattore di consumo energetico dell'IA. Attualmente, l'inferenza rappresenta circa l'80-90% della potenza di calcolo dell'IA e si prevede che entro il 2030 rappresenterà circa il 75% della domanda energetica totale dell'IA, man mano che le funzionalità di IA verranno integrate nei prodotti e servizi di uso quotidiano.
Una singola query generativa basata sull'intelligenza artificiale consuma in genere dalle 4 alle 5 volte più energia rispetto a una richiesta tradizionale da un motore di ricerca. Questa differenza diventa significativa su larga scala, quando milioni o miliardi di query di intelligenza artificiale vengono elaborate quotidianamente.
A livello globale, i data center hanno consumato circa 415 TWh di elettricità nel 2024. Sebbene l'intelligenza artificiale rappresenti attualmente una quota minoritaria, alcune stime prevedono che i data center basati sull'IA arriveranno a rappresentare fino al 21% della domanda energetica globale complessiva entro il 2030, a seconda dei tassi di adozione e dei miglioramenti in termini di efficienza.
L'intelligenza artificiale contribuisce alle emissioni di carbonio attraverso il consumo di elettricità e la produzione di hardware. Le stime suggeriscono che l'impronta di carbonio annuale dell'IA potrebbe raggiungere i 32,6-79,7 milioni di tonnellate di CO₂ entro il 2025. 12
Sì. Le GPU e altri componenti per il calcolo ad alte prestazioni hanno spesso una vita operativa breve, il che contribuisce al crescente problema dei rifiuti elettronici (RAEE). La produzione di questi componenti richiede inoltre grandi quantità di materie prime, inclusi minerali rari.
Diverse strategie possono ridurre significativamente l'impatto dell'IA:
1. Ospitare i carichi di lavoro di intelligenza artificiale in regioni con un'elevata penetrazione di energie rinnovabili riduce l'intensità di carbonio.
2. I sistemi software possono essere progettati per regolare i carichi di lavoro in base all'intensità di carbonio in tempo reale, eseguendo le attività quando è disponibile elettricità più pulita.
3. Migliorare l'efficienza del modello e ridurre le chiamate di inferenza ridondanti può diminuire il consumo energetico senza compromettere le prestazioni.
Una misurazione accurata è essenziale per gestire l'impatto ambientale dell'IA. Gli istituti di ricerca possono condurre valutazioni precise delle emissioni di carbonio e del consumo energetico dei carichi di lavoro dell'IA, ma la maggior parte dei fornitori di IA proprietari non divulga ancora dati sufficienti. Una rendicontazione standardizzata aiuterebbe gli enti regolatori, le aziende di servizi e gli utenti a comprendere e gestire meglio il consumo energetico legato all'IA.
La gestione dell'impatto dell'IA su energia, acqua ed emissioni richiede la collaborazione tra aziende tecnologiche, ricercatori, aziende di servizi pubblici e responsabili politici. Una pianificazione coordinata può contribuire a garantire che l'IA continui a generare benefici economici e sociali senza aumentare in modo sproporzionato i costi energetici, le emissioni o la pressione sulle risorse.
Sii il primo a commentare
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.