Laut einer aktuellen Prognose wird die KI bis 2028 mehr als die Hälfte des Stromverbrauchs von Rechenzentren ausmachen. 1 Mit der Zunahme rechenintensiver Workloads wie generativer KI wird auch der gesamte Strombedarf voraussichtlich steigen.
Entdecken Sie die wichtigsten Statistiken zum Energieverbrauch von KI und die besten Vorgehensweisen führender KI-Forscher und -Agenturen.
Energieverbrauch von KI-Rechenzentren
Für die obige Grafik haben wir Daten aus verschiedenen Forschungseinrichtungen und Branchenanalysen zusammengetragen, die sich mit dem Energieverbrauch in KI- und Rechenzentren befassen. Zu diesen Quellen gehören globale Energieagenturen, akademische Studien und Initiativen von Technologieanbietern.
So wurden die Daten erhoben:
- Wir verwendeten Daten und Zukunftsprognosen aus aktuellen Analysen des Energieverbrauchs, die den globalen Stromverbrauch in Rechenzentren und dessen Wachstum abschätzen.
- Soweit verfügbar, beziehen wir uns auf öffentlich zugängliche Messmethoden großer Cloud-Anbieter (z. B. die Umweltdaten von Google Cloud), die spezifische Kennzahlen wie den Energieverbrauch pro Inferenz offenlegen.
Viele Berichte verwenden unterschiedliche Maßeinheiten oder Terminologien, wie beispielsweise den Anteil von KI und ML am globalen Stromverbrauch, den Energieverbrauch für Training und Inferenz sowie den Anteil von Rechenzentren am globalen Stromverbrauch. Dies erschwert den Vergleich in einer einzigen Grafik. Um sicherzustellen, dass alle Werte zusammen in einer Grafik dargestellt werden können, haben wir Studien einbezogen, die vergleichbare Definitionen und Maßeinheiten verwenden.
- Weltweiter Stromverbrauch von Rechenzentren.
- Der Anteil der KI am Stromverbrauch in Rechenzentren.
- Stromverbrauch von Rechenzentren in den Vereinigten Staaten, um Unterschiede zwischen dem globalen und dem US-amerikanischen Energieverbrauch hervorzuheben.
Empfehlungen für das Management des KI-Energieverbrauchs
Jüngsten Forschungsergebnissen zufolge wird der Energieverbrauch von KI mittlerweile hauptsächlich durch Inferenzprozesse bestimmt und weniger durch einzelne Modellläufe als vielmehr durch Skalierung, Bereitstellungsmuster und Systemineffizienzen. Hier sind unsere Empfehlungen für ein effektives Management des KI-Energieverbrauchs:
Priorisieren Sie die Inferenzeffizienz gegenüber der Trainingseffizienz.
Untersuchungen zeigen, dass mittlerweile über 80 % der KI-Rechenleistung für Schlussfolgerungen genutzt wird.
- Die Energie pro Inferenz (oder pro Token / pro Ausgabe) sollte als primäres Optimierungsziel betrachtet werden.
- Optimieren Sie die Inferenzpfade, bevor Sie in marginale Gewinne in der Trainingseffizienz investieren.
- Die Optimierungsbemühungen sollten sich auf häufig auftretende Endpunkte konzentrieren, nicht auf seltene oder Nischenanwendungsfälle.
Energiekennzahlen pro Aufgabe messen und veröffentlichen, nicht nur Angaben auf Modellebene.
Laut einer Studie des MIT variiert der Energieverbrauch (Strom) pro Aufgabe je nach Text-, Bild- oder Videoaufgabe.
- Instrument-Pipelines zur Messung des Energieverbrauchs pro Aufgabe, einschließlich des Nicht-GPU-Overheads (Speicher, Netzwerk, Orchestrierung).
Vermeiden Sie die Verwendung allgemeiner generativer Modelle für eng gefasste Aufgaben.
Ein höherer Energieverbrauch ist eng mit generativen Modellen verknüpft, die für Aufgaben wie die Klassifizierung anstelle spezialisierter Modelle verwendet werden. Die MIT Technology Review zeigt, dass aufgabenspezifische Modelle weniger CO₂- und energieintensiv sind.
- Verwenden Sie aufgabenspezifische oder destillierte Modelle für Klassifizierung, Ranking, Extraktion und Routing.
- Große generative Modelle sollten für Aufgaben reserviert werden, die eine offene Generierung erfordern.
- Führen Sie Modellkaskaden ein (gegebenenfalls vom kleinen zum großen Modell).
Reduzierung von Verschwendung auf Systemebene bei der Inferenzverarbeitung
Infrastrukturstudien zeigen, dass Server etwa 60 % des Stromverbrauchs von Rechenzentren ausmachen.
- Die Beschleunigerauslastung lässt sich erhöhen durch:
- Stapelverarbeitung
- Caching
- Intelligentere Terminplanung
- Redundante Aufrufe in Pipelines und Microservices vermeiden.
- Implementieren Sie bedarfsorientiertes Autoscaling anstelle von Spitzenlastbereitstellung.
Behandeln Sie Hardwareeffizienz und Energieeffizienz (PUE) als Software-Anliegen.
- Entwurfsmodelle, die effizient in die Speicher- und Bandbreitenbeschränkungen passen.
- Die vorhandene Hardware sollte vor der Kapazitätserweiterung optimal genutzt werden.
- Die Modellarchitektur sollte auf die energieeffizientesten verfügbaren Beschleuniger abgestimmt sein.
Berücksichtigen Sie den Wasserverbrauch und den Lebenszyklus der Hardware bei der Systemplanung.
Untersuchungen von UNRIC zeigen, dass der weltweite Wasserbedarf im Zusammenhang mit KI voraussichtlich exponentiell ansteigen wird.
- Bevorzugt werden Einsatzsysteme, die die Kühlintensität und den Wasserverbrauch reduzieren.
- Verlängerung der Lebensdauer von Hardware durch Modelleffizienz und Wiederverwendung.
- Vermeiden Sie unnötige Umschulungen oder Umstrukturierungen, die den Hardware-Umsatz beschleunigen.
Prognose der wirtschaftlichen Auswirkungen von KI, 2026
Die Studienteilnehmer lieferten Schätzungen zu wichtigen ökonomischen Variablen (BIP, Energieverbrauch, Produktivität, Erwerbsbeteiligung) sowohl unter normalen Erwartungen als auch unter drei expliziten KI-Fortschrittsszenarien (langsam, moderat, schnell):
- Bis 2030 könnten die US-amerikanischen Stromverbrauchswerte bei einem langsameren Wachstum 2,3 % , bei moderatem Wachstum 4,9 % und bei einer schnellen Expansion 7,4 % betragen, gegenüber etwa 1 % im Jahr 2024.
- Bis 2050 wird ein Anstieg dieser Anteile auf 5 % (langsam), 8,3 % (moderat) und 15 % (rasant) prognostiziert.
- KI-Spezialisten und Superprognostiker erwarten im Zuge des rasanten Wachstums im Jahr 2050 eine noch höhere Nachfrage von jeweils rund 19,5 %. 2
MIT Technology Review, 2025
Die MIT Technology Review unterteilt den Energieverbrauch von KI in zwei Hauptphasen: Modelltraining und KI-Inferenz. Sie argumentiert, dass die Inferenz mittlerweile der dominierende Faktor für den Energieverbrauch ist, da KI-Funktionen in Produkte und Dienstleistungen des täglichen Lebens integriert werden.
Es verdeutlicht zudem eine Transparenzlücke. Die meisten großen Anbieter „geschlossener“ KI-Modelle legen nicht genügend Informationen offen, um ihren Gesamtenergieverbrauch oder ihren CO₂-Fußabdruck zuverlässig abzuschätzen. 3
Strom und Gesamtbedarf:
- US-Rechenzentren: 4,4 % des gesamten US-Stromverbrauchs entfallen auf Rechenzentren.
- KI in US-Rechenzentren: KI-spezifische Server verbrauchten im Jahr 2024 schätzungsweise 53-76 Terawattstunden (TWh), und Prognosen gehen von 165-326 TWh bis 2028 aus.
Training vs. Inferenz:
- Anteil der Inferenz: Schätzungsweise 80-90 % der KI-Rechenleistung werden für Inferenz verwendet.
- Beispiel für den Energieverbrauch beim Training: Das Training GPT-4 wird mit etwa 50 GWh beschrieben.
Energieverbrauch pro Aufgabe (Stromverbrauch):
- Text (Llama 3.1 8B): ~114 Joule pro Antwort unter Berücksichtigung des Nicht-GPU-Overheads.
- Text (Llama 3.1 405B): ~6.706 Joule pro Antwort inklusive Overhead.
- Bilder (Stable Diffusion 3 Medium, 1024×1024): ~2.282 Joule insgesamt; höhere Stufen können dies auf ~4.402 Joule erhöhen.
- Video (CogVideoX-Beispiele): ~109.000 Joule für eine kurze Ausgabe in niedriger Qualität; ~3,4 Millionen Joule für ein 5-Sekunden-Video in höherer Qualität.
Infrastruktur- und Netzemissionen:
- Die CO2-Intensität des Stroms in Rechenzentren liegt um 48 % über dem US-Durchschnitt.
- Kühlsysteme in Rechenzentren können große Mengen Wasser verbrauchen, manchmal sogar Trinkwasser.
Internationale Energieagentur, 2025
Die IEA analysiert den Energiebedarf von KI aus der Perspektive von Rechenzentren und deren Komponenten. Sie liefert eine Aufschlüsselung des Stromverbrauchs innerhalb eines Rechenzentrums und bietet einen globalen Ausblick auf das Wachstum des Stromverbrauchs von Rechenzentren. 4
Weltweiter Stromverbrauch von Rechenzentren:
- Schätzungsweise ~415 TWh im Jahr 2024, das entspricht etwa 1,5 % des weltweiten Stromverbrauchs.
- Es wird erwartet, dass der Verbrauch bis 2030 auf rund 945 TWh ansteigen wird, was im Basisszenario der IEA knapp 3 % des weltweiten Stromverbrauchs entspricht.
Stromverbrauch von Rechenzentren nach Gerätetyp:
- Server : ca. 60 % des Strombedarfs in modernen Rechenzentren (variiert je nach Typ).
- Speichersysteme : ca. 5 %.
- Netzwerkgeräte : bis zu 5 %.
- Kühlsysteme und Klimatisierung : etwa 7 % in effizienten Hyperscale-Rechenzentren und über 30 % in weniger effizienten Unternehmensrechenzentren.
Abbildung 1: Diagramm mit den Daten für 2024 zum Anteil des Stromverbrauchs nach Rechenzentrums- und Gerätetyp.
Google Cloud, 2025
Google veröffentlichte eine Methodik zur Messung der Umweltauswirkungen von KI-Inferenz für Gemini-Prompts, einschließlich Stromverbrauch, CO₂-Emissionen und Wasserverbrauch. Sie präsentiert Medianwerte pro Prompt und behauptet signifikante Effizienzverbesserungen im Vergleich zu den letzten zwölf Monaten. 5
Median der Auswirkungen pro Eingabeaufforderung (Gemini Apps Texteingabeaufforderung):
- 0,24 Wh Energie
- 0,03 gCO₂e Emissionen
- 0,26 Milliliter Wasser
Ansprüche auf Effizienzsteigerung
- In den letzten 12 Monaten behauptete Google, dass der Energieverbrauch pro Median-Prompt um das 33-Fache und der gesamte CO2-Fußabdruck um das 44-Fache gesunken sei.
Effizienz und Infrastruktur von Rechenzentren
- Der flottenweite durchschnittliche PUE-Wert (Power Usage Effectiveness) beträgt 1,09 für Google Rechenzentren.
- Das TPU der neuesten Generation von Google, Ironwood, soll 30-mal energieeffizienter sein als das erste öffentlich erhältliche TPU.
Carbon Brief Organisation, 2025
Carbon Brief fasst die Erkenntnisse der Internationalen Energieagentur (IEA) zusammen. 6 und weitere Quellen wurden in einer Reihe von Diagrammen zusammengeführt, die die Auswirkungen im Ausgangszustand, Wachstumsprognosen und regionale Konzentrationsrisiken aufzeigen. Daraus wird verdeutlicht, dass der Sektor global gesehen heute noch klein ist, aber schnell wächst und in einigen Netzen lokal von Bedeutung ist. 7
Aktuelle globale Anteile
- Rechenzentren sind für etwas mehr als 1 % des weltweiten Strombedarfs und 0,5 % der CO₂-Emissionen verantwortlich (siehe Abbildung 2).
Wachstum
- Zentrales IEA-Szenario: Der Stromverbrauch von Rechenzentren steigt bis 2030 auf 945 TWh.
- Anteil der KI am Stromverbrauch von Rechenzentren: Derzeit etwa 5 bis 15 %, bis 2030 potenziell 35 bis 50 %.
Beispiele für regionale Konzentration:
- Irland: Rund 21 % des nationalen Stromverbrauchs entfallen auf Rechenzentren, bis 2026 könnten es potenziell 32 % sein.
- Virginia (USA): 26 % des Stromverbrauchs von Rechenzentren (Angabe).
Stromversorgungsmix für Rechenzentren (global)
- Fossile Brennstoffe: Fast 60 %
- Erneuerbare Energien: 27 %
- Kernenergie: 15 %
Abbildung 2: Basierend auf dem Global Energy Review 2025 der IEA und ihrem Energy and AI-Bericht vergleicht diese Abbildung den Stromverbrauch (TWh) und die CO₂-Emissionen (MtCO₂) globaler Rechenzentren im Jahr 2024 mit denen anderer Sektoren.
Regionales Informationszentrum der Vereinten Nationen für Westeuropa (UNRIC), 2025
UNRIC betrachtet den ökologischen Fußabdruck von KI über den gesamten Lebenszyklus hinweg: Software (Training, Bereitstellung, Inferenz, Wartung) und Hardware (Materialien, Herstellung, Bau, Elektroschrott). Es betont, dass Strom- und Wasserverbrauch in Rechenzentren direkte Auswirkungen haben und plädiert für politische Maßnahmen zur Verbesserung von Transparenz und Verantwortlichkeit. 8
Statistiken und Kategorienaufschlüsselung (Strom, Wasser, Lebenszykluskategorien): Dieser Artikel ist in den extrahierten Abschnitten eher kategorisch als numerisch. Er unterteilt die Auswirkungen von KI explizit in direkte, indirekte und übergeordnete Effekte. Hier einige der wichtigsten Ergebnisse:
- Kategorien der Umweltauswirkungen
- Direkt: Strom- und Wasserverbrauch, Treibhausgasemissionen, Mineraliengewinnung, Umweltverschmutzung und Elektronikschrott.
- Indirekt: Emissionen aus KI-gestützten Anwendungen und Diensten.
- Höhere Ordnung: Verstärkung von Ungleichheiten und Problemen im Zusammenhang mit verzerrten oder qualitativ minderwertigen Trainingsdaten.
- Rechenzentren und Ressourcennutzung
- Rechenzentren verbrauchen große Mengen an Strom, der größtenteils immer noch aus fossilen Brennstoffen gewonnen wird.
- Für Kühlsysteme und den Bau werden erhebliche Wassermengen benötigt.
- Der weltweite Wasserbedarf im Zusammenhang mit KI wird bis 2027 voraussichtlich 4,2 bis 6,6 Milliarden Kubikmeter erreichen und damit den jährlichen Wasserverbrauch Dänemarks übersteigen.
- Für die Herstellung eines 2 Kilogramm schweren Computers können rund 800 Kilogramm Rohstoffe , darunter seltene Mineralien, benötigt werden.
- Stromverbrauch und Wachstum
- Laut Schätzungen der IEA verbraucht eine ChatGPT-Abfrage etwa 10-mal so viel Strom wie eine Google-Suche .
- Künstliche Intelligenz und maschinelles Lernen machten im Jahr 2021 weniger als 0,2 % des weltweiten Stromverbrauchs und weniger als 0,1 % der weltweiten Emissionen aus, aber die Nachfrage steigt rasant.
- Einige Technologieunternehmen berichten von einem jährlichen Wachstum von über 100 % bei der Nachfrage nach Rechenleistung für KI-Training und -Inferenz.
- Erweiterung der Rechenzentren
- Im Jahr 2022 machten Rechenzentren etwa 1 % des weltweiten Strombedarfs aus.
- In Irland entfielen im Jahr 2022 17 % des nationalen Stromverbrauchs auf Rechenzentren.
- Die Zahl der Rechenzentren weltweit ist von 500.000 im Jahr 2012 auf rund 8 Millionen heute angewachsen.
MIT-Nachrichten zu den Umweltauswirkungen generativer KI, 2025
MIT News erklärt, warum generative KI ressourcenintensiv sein kann und unterscheidet zwischen Training und Inferenz. Der Artikel hebt die Leistungsdichte, Probleme mit der Netzstabilität und den Mangel an Anreizen für Nutzer hervor, ihren Verbrauch zu reduzieren, solange die Auswirkungen nicht sichtbar sind. 9
Leistungsdichte
- Ein Cluster für das Training generativer KI verbraucht möglicherweise 7 bis 8 Mal mehr Energie als eine typische Rechenlast.
Stromverbrauch des Rechenzentrums
- Der weltweite Stromverbrauch von Rechenzentren wurde im Jahr 2022 mit 460 TWh angegeben und wird bis 2026 voraussichtlich auf etwa 1.050 TWh ansteigen.
Beispiel für Modelltraining
- Das Training von GPT-3 wird auf 1.287 MWh und etwa 552 Tonnen CO₂ geschätzt.
Bericht zum Energieverbrauch von Rechenzentren in den Vereinigten Staaten, 2024
Dieser Bericht schätzt den historischen Stromverbrauch von US-Rechenzentren und bietet Szenarien bis zum Jahr 2028. Er stellt einen expliziten Zusammenhang zwischen dem Wachstumsschub nach 2017 und beschleunigten Servern her, einschließlich Grafikprozessoren, die zur Ausführung von KI-Modellen verwendet werden. 10
Gesamtstromverbrauch von Rechenzentren in den USA:
- ~ 60 TWh (2014–2016) , relativ stabil.
- 76 TWh bis 2018 , das entspricht etwa 1,9 % des US-amerikanischen Stromverbrauchs.
- 176 TWh bis 2023 , das entspricht etwa 4,4 % des US-amerikanischen Stromverbrauchs.
Szenariobereich 2028:
- 325 bis 580 TWh bis 2028.
- Entspricht 6,7 % bis 12,0 % des prognostizierten Stromverbrauchs der USA im Jahr 2028.
Fahrer und Kategorien:
- Das Wachstum wird durch GPU-beschleunigte Server für künstliche Intelligenz vorangetrieben, die mittlerweile einen erheblichen Anteil der installierten Basis ausmachen.
- Es beschreibt Effizienzstrategien, die zuvor die Nachfrage konstant gehalten haben, darunter verbesserte Kühlsysteme, Energiemanagement, höhere Auslastungsgrade und reduzierter Leerlaufstrom.
MIT Technology Review, 2023
Die MIT Technology Review berichtet über einen der ersten Versuche, den Energieverbrauch und die CO₂-Emissionen von KI im Alltag (Inferenz) zu quantifizieren, anstatt sich nur auf das Training zu konzentrieren. Der Artikel basiert auf einer Preprint-Studie von Forschern von Hugging Face und der Carnegie Mellon University.
Die Studie zeigt, dass das Training großer KI-Modelle zwar sehr energieintensiv ist, der größte Teil des CO₂-Fußabdrucks eines KI-Modells jedoch während seiner gesamten Lebensdauer durch dessen Nutzung entsteht. Da gängige Modelle millionen- oder milliardenfach eingesetzt werden, können die Emissionen beim täglichen Einsatz die Trainingsemissionen schnell übersteigen. 11
Energie- und Kohlenstoffintensität pro Aufgabe:
Die Forscher maßen den Energieverbrauch bei zehn gängigen KI-Aufgaben auf der Hugging Face-Plattform. Dabei testeten sie 88 verschiedene Modelle und führten pro Aufgabe 1.000 Abfragen mit dem Messwerkzeug Code Carbon durch. Die wichtigsten Vergleiche sind:
- Bildgenerierung: Die Erzeugung eines einzelnen Bildes mit einem leistungsstarken Modell verbraucht ungefähr so viel Energie wie das vollständige Aufladen eines Smartphones.
- Die Generierung von 1.000 Bildern mit einem Modell wie Stable Diffusion XL erzeugt CO₂-Emissionen, die mit einer Fahrt von etwa 4,1 Meilen mit einem benzinbetriebenen Auto vergleichbar sind.
- Die Bildgenerierung ist mit Abstand die energie- und kohlenstoffintensivste KI-Aufgabe, die bisher untersucht wurde.
- Textgenerierung: Die Textgenerierung ist deutlich weniger energieintensiv.
- Das Erstellen von 1.000 Textausgaben verbraucht nur etwa 16 % der Akkuladung eines Smartphones.
- Das am wenigsten kohlenstoffintensive Textmodell der untersuchten Studie emittierte so viel wie eine Fahrt von nur 0,0006 Meilen.
Modellgröße und Aufgabenspezialisierung:
Die Studie hebt eine große Effizienzlücke zwischen allgemeinen generativen Modellen und aufgabenspezifischen Modellen hervor:
- Große generative Modelle verbrauchen deutlich mehr Energie, da sie für die Ausführung vieler Aufgaben (Generierung, Klassifizierung, Zusammenfassung) ausgelegt sind. Beispielsweise benötigt die Klassifizierung von Filmrezensionen mit einem generativen Modell etwa 30-mal mehr Energie als ein kleineres, speziell für die Stimmungsanalyse optimiertes Modell.
- Kleinere, spezialisierte Modelle sind für enge Anwendungsbereiche durchweg weniger kohlenstoffintensiv.
Nutzungsemissionen vs. Trainingsemissionen:
Die Forscher verglichen die Trainingsemissionen mit den kumulativen Nutzungsemissionen:
- Das größte BLOOM-Modell von Training Hugging Face wurde nach etwa 590 Millionen Anwendungen übertroffen.
- Bei extrem populären Modellen wie ChatGPT könnten die Nutzungsemissionen aufgrund des enormen täglichen Nutzeraufkommens die Trainingsemissionen innerhalb weniger Wochen übersteigen.
- Dies geschieht, weil das Training einmalig erfolgt, während die Inferenz kontinuierlich und in großem Umfang stattfindet.
Weiterreichende Implikationen und Expertenmeinungen:
- Experten weisen darauf hin, dass die Emissionen pro Aufgabe höher als erwartet ausfielen, was Anlass zur Sorge gibt, da generative KI zunehmend in alltägliche Software ( E-Mail , Suche , Textverarbeitung) integriert wird.
- Forscher betonen, dass neuere, größere Modelle wesentlich kohlenstoffintensiver sind als KI-Systeme von vor wenigen Jahren.
FAQs
Rechenzentren verbrauchen bereits einen erheblichen und stetig wachsenden Anteil des Strombedarfs. In den USA lagen ihre Energieverbraucher im Jahr 2023 bei rund 4,4 % des gesamten Stromverbrauchs. Prognosen zufolge könnte der Stromverbrauch von US-Rechenzentren bis 2030 auf 426 Terawattstunden (TWh) ansteigen, was einem Anstieg von 133 % gegenüber dem Niveau von 2024 entspricht. Ein wesentlicher Teil dieses Wachstums ist auf KI-Workloads zurückzuführen, die auf Hochleistungsservern laufen.
Der Stromverbrauch von KI-spezifischen Servern wurde im Jahr 2024 auf 53-76 TWh geschätzt und soll bis 2028 auf 165-326 TWh pro Jahr ansteigen. Im oberen Bereich dieser Spanne könnte allein der Stromverbrauch im Zusammenhang mit KI etwa 22 % der US-Haushalte mit Strom versorgen.
Das Training großer Modelle ist zwar energieintensiv, doch die Inferenz ist mittlerweile der Haupttreiber des KI-Energieverbrauchs. Aktuell entfallen etwa 80–90 % der KI-Rechenleistung auf die Inferenz, und es wird erwartet, dass sie bis 2030 rund 75 % des gesamten KI-Energiebedarfs ausmachen wird, da KI-Funktionen in Alltagsprodukte und -dienstleistungen integriert werden.
Eine einzelne generative KI-Anfrage verbraucht typischerweise etwa vier- bis fünfmal so viel Energie wie eine herkömmliche Suchmaschinenanfrage. Dieser Unterschied wird bei der Bearbeitung von Millionen oder Milliarden von KI-Anfragen täglich erheblich.
Weltweit verbrauchten Rechenzentren im Jahr 2024 etwa 415 TWh Strom. Obwohl KI derzeit nur einen geringen Anteil ausmacht, wird prognostiziert, dass KI-gesteuerte Rechenzentren bis 2030 – abhängig von der Verbreitung und den Effizienzsteigerungen – bis zu 21 % des gesamten globalen Energiebedarfs ausmachen werden.
Künstliche Intelligenz (KI) trägt durch Stromverbrauch und Hardwareproduktion zu den CO₂-Emissionen bei. Schätzungen zufolge könnte der jährliche CO₂-Fußabdruck von KI bis 2025 32,6 bis 79,7 Millionen Tonnen erreichen. 12
Ja. GPUs und andere Hochleistungsrechnerkomponenten haben oft eine kurze Lebensdauer, was zu einem wachsenden Problem mit Elektronikschrott führt. Die Herstellung dieser Komponenten erfordert zudem große Mengen an Rohstoffen, darunter seltene Mineralien.
Mehrere Strategien können den ökologischen Fußabdruck von KI deutlich verringern:
1. Die Auslagerung von KI-Workloads in Regionen mit hohem Anteil erneuerbarer Energien senkt die Kohlenstoffintensität.
2. Softwaresysteme können so konzipiert werden, dass sie die Arbeitslasten auf Basis der Echtzeit-Kohlenstoffintensität anpassen und Aufgaben ausführen, wenn saubererer Strom verfügbar ist.
3. Durch die Verbesserung der Modelleffizienz und die Reduzierung redundanter Inferenzaufrufe kann der Energiebedarf gesenkt werden, ohne die Leistung zu beeinträchtigen.
Genaue Messungen sind unerlässlich, um die Umweltauswirkungen von KI zu steuern. Forschungseinrichtungen können präzise CO₂- und Energieanalysen von KI-Workloads durchführen, doch die meisten geschlossenen KI-Anbieter legen noch nicht genügend Daten offen. Standardisierte Berichtspflichten würden Regulierungsbehörden, Energieversorgern und Nutzern helfen, den KI-bedingten Energieverbrauch besser zu verstehen und zu steuern.
Die Bewältigung der Auswirkungen von KI auf Energie, Wasser und Emissionen erfordert die Zusammenarbeit von Technologieunternehmen, Forschern, Energieversorgern und politischen Entscheidungsträgern. Eine koordinierte Planung kann dazu beitragen, dass KI weiterhin wirtschaftliche und soziale Vorteile bietet, ohne die Energiekosten, Emissionen oder die Ressourcenbelastung unverhältnismäßig zu erhöhen.
Seien Sie der Erste, der kommentiert
Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.