Generative KI (GenAI) bietet Unternehmen im Vergleich zu mittelständischen Unternehmen oder Startups neuartige Möglichkeiten, darunter:
- Anwendungsfälle für generative KI in Unternehmen .
- Die Möglichkeit, die Geschäftsmodelle Ihres Unternehmens zu erstellen, ohne private Daten an Dritte weiterzugeben.
Generative KI birgt jedoch Herausforderungen, die speziell für große Organisationen gelten. Zum Beispiel:
- 36 % der Unternehmen äußern Bedenken hinsichtlich der Offenlegung firmeneigener Daten bei der Nutzung kommerzieller LLMs. 1
- GenAI wird auch neue Dienstleistungen und Lösungen beschleunigen, wodurch Wettbewerber schneller in Märkte eintreten und Marktanteile gewinnen können.
- Die durch generative Modelle ermöglichte Automatisierung kann das Kundenerlebnis verbessern oder Kosten senken, birgt aber auch die Gefahr von Betriebs- und Reputationsrisiken durch KI-Verzerrungen oder -Falschdarstellungen.
Entdecken Sie unsere praktischen Anwendungsfälle für KI in Unternehmen und erfahren Sie, wie große Unternehmen ihre eigenen generativen KI-Modelle effektiv entwickeln, einsetzen und steuern können.
Anwendungsfälle für generative künstliche Intelligenz in Unternehmen
Das Web ist voll von B2C-Anwendungsfällen, wie beispielsweise dem Verfassen von E-Mails mithilfe generativer KI, die keine tiefgreifende Integration oder spezialisierte Modelle erfordern. Der Unternehmensnutzen generativer KI ergibt sich jedoch aus den unten aufgeführten KI-Anwendungen:
Häufige Anwendungsfälle
Enterprise Knowledge Management (EKM): Während KMU und mittelständische Unternehmen keine Probleme mit der Organisation ihrer begrenzten Daten haben, benötigen Fortune-500-Unternehmen oder Forbes-2000-Unternehmen für zahlreiche Anwendungsfälle Tools für Enterprise Knowledge Management. Generative KI kann ihnen dabei helfen. Anwendungsbeispiele:
- Gewinnung von Erkenntnissen durch die Kennzeichnung unstrukturierter Daten wie Dokumente.
- Zusammenfassung unstrukturierter Daten.
- Unternehmensweite Suche, die über die Stichwortsuche hinausgeht und die Beziehungen zwischen Wörtern berücksichtigt.
Zur unternehmensweiten Suche gehört auch die Beantwortung von Mitarbeiterfragen zu folgenden Themen:
- Unternehmenspraktiken (z. B. Personalrichtlinien)
- Interne Unternehmensdaten wie Umsatzprognosen
- Eine Kombination aus internen und externen Daten. Zum Beispiel: Wie würden sich potenzielle zukünftige Sanktionen gegen den Vertrieb von MLOps-Systemen in unserem drittgrößten geografischen Markt auf unsere Unternehmensleistung auswirken?
Größere Organisationen bedienen globale Kunden, und die maschinelle Übersetzungsfähigkeit von Sprachlernprogrammen ist in Anwendungsfällen wie den folgenden wertvoll:
- Website-Lokalisierung
- Erstellung von Dokumentationen wie technischen Handbüchern in großem Umfang für alle Regionen
- Mehrsprachiger Kundenservice
- Social-Media-Monitoring mit Fokus auf ein globales Publikum
- Mehrsprachige Stimmungsanalyse
Branchenspezifische Anwendungen
Der größte Unternehmensnutzen dürfte aus dem Einsatz generativer KI-Technologien für Innovationen in den jeweiligen Branchen resultieren: Dies kann in Form neuer Produkte und Dienstleistungen oder neuer Arbeitsweisen (z. B. Prozessoptimierung mit GenAI) geschehen. Die folgenden Listen mit Anwendungsbeispielen für generative KI können als Ausgangspunkt dienen:
- Finanzdienstleistungen GenAI
- generative KI im Bildungsbereich
- Modegenerierende KI
- Generative KI im Gesundheitswesen
Wie sollten Unternehmen generative KI nutzen?
Wir haben einen detaillierten Leitfaden für Unternehmen entwickelt, um generative KI optimal zu nutzen. Während die meisten Firmen ihre Modelle möglicherweise nicht selbst entwickeln müssen, wird von den meisten großen Unternehmen (z. B. Forbes Global 2000) erwartet, dass sie innerhalb der nächsten Jahre ein oder mehrere generative KI-Modelle entwickeln oder optimieren, die speziell auf ihre Geschäftsanforderungen zugeschnitten sind. Durch Feinabstimmung können Unternehmen diese Ziele erreichen:
- Erzielen Sie eine höhere Genauigkeit , indem Sie die Modellausgabe detailliert an Ihre eigene Domäne anpassen.
- Kosten sparen . Anpassbare Modelle mit Lizenzen zur kommerziellen Nutzung sind nachweislich fast genauso genau wie proprietäre Modelle, jedoch zu deutlich geringeren Kosten. 2
- Verringern Sie die Angriffsfläche für ihre vertraulichen Daten
Unternehmen wie Bloomberg erzielen Weltklasse-Leistungen, indem sie ihre eigenen generativen KI-Tools entwickeln, die auf internen Daten basieren. 3
Welche Richtlinien gelten für KI-Modelle in Unternehmen?
Ein generatives KI-Modell für Unternehmen sollte mindestens folgende Kriterien erfüllen:
Vertrauenswürdig
Konsistent
Die meisten gängigen LLMs liefern unterschiedliche Ergebnisse für dieselbe Eingabe. Dies schränkt die Reproduzierbarkeit von Tests ein, was zur Veröffentlichung unzureichend getesteter Modelle führen kann.
Kontrolliert
Unternehmen sollten generative KI in Umgebungen hosten oder integrieren, in denen sie Sicherheit und Compliance detailliert verwalten können (z. B. On-Premises- oder dedizierte Cloud-Instanzen). Alternativ können Online-Chat-Schnittstellen oder APIs wie die LLM-APIs von OpenAI verwendet werden.
Der Nachteil der Nutzung von APIs besteht darin, dass der Nutzer unter Umständen vertrauliche, firmeneigene Daten an den API-Inhaber weitergeben muss. Dadurch erhöht sich die Angriffsfläche für diese Daten. Weltweit führende Unternehmen wie Amazon und Samsung erlebten Datenlecks interner Dokumente und wertvollen Quellcodes, als ihre Mitarbeiter ChatGPT einsetzten. 4 5
Seitdem haben sich die Angebote für Unternehmen deutlich weiterentwickelt:
- OpenAI Enterprise (2023) und später das ChatGPT-Team (2024) führten die Datenaufbewahrung auf Null, die SOC 2-Konformität, die SSO/SAML-Integration und Administratorkontrollen ein. 6
- Große Anbieter (z. B. Anthropic, Microsoft, Google, Cohere) werben jetzt mit Opt-out-Optionen für Kundendaten, was bedeutet, dass Benutzereingaben und -ausgaben nicht für das Modelltraining verwendet werden.
- Die Anbieter haben außerdem damit begonnen, sich an den Anforderungen des EU-KI-Gesetzes (2024) auszurichten, das verantwortungsvolle KI-Prinzipien wie Transparenz, Überprüfbarkeit und Risikomanagement in risikoreichen KI-Systemen betont.
Trotz dieser Fortschritte bestehen bei der Nutzung von Cloud-Systemen von Drittanbietern weiterhin Restrisiken:
- Böswillige Insider oder kompromittierte Anbieter könnten weiterhin Zugriff auf Unternehmensdaten erhalten.
- Fehlkonfigurationen der API können sensible Datenflüsse offenlegen.
- Die mangelnde Erklärbarkeit von LLMs stellt die Compliance-Teams weiterhin vor Herausforderungen.
Für stark regulierte Branchen bleibt das Selbsthosting oder die private Bereitstellung von Basismodellen (über Open-Weight-Modelle wie LLaMA-4, Mistral oder Granite) der sicherste Ansatz, allerdings bei höheren Betriebskosten.
Erklärbar
Leider können die meisten generativen KI-Modelle nicht erklären, warum sie bestimmte Ergebnisse liefern. Dies schränkt ihren Einsatz ein, da Unternehmen, die wichtige Entscheidungen mithilfe von KI-gestützten Assistenten treffen möchten, die Daten kennen wollen, die diesen Entscheidungen zugrunde liegen. XAI für LLMs ist weiterhin ein Forschungsgebiet.
Zuverlässig
Halluzinationen (d. h. das Erfinden von Lügen) sind ein Merkmal von LLMs und lassen sich wahrscheinlich nicht vollständig beseitigen. Unternehmenssysteme für genAI benötigen daher die notwendigen Prozesse und Schutzmechanismen, um sicherzustellen, dass schädliche Halluzinationen minimiert, erkannt oder von Menschen identifiziert werden, bevor sie den Unternehmensbetrieb beeinträchtigen können.
Unternehmen setzen zunehmend auf Retrieval-Augmented Generation (RAG)-Pipelines, um Fehlinterpretationen zu reduzieren, indem sie Modelle auf vertrauenswürdigen Daten basieren. Dennoch bestehen weiterhin Herausforderungen in den Bereichen Infrastruktur, Speicherung und Sicherheit, sodass RAG nicht nur eine kurzfristige Lösung, sondern eine langfristige Unternehmensanforderung darstellt. 7
Sicher
Unternehmensweite Modelle können Schnittstellen für externe Benutzer aufweisen. Angreifer können Techniken wie die Prompt-Injection nutzen, um das Modell zu unbeabsichtigten Aktionen zu veranlassen oder vertrauliche Daten weiterzugeben.
Ethisch
Ethisch geschult
Das Modell sollte mit ethisch einwandfreien Daten trainiert werden, bei denen das geistige Eigentum dem Unternehmen oder seinem Lieferanten gehört und personenbezogene Daten mit Einwilligung verwendet werden.
- Bei generativen KI-Systemen können IP-Probleme auftreten, beispielsweise wenn Trainingsdaten urheberrechtlich geschützte Inhalte enthalten, deren Urheberrecht nicht dem Modelleigentümer gehört. Dies kann zu unbrauchbaren Modellen und rechtlichen Auseinandersetzungen führen.
- Die Verwendung personenbezogener Daten in Trainingsmodellen kann zu Compliance-Problemen führen. Beispielsweise musste ChatGPT (OpenAI) nach Bedenken der italienischen Datenschutzbehörde (Garante) seine Datenschutzrichtlinien offenlegen und Nutzern die Möglichkeit geben, ihre Daten zu löschen. 8
Lesen Sie mehr über Urheberrechtsfragen und Lösungen im Bereich generativer KI .
Gerecht
Für Unternehmen können unfaire Geschäftsmodelle verschiedene Risiken bergen:
- Regulatorisches Risiko: KI-Systeme, die bei der Personalbeschaffung, Kreditvergabe, Versicherung oder im Gesundheitswesen eingesetzt werden, können gegen Antidiskriminierungsgesetze verstoßen, wenn sie zu verzerrten Ergebnissen führen.
- Operationelles Risiko: Verzerrte Ergebnisse können die Qualität der Entscheidungen beeinträchtigen, beispielsweise durch die Empfehlung ungeeigneter Kandidaten oder die falsche Klassifizierung von Kundensegmenten.
- Reputationsrisiko: Die öffentliche Bekanntgabe von voreingenommenem KI-Verhalten kann das Vertrauen in die Marke und die Kundenbeziehungen schädigen.
- Marktbeschränkungen: Modelle, die primär auf eine geografische Region, Sprache oder demografische Gruppe trainiert wurden, können auf globalen Märkten schlecht abschneiden.
Wie Unternehmen mit Fairness umgehen
Unternehmen begegnen der Fairness in der KI durch eine Kombination aus Governance-Praktiken und technischen Schutzmaßnahmen:
- Sie stellen vielfältige und repräsentative Trainingsdatensätze zusammen und entfernen sensible Attribute oder Stellvertretervariablen, die zu Verzerrungen führen könnten.
- Die Modelle werden anhand von Fairnesskriterien (z. B. demografische Parität oder Chancengleichheit) bewertet und an Grenzfällen getestet, um potenzielle Ungleichheiten zu identifizieren.
- Organisationen setzen auch auf menschliche Aufsicht, wie zum Beispiel die Einbindung von Experten in wichtige Entscheidungen und Ethikkommissionen für KI-Analysen.
- Unternehmen überwachen kontinuierlich die Modellausgaben im Produktionsbetrieb, um verzerrte Muster zu erkennen und die Modelle neu zu trainieren, sobald neue oder ausgewogenere Daten verfügbar sind.
Lizenziert
Unternehmen benötigen eine kommerzielle Lizenz zur Nutzung des Modells. Beispielsweise unterliegen Modelle wie LLaMa (Meta) nichtkommerziellen Lizenzen, was ihre rechtmäßige Nutzung in den meisten Anwendungsfällen eines gewinnorientierten Unternehmens ausschließt. Auch Modelle mit freizügigen Lizenzen, wie Vicuna, das auf LLaMa aufbaut, benötigen letztendlich nichtkommerzielle Lizenzen, da sie das LLaMa-Modell nutzen. 9 10
Nachhaltig
Das Training von generativen KI-Modellen von Grund auf ist teuer und energieintensiv und trägt zu CO₂-Emissionen bei. Führungskräfte sollten sich der vollen Kosten dieser Technologie bewusst sein und Wege finden, ihre ökologischen und finanziellen Kosten zu minimieren.
Unternehmen können sich an den meisten dieser Richtlinien orientieren, und sie bilden ein Kontinuum, mit Ausnahme der Fragen der Lizenzierung, ethischer Bedenken und der Kontrolle.
- Es ist klar, wie man eine korrekte Lizenzierung erreicht und ethische Bedenken vermeidet, aber diese Ziele sind schwer zu erreichen.
- Um die Kontrolle zu erlangen, müssen Unternehmen ihre eigenen Geschäftsmodelle entwickeln; die meisten Unternehmen sind sich jedoch nicht im Klaren darüber, wie sie dies erreichen können.
Wie können Unternehmen Fundamentmodelle entwickeln?
Es gibt zwei Ansätze, um die LLM-Infrastruktur Ihres Unternehmens in einer kontrollierten Umgebung aufzubauen.
1. Bauen Sie Ihr eigenes Modell (BYOM)
Dieser Ansatz ermöglicht eine Weltklasse-Performance, die einige Millionen Dollar kostet, einschließlich der Kosten für Rechenleistung (1,3 Millionen GPU-Stunden auf 40 GB A100 GPUs im Fall von BloombergGPT) und des Data-Science-Teams. 11
BYOM wird vor allem von Unternehmen in stark regulierten Branchen (z. B. Finanzen, Gesundheitswesen, Verteidigung) eingesetzt, wo die Sensibilität der Daten und die Compliance-Anforderungen die Kosten überwiegen. Einige Unternehmen verfolgen einen hybriden Ansatz, indem sie kleinere domänenspezifische Modelle trainieren und gleichzeitig externe Basismodelle für allgemeine Schlussfolgerungen nutzen.
2. Ein bestehendes Modell verbessern
Die meisten Unternehmen wählen diesen Ansatz aufgrund seiner Kosteneffizienz und Flexibilität. Es stehen verschiedene Methoden zur Verfügung:
2.1 Feinabstimmung
Es handelt sich um eine kostengünstigere Technik des maschinellen Lernens zur Verbesserung der Leistung vortrainierter großer Sprachmodelle (LLMs) unter Verwendung ausgewählter Datensätze.
Die Feinabstimmung der Anweisungen erfolgte bisher mit großen Datensätzen, kann aber jetzt auch mit einem kleinen Datensatz erreicht werden (z. B. 1.000 kuratierte Aufforderungen und Antworten im Fall von LIMA). 12 Die Bedeutung eines robusten Datenerfassungsansatzes, der die Qualität und Quantität der Daten optimiert, wird in frühen kommerziellen LLM-Feinabstimmungsexperimenten hervorgehoben. 13
Die Rechenkosten für Forschungsarbeiten lagen bei nur 100 US-Dollar, während gleichzeitig eine nahezu Weltklasse-Leistung erzielt wurde. 14
Die Feinabstimmung von Modellen ist ein aufstrebendes Gebiet, und jede Woche werden neue Ansätze wie Inference-Time Intervention (ITI) veröffentlicht, ein Ansatz zur Reduzierung von Modellhalluzinationen. 15
2.2- Verstärkendes Lernen durch menschliches Feedback (RLHF)
Ein feinabgestimmtes Modell kann durch die Einbeziehung des Menschen in den Bewertungsprozess weiter verbessert werden. 16 17
2.3- Retrieval augmented generation (RAG)
RAG ermöglicht es Unternehmen, während der Generierungszeit wichtige Informationen an Modelle zu übermitteln. Die Modelle können diese Informationen nutzen, um genauere Ergebnisse zu liefern.
Moderne Frameworks wie LangChain und LlamaIndex ermöglichen die sichere Integration strukturierter und unstrukturierter Unternehmensdaten. Fortschrittliche RAG-Methoden umfassen nun Multi-Hop-Retrieval und Echtzeit-Suchintegration, wodurch die Zuverlässigkeit und faktische Genauigkeit weiter verbessert werden.
Unternehmen streben eine automatische Datenaktualisierung an, bei der Modelle automatisch mit Live-Datenquellen verbunden werden, um die Ergebnisse stets aktuell zu halten. Cloud-Anbieter wie Azure positionieren RAG mittlerweile als Kernarchitektur für Copiloten, Wissenssysteme und Kundenanwendungen und priorisieren dabei Skalierbarkeit und Sicherheit. 18
Angesichts der hohen Kosten von BYOM empfehlen wir Unternehmen, zunächst optimierte Versionen bestehender Modelle zu verwenden. Die Optimierung von Sprachmodellen ist ein aufstrebendes Gebiet, in dem wöchentlich neue Ansätze entwickelt werden. Daher sollten Unternehmen experimentierfreudig sein und bereit, ihren Ansatz anzupassen.
Die besten kosteneffizienten Fundamentmodelle für Unternehmen
Plattformen für maschinelles Lernen haben Basismodelle mit kommerziellen Lizenzen veröffentlicht, die hauptsächlich auf Texten aus dem Internet als primärer Datenquelle basieren. Diese Modelle können als Basismodelle zum Aufbau großer Sprachmodelle für Unternehmen verwendet werden:
OpenAI GPT-5
GPT-5.4 ist das neueste Spitzenmodell von OpenAI, das für professionelle und komplexe Wissensarbeit entwickelt wurde. Zu den Funktionen gehören:
- Fortgeschrittenes Denkvermögen und Wissensarbeit: Erstellt qualitativ hochwertige Ergebnisse für Aufgaben wie Berichte, Tabellenkalkulationen, Präsentationen und Analysen in vielen Berufsfeldern.
- Codierungsfähigkeit: Integriert die Codierungsstärken von GPT-5.3-Codex und ermöglicht so die Generierung von produktionsreifem Code und Softwareänderungen über mehrere Dateien hinweg.
- Agentische Arbeitsabläufe und Werkzeugnutzung: Kann Werkzeuge suchen und auswählen, mehrstufige Arbeitsabläufe automatisieren und lange Aufgaben zuverlässiger ausführen.
- Native Computernutzungsfähigkeit: Agenten können mit der Software über Screenshots, Maus-/Tastaturaktionen oder Automatisierungscode interagieren, um Aufgaben in verschiedenen Apps und auf Websites zu erledigen.
- Großes Kontextfenster: Unterstützt bis zu 1 Million Tokens und ermöglicht so die Analyse großer Codebasen, langer Dokumente oder erweiterter Arbeitsabläufe in einer einzigen Eingabeaufforderung.
GPT-5.4 zeigt deutliche Verbesserungen in mehreren Benchmarks. Bei Wissensarbeitsaufgaben erzielt es 83 % Siege/Gleichstände im GDPval-Benchmark (gegenüber 70,9 % in GPT-5.2). Im Bereich Softwareentwicklung erreicht es 57,7 % im SWE-Bench Pro-Benchmark, was auf eine solide Programmierleistung hinweist. Bei Aufgaben zur Computernutzung erzielt es 75 % im OSWorld-Verified-Benchmark und übertrifft damit den menschlichen Vergleichswert von 72,4 %.
Auch bei der Web-Recherche schneidet es gut ab, mit 82,7 % bei BrowseComp.
Darüber hinaus sind die Antworten von GPT-5.4 mit 33 % geringerer Wahrscheinlichkeit falsch und mit 18 % geringerer Wahrscheinlichkeit fehlerhaft als die von GPT-5.2. 19
GPT-5.3-Codex ist das agentenbasierte Codierungsmodell von OpenAI, das die fortgeschrittenen Software-Engineering-Fähigkeiten von GPT-5.2-Codex mit dem umfassenderen Denkvermögen und dem Fachwissen von GPT-5.2 kombiniert.
Das Modell verwaltet komplexe Entwicklungsabläufe, wie z. B. Recherche, mehrstufige Werkzeugnutzung und langlaufende Codierungsaufgaben, über große Codebasen hinweg.
Abbildung 1: Ein Beispiel für eine Aufforderung zur Foliengenerierung mit GPT-5.3-Codex. 20
DeepSeek
DeepSeek-V3 von DeepSeek ist ein MoE-Modell (~671B, MIT-lizenziert) mit starker Argumentations- und Codierungsleistung und ist seit März 2025 Open Source. 21
DeepSeek-V3.1 von DeepSeek (Aug 2025) erweitert die Long-Context-Fähigkeiten mit einem aktualisierten Tokenizer und offenen Gewichtungen. 22
Google DeepMind
Gemini 3.1 Pro (Google DeepMind) ist ein hochmodernes großes Sprachmodell, das für komplexes Denken, Codieren und multimodale Aufgaben entwickelt wurde und in der Lage ist, Informationen über Text , Bilder , Audio , Video , Code und Dokumente hinweg zu verarbeiten.
Gemini Pro erzielt in mehreren Benchmarks starke Leistungen in den Bereichen logisches Denken, Codierung und multimodale Aufgaben. Es erreicht 77,1 % im ARC-AGI-2-Test für abstraktes Denken und 94,3 % im GPQA Diamond-Test für naturwissenschaftliche Aufgaben auf Hochschulniveau. Im Humanity's Last Exam, der akademisches Denken misst, erzielt es ohne Hilfsmittel 44,4 %.
Im Bereich Codierung und Softwareentwicklung erreicht das Modell 68,5 % bei Terminal-Bench 2.0 und 80,6 % bei SWE-Bench Verified. Auch bei Wissens- und multimodalen Benchmarks schneidet es gut ab und erzielt 92,6 % bei MMMLU (mehrsprachiges Wissen) und etwa 80,5 % bei MMMU-Pro (multimodales Schließen). 23
Meta LLaMA
LaMA 4 von Meta wurde als LLaMA 4 Maverick , Scout und als Behemoth-Vorschau veröffentlicht. Diese Modelle sind nativ multimodal (Text und Bild), unterstützen Kontextfenster mit bis zu 10 Millionen Tokens und sind weiterhin auf Effizienz optimiert. 24
Llama 3 von Meta war das Vorgängermodell mit einer kommerziellen Nutzungslizenz, die für sehr große Unternehmen einige Einschränkungen aufwies. 25
Mistral AI
Mistral 8x22B ist das neueste Open-Weights-Modell des europäischen KI-Startups Mistral. Dank seiner freizügigen Lizenz (Apache 2.0), die die kommerzielle Nutzung ohne spezifische Einschränkungen für große Unternehmen ermöglicht, ist es für alle Unternehmen attraktiv. 26 Mistral bietet auch Modelle wie Mistral Large an, für dieses Modell gelten jedoch restriktivere Lizenzbedingungen. 27
Kürzlich hat Mistral sein Angebot erweitert und bietet nun Modelle wie Mistral Large 3, kleinere Modelle wie Mistral Small und Medium, spezialisierte Codierungsmodelle wie Codestral und Devstral sowie Audiomodelle wie Voxtral Transcribe 2 an, das Funktionen für die Stapel- und Echtzeit-Sprachtranskription bietet. 28
IBM
Die Granite-Modelle von IBM weisen laut Codegenerierungs-Benchmarks eine hohe Leistungsfähigkeit auf und sind unter der freizügigen Apache 2.0-Lizenz verfügbar. 29
Das Granite-Ökosystem wurde außerdem um Sprachmodelle wie Granite-4.0-1B-Speech erweitert, die mehrsprachige Spracherkennung und -übersetzung unterstützen. 30
Databricks
DBRX ist ein Open-Weights-Modell, entwickelt von der Datenplattform Databricks. Es wird mit einer kommerziellen Lizenz angeboten, die ähnliche Einschränkungen wie die Modelle von Meta aufweist. Die Einschränkungen gelten für Unternehmen mit mehr als 700 Millionen aktiven Nutzern. 31
Grok
Grok-4 von xAI wurde im Juli 2025 veröffentlicht und bot native Werkzeugnutzung, Echtzeit-Suchintegration sowie eine „Heavy“-Variante für fortgeschrittene Schlussfolgerungen. Grok 4.1 folgte im November 2025 und verbesserte im Vergleich zu Grok 4 die Schlussfolgerungsfähigkeit, die Kohärenz, die Erfassung von Persönlichkeits- und emotionalen Nuancen sowie die Häufigkeit von Halluzinationen. 32
xAI hat kürzlich Grok 4.20 Beta vorgestellt, das Multiagenten-Funktionen bietet und die koordinierte Aufgabenausführung durch mehrere spezialisierte Agenten ermöglicht. Berichten zufolge befindet sich Grok 5 bereits in der Entwicklungsphase, was auf weitere Fortschritte bei den Schlussfolgerungs- und Agentenfähigkeiten hindeutet. 33
Entdecken Sie die aktuellen Benchmark- und Preisdetails der Basismodelle für genAI-Anwendungen im Unternehmensbereich:
Welcher Technologie-Stack eignet sich am besten für die Entwicklung großer Sprachmodelle?
Generative KI ist eine Technologie der künstlichen Intelligenz, und große Unternehmen entwickeln seit einem Jahrzehnt KI-Lösungen. Die Erfahrung hat gezeigt, dass die Nutzung von Machine Learning Operations (MLOps)-Plattformen die Modellentwicklung deutlich beschleunigt.
Zusätzlich zu ihren MLOps-Plattformen können Unternehmen auf eine wachsende Liste von Tools und Frameworks für Large Language Model Operations (LLMOps) wie Langchain, Semantic Kernel oder watsonx.ai zurückgreifen, um ihre Modelle anzupassen und zu erstellen, sowie auf KI-Risikomanagement-Tools wie Nemo Guardrails.
In der Anfangsphase neuer Technologien empfehlen wir Führungskräften, offenen Plattformen Priorität einzuräumen, um zukunftssichere Systeme zu entwickeln. Bei aufstrebenden Technologien stellt die Abhängigkeit von einem einzelnen Anbieter ein erhebliches Risiko dar. Unternehmen können in der Folgezeit mit veralteten Systemen feststecken, da sich die Technologien rasant und grundlegend verändern.
Schließlich zählt die Dateninfrastruktur eines Unternehmens zu den wichtigsten Basistechnologien für generative KI:
Riesige Mengen interner Daten müssen organisiert und formatiert werden.
Die Bemühungen um Datenqualität und Beobachtbarkeit sollten sicherstellen, dass Unternehmen Zugang zu qualitativ hochwertigen, einzigartigen und einfach nutzbaren Datensätzen mit klaren Metadaten haben.
Für das Modelltraining können Fähigkeitenzur Synthese von Daten erforderlich sein.
Wie lässt sich die Leistungsfähigkeit großer Modelle bewerten?
Ohne Messung der Effektivität lässt sich der Wert generativer KI-Ansätze nicht quantifizieren. Die Evaluierung von Lernmodellen stellt jedoch aufgrund von Problemen mit Benchmark-Datensätzen, dem Übergreifen von Benchmark-Daten auf Trainingsdaten, der Inkonsistenz menschlicher Bewertungen und anderer Faktoren ein schwieriges Problem dar. 34 35 .
Wir empfehlen einen iterativen Ansatz, der die Investitionen in die Evaluierung erhöht, je näher die Modelle ihrer Produktionsanwendung kommen:
- Nutzen Sie Benchmark-Testergebnisse, um Auswahllisten zu erstellen. Diese sind für eine Vielzahl von Open-Source-Modellen öffentlich verfügbar. 36 37
- Nutzen Sie die Elo-Wertungen, die zur Rangfolge von Spielern in Nullsummenspielen wie Schach verwendet werden, um die auszuwählenden Modelle zu vergleichen. Falls leistungsfähigere Modelle nicht verfügbar sind (z. B. aus Lizenz- oder Datenschutzgründen), können diese zum Vergleich der Ergebnisse verschiedener Modelle herangezogen werden. 38
Abbildung 2: Verbesserung durch Few-Shot-Learning gegenüber OpenAI.
Dies kann auch die Anregung von Gedankenketten umfassen. Die Anregung von Gedankenketten ist eine Technik des Prompt-Engineerings, die ein Sprachmodell Schritt für Schritt durch ein Problem führt, bevor es eine endgültige Antwort liefert. Durch die Generierung von Zwischenschritten im Denkprozess kann das Modell komplexe Aufgaben wie Mathematik, Logik oder mehrstufige Entscheidungsfindung besser bewältigen.
Dieser Ansatz verbessert oft die Genauigkeit und Transparenz, da das Modell das Problem in kleinere logische Teile zerlegt, anstatt sofort mit einer einzigen Antwort zu reagieren.
Abbildung 3: Beispiel zur Veranschaulichung der Funktionsweise von Gedankenketten-Promptings. 39
Retrieval Augmented Generation (RAG) kann auch bei kommerziellen Modellen eingesetzt werden, wenn das Unternehmen mit den Datensicherheitsrichtlinien des Anbieters des Basismodells einverstanden ist.
Zudem stehen Feinabstimmungsmöglichkeiten zur Verfügung, um die Modellleistung kommerzieller Modelle, die über APIs angeboten werden, weiter zu verbessern. 40
Schritte des Vorgründungsmodells für Unternehmen
Der Aufbau Ihres Unternehmensmodells kann Monate dauern, da die folgenden Schritte abgeschlossen werden müssen. Jeder dieser Schritte kann Wochen bis Monate in Anspruch nehmen und lässt sich nicht vollständig parallelisieren:
- Die Datenerfassung kann Wochen bis Monate dauern. KI-gestützte Datenerfassungsdienste können diesen Prozess beschleunigen, indem sie Unternehmen dabei unterstützen, ausgewogene, qualitativ hochwertige Datensätze für den Unterricht und andere Daten zum Erstellen oder Optimieren von Modellen zu generieren. Alternativ können Sie auch mit Daten-Crowdsourcing-Plattformen zusammenarbeiten, um vielfältigere Datensätze zu erhalten.
- Die Einstellung von Data Scientists mit LLM-Abschluss oder die Beauftragung von Beratern kann Wochen bis Monate dauern.
- Ausbildung und Einsatz
- Integration von Modellen in Geschäftsprozesse und Systeme
Wir empfehlen Führungskräften, Experimente mit GenAI zu fördern. Dies erfordert einen Paradigmenwechsel: Maschinen dürfen nicht länger als gefühllose Roboter, sondern müssen als Mitgestalter betrachtet werden. Unternehmen sollten GenAI nutzen, um diesen Mentalitätswandel zu unterstützen, ihre Mitarbeitenden über dessen Potenzial aufzuklären und sie zu befähigen, ihre Arbeitsweise zu verändern. Wie Berater oft betonen: Der Schlüssel zu jeder Transformation, auch zur KI-Transformation , sind die Menschen.
Abbildung 4: BCG-Rahmenwerk für die menschliche Seite der GenAI-Einführung in Unternehmen 41
Teams können bestehende APIs nutzen, um Prozesse in Bereichen zu automatisieren, in denen der Wert vertraulicher Daten geringer ist und die Systemintegration einfacher ist. Beispiele für Bereiche, in denen Teams GenAI einsetzen können, um die Produktivität zu steigern und die Vertrautheit der Teams mit generativer KI zu erhöhen, ohne eigene Modelle entwickeln zu müssen:
- Erstellung neuer Inhalte und Optimierung generierter Inhalte für Marketingkampagnen
- Codegenerierung für Frontend-Software
- Konversationelle KI für Kundenbindung und Support
Nachhaltigkeit und Kosten
Generative KI benötigt erhebliche Rechenressourcen und verursacht daher sowohl finanzielle als auch ökologische Kosten. Unternehmen sollten diese Abwägungen sorgfältig abwägen, wenn sie entscheiden, ob sie Modelle entwickeln oder optimieren.
Wichtige Überlegungen sind:
- Lebenszyklusmodellierung : Studien zeigen, dass der CO₂-Fußabdruck von LLMs das Training, die Inferenz und sogar die Hardware selbst umfasst. Tools wie LLMCarbon bieten Frameworks zur durchgängigen Kostenabschätzung. 42
- Nachhaltigkeitskontrollen in der Cloud : Cloud-Anbieter (z. B. Google, Microsoft, AWS) veröffentlichen jetzt Daten zur Kohlenstoffintensität ihrer Rechenzentren. 43
- Die Wahl umweltfreundlicherer Regionen oder von Anlagen mit niedrigem PUE-Wert (Energieeffizienz) kann die Emissionen deutlich senken. 44
- Branchenberichte : Unabhängige Berichte (z. B. Stanford AI Index, MIT Tech Review) heben hervor, dass die Emissionen von Rechenzentren steigen, obwohl sich die Effizienz verbessert. 45 Dies unterstreicht die Notwendigkeit, Modelle angemessen zu dimensionieren und die Inferenz zu optimieren, anstatt immer dem größten verfügbaren Modell hinterherzujagen. 46
Praktische Kostensenkungstaktiken
Unternehmen wenden Methoden wie die folgenden an:
- Verwendung kleinerer, spezialisierter Modelle (die anhand interner Daten feinabgestimmt wurden) anstatt von Grund auf neu zu trainieren.
- Anwendung von Effizienztechniken wie Quantisierung (Komprimierung von Modellen) oder Anfrage-Caching.
- Durch die Nutzung von RAG werden Modelle nur bei Bedarf generiert, anstatt mit jedem neuen Datensatz neu trainiert zu werden.
- Um Transparenz zu gewährleisten, werden nicht nur die finanziellen Kosten, sondern auch der CO₂-Ausstoß und der Wasserverbrauch auf Ebene der einzelnen Anwendungsfälle erfasst.
Empfehlung : Unternehmensführer sollten Nachhaltigkeit sowohl als Kostenkontrollstrategie als auch als Compliance-Priorität behandeln. Durch die Abstimmung des KI-Einsatzes auf die ESG-Ziele des Unternehmens können Unternehmen Kosten senken und Reputationsrisiken minimieren.
Wie groß ist das Interesse an generativer KI für Unternehmen?
Obwohl vieles auf einen Boom generativer KI in Unternehmen hindeutet (z. B. die Umsätze von Beratern im Bereich generativer KI), spiegelt sich dies noch nicht in den Suchanfragen wider. Allerdings wächst das Interesse an KI in Unternehmen, was wahrscheinlich durch die Einführung von ChatGPT ausgelöst wurde.
Adoptionsgrad
Seit dem letzten Jahr haben große Beratungsunternehmen ihre Roadmaps zur Einführung von GenAI in Unternehmen aktualisiert und legen nun mehr Wert auf die Veränderung des Betriebsmodells, die Governance und die Wertschöpfung als auf die reine Tool-Entwicklung:
- 78 % der Organisationen geben an, KI in mindestens einer Funktion einzusetzen; Unternehmen gestalten Arbeitsabläufe neu, ernennen KI-Governance-Beauftragte und formalisieren Modellrisikoprozesse. 47
- GenAI hat den „Hype-Höhepunkt“ hinter sich gelassen; die Roadmap-Leitlinien verlagern sich hin zu geregelten, produktisierten Anwendungsfällen und einem plattformorientierten Denken. 48
Produktisierungslücke der KI
Während sich die Modellleistung alle paar Wochen verbessert, hinken Unternehmensprodukte oft hinterher. Viele Lösungen integrieren KI lediglich in bestehende Arbeitsabläufe (z. B. Chat-Widgets, Formularausfüller), anstatt von Grund auf KI-gestützte Anwendungen zu entwickeln.
Die eigentliche Chance liegt darin, Produkte so umzudenken, dass KI zum zentralen Interaktionsmodell wird und nicht nur ein Zusatz. 49
FAQs
Generative KI umfasst Text-, Bild- und Audioausgabe von Modellen der künstlichen Intelligenz, die auch als große Sprachmodelle (LLMs), Sprachmodelle, Basismodelle oder generative KI-Modelle bezeichnet werden.
McKinseys KI-System Lilli nutzt firmeneigene Daten, um Fragen von Beratern zu beantworten und die Quellen anzugeben. McKinsey verfolgte dabei einen LLM-unabhängigen Ansatz und verwendet in Lilli Daten mehrerer LLM-Studiengänge (z. B. Cohere und OpenAI).
Walmart entwickelte den generativen KI-Assistenten „My Assistant“ für seine 50.000 Mitarbeiter, die nicht im Einzelhandel tätig sind.
Sollten Sie weitere Fragen haben oder Hilfe bei der Suche nach Anbietern benötigen, können wir Ihnen behilflich sein:
Die richtigen Anbieter finden
Seien Sie der Erste, der kommentiert
Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.