Kontaktieren Sie uns
Keine Ergebnisse gefunden.

Föderiertes Lernen: 7 Anwendungsfälle & Beispiele

Cem Dilmegani
Cem Dilmegani
aktualisiert am Feb 20, 2026
Siehe unsere ethischen Normen

Laut aktuellen Analysen von McKinsey zählen zu den dringlichsten Risiken der KI-Einführung Modellhalluzinationen , Datenherkunft und -authentizität, Nichteinhaltung von Vorschriften sowie Schwachstellen in der KI-Lieferkette. 1

Federated Learning (FL) hat sich als grundlegende Technik für Organisationen etabliert, die diese Risiken minimieren möchten. Es ermöglicht Modellen, aus dezentralen Daten zu lernen und gleichzeitig sensible Informationen vertraulich zu behandeln sowie die Gesetze zur Datenlokalisierung und zum Datenschutz einzuhalten.

Erfahren Sie mehr über föderiertes Lernen, seine Funktionsweise, gängige Anwendungsfälle anhand von Beispielen aus der Praxis, mögliche Herausforderungen und Alternativen.

Anwendungsfälle und Beispiele für föderiertes Lernen

Föderiertes Lernen unterstützt eine Vielzahl von KI-Systemen, bei denen Datensensibilität, Dezentralisierung und Echtzeitanpassung entscheidend sind. Es findet zunehmend Anwendung in agentenbasierter KI, im Finanzwesen, bei mobilen Anwendungen, im Gesundheitswesen, im autonomen Transportwesen, in der intelligenten Fertigung und in der Robotik und ermöglicht kollaboratives Modelltraining.

1. Agentische KI

Anstatt Daten in einem einzigen gemeinsamen Pool zu sammeln, ermöglicht föderiertes Lernen jedem Agenten , direkt aus seinen eigenen Interaktionen oder seiner Umgebung zu lernen. Der Agent trägt dann lediglich datenschutzkonforme Modellaktualisierungen zu einem gemeinsamen Lernprozess bei, ohne Rohdaten offenzulegen.

Dieser Ansatz ermöglicht es den Agenten, sich durch das Lernen aus gemeinsamen Erfahrungen kontinuierlich zu verbessern und gleichzeitig Datenschutz, Dateneigentum und regulatorische Anforderungen zu respektieren.

Dadurch kann agentenbasierte KI personalisiert und adaptiv bleiben und gleichzeitig die Privatsphäre wahren. Dies macht föderiertes Lernen besonders geeignet für sensible Umgebungen, in denen Agenten unabhängig agieren müssen, aber dennoch von Mustern profitieren, die bei Benutzern, Geräten oder Organisationen beobachtet werden.

Praxisbeispiel: Datenschutzkonformes IoT-Intrusion-Detection-Framework

Das rasante Wachstum von IoT-Geräten hat Fortschritte in Bereichen wie dem Gesundheitswesen, intelligenten Städten und industriellen Systemen ermöglicht, aber auch die Anfälligkeit für Cyberangriffe und Datenschutzrisiken erhöht.

Herkömmliche, zentralisierte Intrusion-Detection-Systeme basieren auf der Aggregation sensibler Daten, was zu Kommunikationsaufwand, Datenschutzbedenken und Single Points of Failure führt. Um diese Einschränkungen zu überwinden, schlägt eine aktuelle Studie ein datenschutzfreundliches IoT-Intrusion-Detection-Framework vor, das Federated Learning (FL) mit Agentic Artificial Intelligence kombiniert.

FL ermöglicht dezentrales Modelltraining, während Agentic AI adaptive, selbstlernende und autonome Entscheidungsfindungsfunktionen hinzufügt, um auf sich entwickelnde Bedrohungen zu reagieren.

Das Framework nutzt lokale Anomalieerkennung, sichere Aggregation und ressourcenschonende Kommunikation, um Genauigkeit und Datenschutz in Einklang zu bringen, wobei agentenbasierte Komponenten die Abwehrmechanismen in Echtzeit optimieren. 2

2. Finanzanträge

Durch föderiertes Lernen können Finanzinstitute KI-Modelle gemeinsam trainieren, ohne Rohdaten austauschen zu müssen. So kann jede Organisation sensible Informationen lokal halten und gleichzeitig zu einem stärkeren gemeinsamen Modell beitragen.

Dies ist besonders wertvoll für die Aufdeckungvon Betrug und Finanzkriminalität, wo die Bedrohungen mehrere Banken und Regionen betreffen, der Datenaustausch jedoch durch Vorschriften wie die DSGVO und den EU-AI-Act eingeschränkt ist.

Praxisbeispiel: Die Rolle des föderierten Lernens bei der Verbesserung der finanziellen Sicherheit

Ein aktueller Artikel untersucht Federated Learning (FL) als vielversprechende Lösung zur Verbesserung der Sicherheit und des Datenschutzes in modernen Finanzsystemen, insbesondere da digitale Finanzdienstleistungen und IoT-fähige Endgeräte wie Geldautomaten und POS-Geräte große Mengen sensibler Daten erzeugen.

Der Artikel klassifiziert FL-Anwendungsfälle nach regulatorischer Belastung, von Anwendungen mit geringerem Risiko wie der Portfoliooptimierung bis hin zu risikoreichen Aufgaben wie der Echtzeit-Betrugserkennung, und hebt aktuelle Erfolge bei der Betrugsprävention und Blockchain-integrierten Frameworks hervor.

Während FL klare Vorteile in Bezug auf Datenschutz, Compliance und Skalierbarkeit bietet, unterstreicht das Papier auch die anhaltenden Herausforderungen, darunter Datenheterogenität, Adversarial Attacks, Interpretierbarkeit und regulatorische Integration.

Für die Zukunft von FL im Finanzwesen identifiziert der Artikel die Kombination von FL mit Technologien wie Blockchain, Differential Privacy, Secure Multi-Party Computation und quantensicheren Methoden als Schlüssel zur Realisierung vertrauenswürdiger, zukunftssicherer KI-Systeme. 3

Praxisbeispiel: Blume mit Bankkreis

Flower's Plattform für föderiertes Lernen hilft Finanzinstituten dabei, KI-Modelle gemeinsam mit dezentralen Daten zu trainieren und so Datenschutz, Sicherheit, Compliance und Vorhersagegenauigkeit für Aufgaben wie Betrugserkennung, Risikobewertung und andere Analysen zu verbessern.

Banking Circle, eine globale Zahlungsbank, die einen bedeutenden Anteil des europäischen E-Commerce- Zahlungsverkehrs abwickelt, nutzt KI zur Steuerung ihrer Maßnahmen zur Bekämpfung von Geldwäsche (AML), indem verdächtige Transaktionen automatisch zur Überprüfung gekennzeichnet werden.

Mit der Expansion in die USA schränkten Unterschiede in den Transaktionsmustern und strenge Datenübertragungsbeschränkungen die Effektivität von Modellen ein, die ausschließlich mit europäischen Daten trainiert wurden. Um dem entgegenzuwirken, führte Banking Circle die Federated-Learning-Plattform von Flower ein. Diese ermöglicht es dem Unternehmen, AML-Modelle regionsübergreifend zu trainieren, ohne sensible Daten grenzüberschreitend zu übertragen.

Dieser Ansatz ermöglichte es dem US-Modell, von europäischen Erkenntnissen zu lernen und gleichzeitig die lokalen Gegebenheiten zu wahren, wobei Verbesserungen im Laufe der Zeit wieder in das europäische System einflossen. 4

3. Mobile Anwendungen

Mobile Apps nutzen maschinelle Lernsysteme zur Personalisierung, beispielsweise zur Vorhersage des nächsten Wortes, zur Gesichtserkennung und zur Spracherkennung. Traditionelles KI-Training zentralisiert jedoch Nutzerdaten, was Bedenken hinsichtlich Datenschutz, Sicherheit und Datenverwaltung verstärkt. Föderiertes Lernen begegnet diesen Herausforderungen, indem es das Training von Modellen über ein Netzwerk von Geräten ermöglicht, ohne dabei Rohdaten der Nutzer zu übertragen.

Hier einige Vorteile des föderierten Lernens für mobile Anwendungen:

  • Datenschutzfreundliche KI : Sensible Nutzerdaten verbleiben auf dem Gerät, wodurch das Risiko der Datenoffenlegung verringert und gleichzeitig die Modellgenauigkeit verbessert wird.
  • Personalisierte und adaptive Modelle : Apps können KI-Modelle anhand individueller Nutzungsmuster feinabstimmen, ohne dass ständige Cloud-Updates erforderlich sind.
  • Geringere Bandbreitennutzung : Anstatt große Datensätze hochzuladen, werden nur Modellaktualisierungen geteilt, wodurch föderiertes Lernen für mobile Netzwerke effizient wird.
  • Verbesserte Sicherheit : Durch die dezentrale Datenspeicherung mindert föderiertes Lernen die Risiken, die mit zentralisierter Datenspeicherung und Datenschutzverletzungen verbunden sind.

Dieser Ansatz wird bereits bei Smartphone-Tastaturen für Textvorhersage und Autokorrektur, bei Sprachassistenten für Spracherkennung und bei biometrischer Authentifizierung für Gesichts- und Fingerabdruckerkennung eingesetzt.

Praxisbeispiel: Google und die Verbesserung von Sprachmodellen

Google nutzt föderiertes Lernen, um geräteinterne maschinelle Lernsysteme zu verbessern, wie beispielsweise die „Hey Google“-Erkennung im Google-Assistenten, wodurch Nutzer Sprachbefehle erteilen können. Dieser Ansatz ermöglicht das Training von Sprachmodellen direkt auf den Geräten der Nutzer, ohne Audiodaten an die Server von Google zu übertragen, und wahrt somit die Privatsphäre der Nutzer.

Durch föderiertes Lernen wird die Verbesserung der Spracherkennungsleistung erleichtert, indem Daten lokal verarbeitet werden, wodurch sichergestellt wird, dass persönliche Audioinformationen auf dem Gerät verbleiben. 5

4. Gesundheitswesen

Föderiertes Lernen kommt dem Gesundheitswesen und der Krankenversicherung zugute, indem es leistungsstarkes KI-Training ermöglicht und gleichzeitig die Vertraulichkeit der Patientendaten wahrt.

Die traditionelle Datenzentralisierung, bei der Krankenhäuser und Institutionen medizinische Datensätze in einem einzigen Repository zusammenführen, wirft erhebliche Bedenken hinsichtlich Datengovernance, Datensicherheit und der Einhaltung von Vorschriften wie HIPAA und DSGVO auf.

Föderiertes Lernen trägt zur Bewältigung dieser Probleme bei, indem es das gemeinsame Modelltraining über mehrere Institutionen hinweg ermöglicht, ohne dass ein direkter Datenaustausch erforderlich ist.

Dieser Ansatz bietet mehrere Vorteile:

  • Verbesserter Datenschutz und erhöhte Sicherheit : Sensible Patientendaten verbleiben in ihrer ursprünglichen Quelle, wodurch das Risiko von Offenlegung und Datenschutzverletzungen verringert wird.
  • Verbesserte Datendiversität : Durch das Training mit Datensätzen aus verschiedenen Krankenhäusern, Forschungszentren und elektronischen Patientenakten ermöglicht föderiertes Lernen den Modellen, seltene Krankheiten zu erkennen und die diagnostische Genauigkeit über verschiedene Bevölkerungsgruppen hinweg zu verbessern.
  • Skalierbare medizinische KI : Maschinelle Lernmodelle können anhand von realen Daten aus verschiedenen Institutionen kontinuierlich verfeinert werden, was zu zuverlässigeren Vorhersageanalysen und besseren Patientenergebnissen führt.

Praxisbeispiel: Die Agentic Federated Platform von Lifebit.

Lifebit hat die Agentic Federated Platform angekündigt, die weltweit erste vollständig agentenbasierte Trusted Research Environment (TRE). Die Plattform, die sich derzeit in der Beta-Phase befindet, ermöglicht Forschern die sichere Verwaltung und Analyse sensibler biomedizinischer Daten über eine einzige KI-gestützte Dialogschnittstelle.

Laut Lifebit vereinfacht die Plattform komplexe Forschungsabläufe wie Datenharmonisierung, Kohortenerstellung und bioinformatische Analysen, indem sie Nutzern die Durchführung von End-to-End-Forschung mittels natürlicher Sprache ermöglicht. Sie unterstützt sowohl interaktive als auch Batch-Tools (z. B. R, Jupyter, Nextflow), bietet integrierte Fehlerbehebung und Dokumentation und umfasst KI-gestützte Genomik-Funktionen wie GWAS und Zielidentifizierung.

Das Unternehmen positioniert die Plattform als sicherer, überprüfbarer und benutzerfreundlicher als herkömmliche TREs und hat sich zum Ziel gesetzt, die Forschung zu beschleunigen und gleichzeitig die strikte Einhaltung der Standards für föderierte Datenverwaltung zu gewährleisten. 6

Beispiel aus dem echten Leben: MELLODDY

Das MELLODDY-Projekt (Machine Learning Ledger Orchestration for Drug Discovery) ist eine europäische Forschungsinitiative, die von der Innovative Medicines Initiative (IMI) gefördert wird. Im Rahmen des Projekts arbeiteten zehn Pharmaunternehmen, akademische Einrichtungen und Technologiepartner zusammen, um zu demonstrieren, wie föderiertes Lernen die Wirkstoffforschung beschleunigen kann, ohne vertrauliche Daten preiszugeben.

Anstatt firmeneigene Datensätze zusammenzuführen, die von Unternehmen als hochsensibel eingestuft werden, entwickelte MELLODDY eine datenschutzfreundliche, föderierte Machine-Learning-Plattform, die die Daten jedes Unternehmens hinter einer eigenen Firewall schützt und für kollaboratives Lernen nur Modellaktualisierungen, nicht aber Rohdaten, weitergibt.

Diese Plattform nutzt Technologien wie die AWS-Infrastruktur, Kubernetes-Orchestrierung und ein privates Blockchain- Ledger, um ein sicheres und nachvollziehbares Modelltraining über alle Partner hinweg zu gewährleisten und gleichzeitig Dateneigentum und geistige Eigentumsrechte zu schützen.

Durch die Nutzung von weitaus mehr Daten als jedes einzelne Unternehmen für maschinelle Lernalgorithmen konnte MELLODDY eine verbesserte Vorhersageleistung und eine größere Anwendbarkeit der Modelle bei der Vorhersage der biologischen Aktivität und Toxikologie von Arzneimittelkandidaten demonstrieren. 7

Beispiel aus dem echten Leben: Owkin

Das Biotechnologieunternehmen Owkin nutzt föderiertes Lernen, um KI-Modelle über mehrere medizinische und Forschungseinrichtungen hinweg zu trainieren, ohne sensible Daten zentral zu speichern.

Anstatt alle Patientendaten an einem Ort zu sammeln, belässt Owkins Ansatz die Daten dort, wo sie gespeichert sind (z. B. auf Krankenhausservern) und verlagert die maschinellen Lernalgorithmen zu den Daten.

Die Modelle werden lokal mit den Datensätzen der jeweiligen Partner trainiert. Lediglich Modellaktualisierungen werden zurückgemeldet und aggregiert, um ein globales Modell zu erstellen. Dadurch profitieren Forscher und Kliniker von einem vielfältigeren Datensatz, als ihn eine einzelne Institution bereitstellen könnte. Dies verbessert die Leistungsfähigkeit von Vorhersagealgorithmen und wahrt gleichzeitig die Privatsphäre der Patienten und die Datensouveränität.

Owkin hebt die besondere Stärke dieser Technik für die kollaborative Anwendung von KI im Gesundheitswesen hervor (z. B. bei der Vorhersage von Behandlungsergebnissen) und sieht darin ein Mittel, um die Präzisionsmedizin auszuweiten, ohne die Privatsphäre zu beeinträchtigen. 8

Praxisbeispiel: MedPerf

Der zunehmende Drang nach föderiertem Lernen in der medizinischen KI hat zu Initiativen wie MedPerf geführt, einer Open-Source-Plattform, die von einer Koalition aus Industrie- und akademischen Partnern entwickelt wurde.

MedPerf konzentriert sich auf die föderierte Evaluierung von KI-Modellen und gewährleistet deren effektive Leistung bei der Anwendung vielfältiger, realer medizinischer Daten unter Wahrung der Patientengeheimnisse. Durch die Kombination technischer Innovationen im Bereich des föderierten Lernens mit Governance-Rahmenwerken, die klinisch relevante Benchmarks festlegen, zielen diese Initiativen darauf ab, die Einführung von KI im Gesundheitswesen voranzutreiben, ohne Vertrauen oder Sicherheit zu beeinträchtigen.

Abbildung 2: Ein Beispiel für föderiertes Lernen im Gesundheitswesen aus dem MedPerf-Framework für föderiertes KI-Benchmarking. 9

5. Transport: Autonome Fahrzeuge

Selbstfahrende Autos nutzen eine Kombination aus fortschrittlichen Techniken des maschinellen Lernens, um sich in komplexen Umgebungen zurechtzufinden.

Mithilfevon Computer Vision können Hindernisse erkannt werden, während adaptive Lernmodelle dabei helfen, das Fahrverhalten an Bedingungen wie Verkehr oder unwegsames Gelände anzupassen.

Herkömmliche Cloud-basierte Ansätze können jedoch Latenzzeiten verursachen und Sicherheitsrisiken bergen, insbesondere in Szenarien mit hoher Datenverkehrsdichte, in denen Entscheidungen in Sekundenbruchteilen entscheidend sind.

Föderiertes Lernen bietet eine Lösung, indem es die Datenverarbeitung dezentralisiert und Echtzeit-Lernen über mehrere Fahrzeuge hinweg ermöglicht. Anstatt sich ausschließlich auf Cloud-basierte Aktualisierungen zu verlassen, können autonome Fahrzeuge Modelle gemeinsam trainieren und gleichzeitig die Daten lokal speichern. Dieser Ansatz stellt sicher, dass Fahrzeuge ihre Entscheidungsfindung kontinuierlich anhand der aktuellen Straßenverhältnisse optimieren, ohne dabei übermäßige Datenübertragung zu betreiben.

Durch die Nutzung von föderiertem Lernen können selbstfahrende Autos drei wichtige Ziele erreichen:

  • Verkehrs- und Straßenüberwachung in Echtzeit : Fahrzeuge können schnell Informationen über Gefahrenstellen, Baustellen oder plötzliche Wetteränderungen verarbeiten und austauschen, wodurch eine sicherere Navigation gewährleistet wird.
  • Sofortige Entscheidungsfindung : Die integrierte KI kann schneller auf dynamische Fahrbedingungen reagieren, wodurch die Abhängigkeit von entfernten Servern verringert und die Latenz in kritischen Momenten minimiert wird.
  • Kontinuierliche Modellverbesserung : Je mehr Fahrzeuge ihre lokalen Erkenntnisse beitragen, desto weiter entwickeln sich autonome Systeme und desto höher ist im Laufe der Zeit ihre Vorhersagegenauigkeit.

Durch die Integration von föderiertem Lernen können autonome Fahrzeuge nicht nur ihre unmittelbare Reaktionsfähigkeit verbessern, sondern auch eine kollektive Intelligenz schaffen, die die allgemeine Sicherheit und Effizienz von selbstfahrenden Systemen verbessert.

Beispiel aus der Praxis: NVIDIA FLARE

Die AV Federated Learning Plattform von NVIDIA, die auf NVIDIA FLARE basiert, ermöglicht das kollaborative Training von Modellen autonomer Fahrzeuge (AV) über verschiedene Länder hinweg unter Wahrung des Datenschutzes und Einhaltung regionaler Vorschriften wie DSGVO und PIPL.

Anstelle eines zentralisierten Trainings, das kostspielig sein und durch Gesetze zum Datentransfer eingeschränkt werden kann, ermöglicht föderiertes Lernen das lokale Training von Modellen anhand länderspezifischer Daten, wodurch die globale Modellleistung verbessert wird.

Die Plattform integriert sich in bestehende Systeme für maschinelles Lernen und arbeitet mit einem zentralen Server auf AWS in Japan, wodurch grenzüberschreitendes Training unterstützt wird. Seit ihrem Start hat sie über ein Dutzend AV-Modelle hervorgebracht, deren Leistung der lokal trainierter Modelle entspricht oder diese sogar übertrifft. Innerhalb eines Jahres ist die Zahl der Nutzer von 2 auf 30 Data Scientists gestiegen. 10

6. Intelligente Fertigung: Vorausschauende Wartung

Mit dem Fortschritt von Industrie 4.0 hilft die KI-gestützte vorausschauende Wartung Herstellern, Ausfallzeiten zu reduzieren, die Lebensdauer von Anlagen zu verlängern und die Effizienz zu steigern. Ihre Implementierung steht jedoch vor Herausforderungen, darunter Datenschutz, Datensicherheit und Beschränkungen beim grenzüberschreitenden Datenaustausch.

Föderiertes Lernen löst diese Probleme, indem es Herstellern ermöglicht, Modelle für die vorausschauende Instandhaltung zu entwickeln, ohne sensible Industriedaten übertragen zu müssen. Anstatt Informationen aus mehreren Werken oder von Kunden in einem zentralen Datenspeicher zusammenzuführen, erlaubt föderiertes Lernen jedem Standort, Modelle lokal zu trainieren. Diese Modelle tragen dann zu einem globalen Vorhersagesystem bei, ohne firmeneigene Daten preiszugeben.

Zu den wichtigsten Vorteilen des föderierten Lernens für die vorausschauende Wartung gehören:

  • Datenschutzkonforme KI : Industriedaten bleiben vor Ort, wodurch Bedenken hinsichtlich der Weitergabe firmeneigener oder sensibler Betriebsdaten an externe Stellen ausgeräumt werden.
  • Grenzüberschreitende Compliance : Viele Hersteller sind in mehreren Ländern tätig, die jeweils unterschiedliche Datenschutzbestimmungen haben. Föderiertes Lernen ermöglicht die Einhaltung dieser Bestimmungen, indem es Daten lokal speichert und gleichzeitig von kollektiver Intelligenz profitiert.
  • Anpassungsfähigkeit an unterschiedliche Anlagen und Bedingungen : Produktionsumgebungen variieren stark je nach Maschinen, Arbeitslast und Betriebseinstellungen. Föderiertes Lernen ermöglicht die Anpassung von Vorhersagemodellen an lokale Gegebenheiten und trägt gleichzeitig zu einem umfassenderen Verständnis von Anlagenausfallmustern bei.

Neben der vorausschauenden Wartung wird föderiertes Lernen auch in der intelligenten Fertigung für die Echtzeit-Qualitätskontrolle, die Optimierung der Energieeffizienz und die Umweltüberwachung eingesetzt, einschließlich Luftqualitätsvorhersagen zur PM2,5-Erkennung in intelligenten Städten.

7. Robotik

Die Robotik ist für Wahrnehmung, Entscheidungsfindung und Steuerung – von einfachen Aufgaben bis hin zu komplexer Navigation – auf maschinelles Lernen angewiesen. Mit zunehmender Anwendungsvielfalt sind kontinuierliches Lernen und Anpassungsfähigkeit unerlässlich, doch das zentrale Training stößt insbesondere in Multi-Roboter-Systemen auf Herausforderungen in Bezug auf Datentransfer, Datenschutz und Kommunikation.

Föderiertes Lernen ermöglicht es Robotern, ihre Modelle gemeinsam zu verbessern, während die Daten lokal gespeichert bleiben. Dieser dezentrale Ansatz ist besonders nützlich für die Navigation mehrerer Roboter, wo die Kommunikationsbandbreite oft begrenzt ist.

Anstatt auf die ständige Datenübertragung an einen zentralen Server angewiesen zu sein, ermöglicht föderiertes Lernen den Robotern, anhand ihrer lokalen Erfahrungen zu trainieren und nur die wichtigsten Modellaktualisierungen auszutauschen. Dadurch wird die Lerneffizienz optimiert, ohne die Netzwerkressourcen zu überlasten.

Hier die wichtigsten Vorteile des föderierten Lernens in der Robotik:

  • Dezentrales Lernen für verbesserte Autonomie : Roboter können ihre Wahrnehmungs- und Steuerungsmodelle lokal verfeinern, wodurch die Abhängigkeit von Cloud-basierten Updates verringert und eine schnellere Anpassung an neue Umgebungen ermöglicht wird.
  • Effiziente Multi-Roboter-Kollaboration : Gruppen von Robotern können erlernte Erfahrungen austauschen, ohne dass ein übermäßiger Datentransfer erforderlich ist. Dies macht föderiertes Lernen ideal für Flottenmanagement, Lagerautomatisierung und Schwarmrobotik.
  • Verbesserter Datenschutz und erhöhte Sicherheit : Sensible Betriebsdaten verbleiben innerhalb der jeweiligen Robotersysteme, wodurch Bedenken hinsichtlich der Offenlegung von Daten in industriellen oder militärischen Anwendungen minimiert werden.
  • Skalierbarkeit in unterschiedlichen Umgebungen : Roboter, die an verschiedenen Orten wie Fabriken, Krankenhäusern oder städtischen Gebieten eingesetzt werden, können Erkenntnisse zu einem globalen Modell beitragen und sich gleichzeitig an ihre jeweilige Umgebung anpassen.

Praxisbeispiel: Föderiertes Reinforcement Learning für die kollektive Navigation von Roboterschwärmen

Jüngste Fortschritte im Bereich des Deep Reinforcement Learning (DRL) haben die Robotik durch die Möglichkeit der automatisierten Reglerentwicklung, insbesondere für Schwarmrobotersysteme, verbessert. Diese Systeme benötigen komplexere Regler als Einzelroboter, um ein koordiniertes kollektives Verhalten zu erreichen.

Während sich das auf DRL basierende Controller-Design als effektiv erwiesen hat, stellt seine Abhängigkeit von einem zentralen Trainingsserver in realen Umgebungen mit instabiler oder eingeschränkter Kommunikation eine Herausforderung dar.

Um diesem Problem zu begegnen, wurde in einem kürzlich erschienenen Artikel FLDDPG vorgestellt, eine neuartige, auf Federated Learning (FL) basierende DRL-Trainingsstrategie, die speziell für die Schwarmrobotik entwickelt wurde.

Vergleichende Auswertungen unter begrenzter Kommunikationsbandbreite zeigen, dass FLDDPG eine verbesserte Generalisierung über verschiedene Umgebungen und reale Roboter hinweg bietet, während Basismethoden unter Bandbreitenbeschränkungen Schwierigkeiten haben.

Die Ergebnisse legen nahe, dass föderiertes Lernen die Navigation mehrerer Roboter in Umgebungen mit eingeschränkter Kommunikationsbandbreite verbessert und damit eine zentrale Herausforderung in realen, lernbasierten Roboteranwendungen adressiert. 11

Was ist föderiertes Lernen?

Federated Learning ist ein kollaboratives maschinelles Lernparadigma, bei dem mehrere Teilnehmer Modelle mit lokalen Daten trainieren und lediglich Modellaktualisierungen oder berechnete Informationen austauschen, während die Rohdaten lokal verbleiben. Die meisten praktischen FL-Systeme verwenden nach wie vor einen zentralen Aggregator zur Steuerung der Trainingsrunden.

Anstatt die Rohdaten des Trainings zu übertragen, senden die Teilnehmer Modellaktualisierungen oder Gradienten zur Aggregation. Die bloße Weitergabe von Aktualisierungen gewährleistet jedoch ohne zusätzliche Techniken wie sichere Aggregation, differentielle Privatsphäre oder kryptografische Schutzmaßnahmen keine Vertraulichkeit.

Durch die lokale Speicherung von Trainingsdaten und die Aggregation von Erkenntnissen verbessert föderiertes Lernen den Datenschutz und nutzt gleichzeitig verteilte Daten zur Verbesserung der Modellgenauigkeit.

Wie funktioniert föderiertes Lernen?

Beim maschinellen Lernen gibt es zwei Schritte: Training und Inferenz.

Während der Trainingsphase :

  1. Lokale Modelle des maschinellen Lernens (ML) werden mit lokalen, heterogenen Datensätzen trainiert. Beispielsweise erkennen Nutzer bei der Verwendung einer ML-Anwendung Fehler in deren Vorhersagen und korrigieren diese. Dadurch entstehen auf jedem Nutzergerät lokale Trainingsdatensätze.
  2. Die Modellparameter werden regelmäßig zwischen diesen lokalen Rechenzentren ausgetauscht. In vielen Modellen werden diese Parameter vor dem Austausch verschlüsselt. Lokale Datenproben werden nicht weitergegeben. Dies verbessert Datenschutz und Cybersicherheit.
  3. Es wird ein gemeinsames globales Modell entwickelt.
  4. Die Eigenschaften des globalen Modells werden mit lokalen Datenzentren geteilt, um das globale Modell in deren lokale ML-Modelle zu integrieren.

Die Clara-Lösung von Nvidia beinhaltet beispielsweise föderiertes Lernen. Clara und Nvidia EGX ermöglichen das Lernen durch die sichere Erfassung von Modellaktualisierungen (jedoch nicht von Trainingsdaten) von verschiedenen Standorten. Dies hilft Modellen, ein globales Modell zu erstellen und gleichzeitig die Datenprivatsphäre zu wahren (siehe Abbildung unten).

Abbildung 1: Ein Beispiel aus NVIDIA, das die Funktionsweise von föderiertem Lernen veranschaulicht. 12

Im Inferenzschritt wird das Modell auf dem Benutzergerät gespeichert, sodass Vorhersagen schnell mithilfe des Modells auf dem Benutzergerät erstellt werden können.

Verteiltes Training im föderierten Lernen

Federated Learning und Distributed Training sind unterschiedliche Konzepte: Federated Learning bezieht sich auf kollaboratives Training mit dezentralen Daten, während Distributed Training (parallele Berechnung über Knoten innerhalb eines Teilnehmers) eine lokale Optimierungsstrategie ist und nicht dem FL selbst inhärent ist.

Beim föderierten Lernen trainieren Clients, wie z. B. Krankenhäuser, mobile Geräte oder Organisationen, Modelle unabhängig voneinander mit ihren lokalen Daten und teilen nur die Modellaktualisierungen mit einem zentralen Aggregator.

Manche Kunden haben möglicherweise Zugriff auf mehrere GPUs, Server oder Edge-Knoten. Diese Ressourcen können parallel genutzt werden, um das lokale Training zu beschleunigen oder zu skalieren. Diese Konfiguration erzeugt eine Hierarchie:

  • Auf der obersten Ebene nehmen mehrere Kunden am föderierten Lernen teil.
  • Auf lokaler Ebene kann jeder Kunde verteiltes Training über seine verfügbare Infrastruktur nutzen.

Im Anschluss kann eine lokale, verteilte Schulung erfolgen:

  • Datenparallelität : Jeder Worker hält eine Replik des Modells und trainiert mit einer Teilmenge der lokalen Daten.
  • Modellparallelität : Das Modell wird auf mehrere Worker verteilt, was bei großen Modellen hilfreich ist, die nicht in den Speicher eines einzelnen Geräts passen.

Wichtigste Vorteile der Kombination von verteiltem Training mit föderiertem Lernen

1. Verbesserte Skalierbarkeit

Kunden mit großen Datensätzen oder rechenintensiven Modellen könnten Schwierigkeiten haben, das Training effizient auf einem einzelnen Rechner abzuschließen.

Durch verteiltes Training kann der Client mehrere Knoten oder Geräte nutzen und so den Durchsatz verbessern und größere Arbeitslasten bewältigen.

2. Effiziente Ressourcennutzung

Organisationen verfügen häufig über lokale Cluster oder ungenutzte Rechenressourcen. Durch den Einsatz von verteiltem Training im Rahmen von föderiertem Lernen können sie diese Ressourcen ohne Datenzentralisierung vollständig nutzen.

3. Schnellere lokale Ausbildung

Durch die Verteilung der Rechenleistung wird die Laufzeit für lokale Modellaktualisierungen verkürzt. Dies kann jede Runde des föderierten Lernens beschleunigen und die gesamte Trainingszeit über alle Clients hinweg reduzieren.

4. Trennung der Belange

Föderiertes Training und lokal verteiltes Training funktionieren unabhängig voneinander. Der föderierte Server muss weder die interne Planung noch die Koordination der Clientressourcen übernehmen. Diese modulare Architektur vereinfacht sowohl die Bereitstellung als auch die Wartung.

5. Flexibles Systemdesign

Verschiedene Clients können je nach ihren Rechenumgebungen unterschiedliche lokale Trainingskonfigurationen wählen. Einige nutzen das Training auf einem einzelnen Knoten, andere hingegen verteilte Setups. Das föderierte Protokoll bleibt unverändert.

Warum ist es gerade jetzt wichtig?

Präzise Modelle des maschinellen Lernens sind für Unternehmen wertvoll, doch traditionelle zentralisierte Systeme weisen Schwächen auf, wie beispielsweise das fehlende kontinuierliche Lernen auf Endgeräten und die Aggregation privater Daten auf zentralen Servern. Diese Schwächen werden durch föderiertes Lernen behoben.

Beim traditionellen maschinellen Lernen wird ein zentrales ML-Modell unter Verwendung aller verfügbaren Trainingsdaten in einer zentralen Umgebung erstellt. Dies funktioniert problemlos, solange ein zentraler Server die Vorhersagen bereitstellen kann.

Im mobilen Computing erwarten Nutzer jedoch schnelle Reaktionszeiten, und die Kommunikationszeit zwischen Nutzergerät und zentralem Server kann für eine optimale Nutzererfahrung zu lang sein. Um dies zu beheben, kann das Modell auf dem Endgerät des Nutzers installiert werden. Kontinuierliches Lernen gestaltet sich dann jedoch schwierig, da die Modelle mit einem vollständigen Datensatz trainiert werden, auf den das Endgerät keinen Zugriff hat.

Eine weitere Herausforderung beim traditionellen maschinellen Lernen besteht darin, dass die Daten der Nutzer für das Training an einem zentralen Ort zusammengeführt werden, was gegen die Datenschutzrichtlinien bestimmter Länder verstoßen und die Daten anfälliger für Datenschutzverletzungen machen kann.

Federated Learning überwindet diese Herausforderungen, indem es kontinuierliches Lernen durch lokale Daten auf Endbenutzergeräten ermöglicht und gleichzeitig sicherstellt, dass die Benutzerdaten auf dem Gerät verbleiben.

In jüngster Zeit hat sich das föderierte Lernen auch zu einem Eckpfeiler des föderierten Feinabstimmens entwickelt, bei dem Unternehmen Basismodelle (wie Llama 3, Mistral oder Gemini) an private Daten anpassen, ohne die Daten selbst offenzulegen.

Herausforderungen des föderierten Lernens

Investitionsanforderungen

Föderierte Lernmodelle erfordern unter Umständen eine häufige Kommunikation zwischen den Knoten. Dies bedeutet, dass Speicherkapazität und hohe Bandbreite zu den Systemanforderungen gehören.

Datenschutz

  • Datenschutz ist ein wichtiges Thema, da Daten im föderierten Lernen nicht auf einem einzelnen Server erfasst werden, sondern über mehrere Geräte gesammelt und analysiert werden. Dies kann die Angriffsfläche vergrößern.
  • Auch wenn nur Modelle und nicht Rohdaten an den zentralen Server übermittelt werden, können die Modelle möglicherweise durch Reverse Engineering analysiert werden, um Kundendaten zu identifizieren.

Leistungsbeschränkungen

  • Datenheterogenität: Im Rahmen des föderierten Lernens werden Modelle verschiedener Geräte zusammengeführt, um ein besseres Modell zu erstellen. Gerätespezifische Eigenschaften können die Generalisierbarkeit der Modelle für einige Geräte einschränken und die Genauigkeit der nächsten Modellversion verringern.
  • Indirekter Informationsverlust : Forscher haben Situationen betrachtet, in denen ein Mitglied der Föderation andere Mitglieder böswillig angreifen kann, indem es versteckte Hintertüren in das gemeinsame globale Modell einfügt.
  • Föderiertes Lernen ist ein relativ neues Verfahren des maschinellen Lernens. Weitere Studien und Forschungen sind erforderlich, um seine Leistungsfähigkeit zu verbessern.

Zentralisierung

Im föderierten Lernen besteht nach wie vor ein gewisser Grad an Zentralisierung, da ein zentrales Modell die Ausgaben anderer Geräte nutzt, um ein neues Modell zu erstellen. Forscher schlagen daher vor, Blockchain-basiertes föderiertes Lernen (BlockFL) und andere Ansätze zu verwenden, um Zero-Trust-Modelle für föderiertes Lernen zu entwickeln.

Welche Alternativen gibt es zum föderierten Lernen?

Obwohl föderiertes Lernen Vorteile hinsichtlich des Datenschutzes bietet, wurden verschiedene alternative Ansätze und Frameworks entwickelt, um seine Einschränkungen zu beheben und sich an unterschiedliche Szenarien anzupassen. Hier sind einige Alternativen:

Zentralisiertes oder traditionelles maschinelles Lernen

In einem zentralisierten System für maschinelles Lernen werden alle Daten aus verschiedenen Quellen an einem zentralen Ort, beispielsweise auf einem Cloud-Server oder in einem firmeneigenen Rechenzentrum, gesammelt und gespeichert. Anschließend wird das Modell anhand dieses kombinierten Datensatzes trainiert.

Hauptmerkmale:

  • Das Modell hat direkten Zugriff auf alle verfügbaren Daten.
  • Die Datenvorverarbeitung und das Modelltraining erfolgen auf einem zentralen Server.
  • Kunden oder Dateneigentümer übertragen ihre Daten zur Analyse an das zentrale System.

Vorteile:

  • Der Trainingsprozess ist einfacher zu steuern und zu überwachen.
  • Die Datenkonsistenz lässt sich leicht gewährleisten, da sich alle Datensätze an einem Ort befinden.
  • Die Modellleistung kann durch den vollständigen Zugriff auf alle Datenvarianten verbessert werden.

Einschränkungen:

  • Datenschutz- und Compliance-Probleme können entstehen, wenn die Datenübertragung durch Gesetze oder Unternehmensrichtlinien eingeschränkt ist.
  • Ein einziger Fehler kann das gesamte System lahmlegen, wenn der Server ausfällt oder ein Sicherheitsverstoß vorliegt.
  • Die Übertragung großer Datensätze kann den Bandbreitenverbrauch und die Verarbeitungskosten erhöhen.

Dieser Ansatz eignet sich am besten, wenn Datenschutz keine wesentliche Rolle spielt und alle Daten ohne regulatorische Konflikte sicher zentralisiert werden können.

Sichere Mehrparteienberechnung

Sichere Mehrparteienberechnung (SMPC) ist ein kryptografisches Verfahren, das es mehreren Parteien ermöglicht, eine gemeinsame Funktion zu berechnen, ohne ihre individuellen Datensätze preiszugeben. Jeder Teilnehmer verschlüsselt seine Daten, und die Berechnung erfolgt so, dass nur das Endergebnis des Modells sichtbar ist.

Hauptmerkmale:

  • Die Parteien arbeiten zusammen, um ein Modell zu trainieren, wobei die Rohdaten vertraulich bleiben.
  • Häufig werden kryptografische Verfahren wie Secret Sharing und homomorphe Verschlüsselung eingesetzt.
  • Kein einzelner Teilnehmer hat Zugriff auf den vollständigen Datensatz.

Vorteile:

  • Schützt sensible Daten während des gesamten Trainingsprozesses.
  • Ermöglicht es Organisationen, bei der Modellentwicklung zusammenzuarbeiten, selbst wenn Daten nicht ausgetauscht werden können.
  • Verbessert die Einhaltung von Datenschutzbestimmungen wie der DSGVO.

Einschränkungen:

  • Aufgrund der kryptografischen Operationen sind die Rechenanforderungen hoch.
  • Die Kommunikation zwischen den Parteien kann langsam sein, was die Skalierbarkeit beeinträchtigen kann.
  • Die Komplexität der Implementierung steigt mit der Anzahl der Teilnehmer.

SMPC eignet sich in Situationen, in denen hohe Datenschutzanforderungen bestehen und eine sichere Recheninfrastruktur zur Verfügung steht.

Differenzielle Privatsphäre

Differential Privacy (DP) gewährleistet, dass nach der Analyse kein einzelner Datenpunkt in einem Datensatz identifiziert oder abgeleitet werden kann. Dies wird erreicht, indem den Trainingsdaten oder Modellaktualisierungen kontrollierte Zufälligkeit, häufig in Form von Rauschen, hinzugefügt wird.

Hauptmerkmale:

  • Die Privatsphäre wird mathematisch mithilfe eines Parameters namens Epsilon (ε) quantifiziert.
  • Die Methode schützt die Datenbeiträge einzelner Personen auch dann, wenn der gesamte Datensatz geteilt wird.
  • Es kann sowohl auf zentralisierte als auch auf verteilte Systeme angewendet werden.

Vorteile:

  • Bietet ein messbares Maß an Datenschutz.
  • Es kann mit anderen Lerntechniken kombiniert werden, wie zum Beispiel mit föderiertem Lernen.
  • Verringert das Risiko der Re-Identifizierung von Daten.

Einschränkungen:

  • Übermäßiges Rauschen kann die Modellgenauigkeit verringern.
  • Die Auswahl des richtigen Datenschutzbudgets (ε) erfordert eine sorgfältige Abstimmung.
  • Es befasst sich an sich nicht mit verteilter Koordination oder Berechnung.

Differential Privacy eignet sich für Organisationen, die ein Gleichgewicht zwischen Datennutzen und Datenschutz benötigen.

Klatsch oder Lernen von Gleichaltrigen

Gossip-Learning, auch Peer-to-Peer-Learning genannt, macht einen zentralen Server überflüssig. Jeder Knoten bzw. Client trainiert ein lokales Modell und teilt Aktualisierungen direkt mit benachbarten Knoten. Mit der Zeit verbreiten sich diese Aktualisierungen im Netzwerk, und die Modelle konvergieren.

Hauptmerkmale:

  • Die Knoten kommunizieren lokal mit ihren Peers anstatt mit einem zentralen Aggregator.
  • Modellparameter oder Gradienten werden dezentral ausgetauscht.
  • Das Lernen erfolgt asynchron im Netzwerk.

Vorteile:

  • Es gibt keinen zentralen Fehlerpunkt, da es keine zentrale Koordinierungsstelle gibt.
  • Kann in dynamischen Netzwerken wie IoT- oder Edge-Umgebungen effektiv funktionieren.
  • Verringert die Abhängigkeit von einer vertrauenswürdigen zentralen Instanz.

Einschränkungen:

  • Der Kommunikationsaufwand kann sich aufgrund zufälliger Peer-Austausche erhöhen.
  • Die Konvergenz kann im Vergleich zur zentralisierten Aggregation langsamer verlaufen.
  • Überwachung und Steuerung sind in vollständig dezentralisierten Systemen schwieriger.

Dieser Ansatz ist effektiv für verteilte Systeme, bei denen kein zentraler Server betrieben werden kann oder dem nicht vertraut werden kann.

Split Learning

Split-Learning teilt ein Machine-Learning-Modell in zwei oder mehr Segmente auf. Das erste Segment wird auf dem Client-Gerät mit lokalen Daten trainiert, und seine Ausgabe (Aktivierungen) wird an einen Server gesendet, der das restliche Training durchführt.

Hauptmerkmale:

  • Das Modell ist in Clients und einen zentralen Server aufgeteilt.
  • Clients teilen niemals Rohdaten; es werden nur Zwischenergebnisse übertragen.
  • Das System erfordert während des Trainings eine Koordination zwischen Client und Server.

Vorteile:

  • Reduziert den Rechenaufwand für die Clients, indem nur ein Teil des Modells trainiert wird.
  • Bietet ein gewisses Maß an Datenschutz, da die Rohdaten lokal gespeichert bleiben.
  • Lässt sich in bestehende Cloud-Infrastrukturen integrieren.

Einschränkungen:

  • Zwischenaktivierungen können, wenn sie abgefangen werden, dennoch einige Dateninformationen preisgeben.
  • Erfordert eine stabile Kommunikation zwischen Client und Server.
  • Die Implementierungskomplexität steigt bei tiefen oder mehrschichtigen Modellen.

Split Learning eignet sich für Umgebungen mit begrenzten Client-Ressourcen oder wenn Datenschutzbestimmungen eine vollständige Datenweitergabe verhindern.

Transferlernen und Modelldestillation

Transferlernen und Modelldestillation ermöglichen die Zusammenarbeit ohne direkten Datenaustausch. Jede Organisation oder jedes Gerät trainiert sein eigenes Modell lokal, und ein zentrales Modell lernt dann aus den Ausgaben oder Vorhersagen dieser individuellen Modelle anstatt aus deren internen Parametern.

Hauptmerkmale:

  • Der Wissenstransfer erfolgt durch Vorhersagen, nicht durch vollständige Modellgewichte.
  • Das globale Modell wird unter Einbeziehung der gemeinsamen Erfahrung aller Teilnehmer weiterentwickelt.
  • Lokale Modelabel bleiben unabhängig und können sich weiterhin spezialisieren.

Vorteile:

  • Reduziert das Kommunikationsvolumen durch die Weitergabe nur der wichtigsten Informationen.
  • Ermöglicht Flexibilität bei den Modellarchitekturen für alle Teilnehmer.
  • Auch bei heterogenen Datenquellen lässt sich eine zufriedenstellende Leistung erzielen.

Einschränkungen:

  • Während des Destillationsprozesses kommt es zu einem gewissen Informationsverlust.
  • Die Qualität des globalen Modells hängt von der Genauigkeit der lokalen Modelle ab.
  • Es fehlt die koordinierte Synchronisierung des föderierten Lernens.

Diese Methode ist dann sinnvoll, wenn die Kundendaten sehr heterogen sind oder wenn Kunden unterschiedliche Modelltypen verwenden.

Hybrid- oder kombinierte Architekturen

Hybridsysteme vereinen Elemente verschiedener datenschutzwahrender Methoden, um spezifische Herausforderungen zu bewältigen. Beispiele hierfür sind föderiertes Lernen in Kombination mit differentieller Privatsphäre, sichere Mehrparteienberechnung oder hierarchische Architekturen, in denen regionale Aggregatoren mit einem zentralen Server kommunizieren.

Hauptmerkmale:

  • Verschiedene Ebenen oder Module des Systems verwenden unterschiedliche Datenschutztechniken.
  • Kann zur Skalierbarkeit eine regionale oder gestaffelte Aggregation beinhalten.
  • Häufig individuell zugeschnitten auf regulatorische und Leistungsanforderungen.

Vorteile:

  • Bietet Flexibilität beim Ausgleich von Datenschutz, Genauigkeit und Rechenaufwand.
  • Kann mit großen oder geografisch verteilten Datenquellen umgehen.
  • Ermöglicht es Organisationen, Architekturen an spezifische Einschränkungen anzupassen.

Einschränkungen:

  • Die Implementierung gestaltet sich aufgrund der Wechselwirkungen zwischen mehreren Komponenten komplex.
  • Systemwartung und Fehlerbehebung erfordern fortgeschrittene Fachkenntnisse.
  • Kommunikationsprotokolle können komplex und ressourcenintensiv werden.

Hybride Ansätze sind für große Organisationen praktikabel, die mehrere Datensätze unter unterschiedlichen rechtlichen und technischen Bedingungen verwalten müssen.

Abschluss

Von Gesundheitsversorgung und autonomen Fahrzeugen bis hin zu mobilen Anwendungen und intelligenter Fertigung ermöglicht föderiertes Lernen Organisationen die Nutzung vielfältiger Datensätze, ohne Kompromisse bei der Vertraulichkeit oder der Einhaltung gesetzlicher Bestimmungen einzugehen.

Trotz seiner vielversprechenden Eigenschaften birgt das föderierte Lernen auch Herausforderungen, darunter Infrastrukturanforderungen, Datenschutzlücken durch Modellinversion und Einschränkungen aufgrund der Datenheterogenität.

Laufende Forschung und komplementäre Ansätze wie Gossip Learning, Differential Privacy und dezentrale Frameworks treiben das Feld jedoch rasant voran. Mit zunehmender Reife dieser Innovationen wird föderiertes Lernen eine zentrale Rolle bei der Entwicklung ethischer, sicherer und skalierbarer KI in verschiedenen Sektoren spielen.

Cem Dilmegani
Cem Dilmegani
Leitender Analyst
Cem ist seit 2017 leitender Analyst bei AIMultiple. AIMultiple informiert monatlich Hunderttausende von Unternehmen (laut similarWeb), darunter 55 % der Fortune 500. Cems Arbeit wurde von führenden globalen Publikationen wie Business Insider, Forbes und der Washington Post, von globalen Unternehmen wie Deloitte und HPE sowie von NGOs wie dem Weltwirtschaftsforum und supranationalen Organisationen wie der Europäischen Kommission zitiert. Weitere namhafte Unternehmen und Ressourcen, die AIMultiple referenziert haben, finden Sie hier. Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte außerdem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen wiederkehrenden Umsatz und eine neunstellige Unternehmensbewertung kam. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider gewürdigt. Er ist ein gefragter Redner auf internationalen Technologiekonferenzen. Cem absolvierte sein Studium der Informatik an der Bogazici-Universität und besitzt einen MBA der Columbia Business School.
Vollständiges Profil anzeigen
Recherchiert von
Sıla Ermut
Sıla Ermut
Branchenanalyst
Sıla Ermut ist Branchenanalystin bei AIMultiple und spezialisiert auf E-Mail-Marketing und Vertriebsvideos. Zuvor war sie als Personalberaterin in Projektmanagement- und Beratungsunternehmen tätig. Sıla hat einen Master of Science in Sozialpsychologie und einen Bachelor of Arts in Internationalen Beziehungen.
Vollständiges Profil anzeigen

Seien Sie der Erste, der kommentiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450