Kontaktieren Sie uns
Keine Ergebnisse gefunden.

Verantwortungsvolle KI: 4 Prinzipien und bewährte Verfahren im Jahr

Cem Dilmegani
Cem Dilmegani
aktualisiert am Mär 19, 2026
Siehe unsere ethischen Normen

65 % der Führungskräfte fühlen sich nicht ausreichend vorbereitet, um KI-bezogene Risiken effektiv zu managen. 1 Die Entwicklung und Skalierung von KI-Anwendungen unter Berücksichtigung von Verantwortung, Vertrauenswürdigkeit und ethischen Praktiken ist unerlässlich, um eine KI zu schaffen, die für alle funktioniert.

Erforschen Sie vier Prinzipien für verantwortungsvolles KI-Design (RAI) und empfehlen Sie bewährte Verfahren, um diese zu erreichen:

Schritt-für-Schritt-Anleitung für verantwortungsvolle KI

  1. Setzen Sie KI-Systeme mit Fokus auf die menschlichen Nutzer und deren Erfahrungen ein. Stellen Sie sicher, dass das Design ethische Prinzipien und gesellschaftliche Werte für eine bessere Nutzerinteraktion berücksichtigt.
  2. Nutzen Sie ein verantwortungsvolles KI-Dashboard, um verschiedene Kennzahlen, einschließlich Feedback- und Fehlerraten, zu überwachen und so die Systemeffektivität und das Risikomanagement sicherzustellen.
  3. Prüfen Sie Trainingsdaten und zugrundeliegende Daten sorgfältig auf Genauigkeit und Repräsentativität. Gehen Sie gegen Verzerrungen und unfaire Ergebnisse vor, um die Datenethik zu verbessern und sicherzustellen, dass Ihre KI-Richtlinie Fairness-Prüfungen vorsieht.
  4. Die Grenzen von Modellen des maschinellen Lernens verstehen und diese klar kommunizieren. Eine übermäßige Fokussierung auf Korrelationen vermeiden und das Potenzial generativer KI erkennen.
  5. Implementieren Sie strenge Tests innerhalb von KI-Workflows, einschließlich Unit- und Integrationstests. Die kontinuierliche Überwachung ist für die Systemzuverlässigkeit und -genauigkeit unerlässlich und muss ethische Aspekte von Anfang an berücksichtigen.
  6. Überwachen Sie die Systemleistung nach der Implementierung kontinuierlich, bewerten Sie Updates im Hinblick auf die Einhaltung der EU-KI-Richtlinien und passen Sie sie an Datenschutz- und Sicherheitsprinzipien an. Richten Sie Ihre Überwachungsmethoden an KI-Richtlinien aus, die Datenschutz, Transparenz und Sicherheit betonen. Beheben Sie sowohl kurz- als auch langfristige Probleme und gewährleisten Sie gleichzeitig eine breite Akzeptanz und Widerstandsfähigkeit gegen Angriffe.
Abbildung 1: Trends bei verantwortungsvoller KI über 5 Jahre.

1. Fairness

KI-Tools werden zunehmend in verschiedenen Entscheidungsprozessen eingesetzt, beispielsweise bei der Personalbeschaffung, der Kreditvergabe und der medizinischen Diagnostik . Verzerrungen in diesen Entscheidungssystemen können weitreichende Auswirkungen auf die Öffentlichkeit haben und zur Diskriminierung bestimmter Bevölkerungsgruppen beitragen.

Beispiele aus dem realen Leben

Hier sind drei Beispiele für KI-Verzerrungen in realen Anwendungen:

  • Sexismus bei Kreditalgorithmen: Im Jahr 2019 gab es mehrere Behauptungen (unter anderem vom Mitbegründer Steve Wozniak), dass der Kreditkartenalgorithmus von Apple Frauen diskriminiere, indem er je nach Geschlecht unterschiedliche Kreditlimits anbiete.
  • Rassismus und Ableismus bei KI-gestützten Einstellungsverfahren: Laut einem aktuellen Bericht der Harvard Business School und Accenture werden 27 Millionen Arbeitnehmer in den USA aufgrund automatisierter und KI-gestützter Einstellungssysteme aussortiert und können keine Stelle finden. 2 Zu diesen „versteckten Arbeitern“ gehören Einwanderer, Flüchtlinge und Menschen mit körperlichen Behinderungen.
  • Rassismus bei der Gesichtserkennung: Forscher fanden heraus 3 dass einige kommerzielle Gesichtserkennungstechnologien, wie die von Amazon oder Microsoft, bei dunkelhäutigen Frauen eine geringe Genauigkeit aufwiesen, bei hellhäutigen Männern jedoch genauer waren (Abbildung 1).

Diese verzerrten Entscheidungen können auf die Projektplanung oder auf Datensätze zurückzuführen sein, die realweltliche Verzerrungen widerspiegeln. Es ist entscheidend, diese Verzerrungen zu beseitigen, um robuste und inklusive KI-Systeme für alle zu entwickeln.

Bewährte Verfahren zur Erreichung von Fairness

  • Prüfen Sie anhand des Datensatzes, ob er die Bevölkerung angemessen repräsentiert.
  • Analysieren Sie die Subpopulationen des Datensatzes, um festzustellen, ob das Modell in verschiedenen Gruppen gleichermaßen gut funktioniert.
  • Entwerfen Sie Modelle unter Berücksichtigung der Fairness und konsultieren Sie Sozialwissenschaftler und andere Fachexperten.
  • Überwachen Sie das Machine-Learning-Modell nach der Bereitstellung kontinuierlich. Modelle verändern sich mit der Zeit, sodass nach einiger Zeit Verzerrungen im System entstehen können.
  • Integrieren Sie Fairness-Benchmarks in Ihre KI-Richtlinie, um messbare Verantwortlichkeit zu gewährleisten.

Wir haben einen ausführlichen Artikel über KI-Verzerrungen und wie man sie beheben kann . Schauen Sie gerne mal rein. Sie können auch unseren Artikel über KI-Ethik lesen.

2. Datenschutz

KI-Systeme nutzen häufig große Datensätze, die sensible Informationen über Einzelpersonen enthalten können. Dadurch sind KI-Lösungen anfällig für Datenlecks und Angriffe von böswilligen Akteuren, die an sensible Informationen gelangen wollen.

  • Laut dem Identity Theft Resource Center gab es im Jahr 2021 1862 Datenpannen, was einem Anstieg von 23 % gegenüber dem bisherigen Rekordwert im Jahr 2017 entspricht. 4

Datenpannen verursachen finanzielle Verluste sowie Reputationsschäden für Unternehmen und können Personen, deren sensible Daten offengelegt werden, gefährden.

Beispiel aus dem realen Leben

Anfang 2024 verhängte die italienische Datenschutzbehörde eine Geldstrafe von 50.000 Euro gegen die Stadt Trient – die erste italienische Gemeinde, die wegen Datenschutzverstößen im Zusammenhang mit KI bestraft wurde. Trient hatte KI-Tools in EU-finanzierten Überwachungsprojekten eingesetzt, darunter Kameras, Mikrofone und Social-Media-Monitoring, jedoch personenbezogene Daten nicht ordnungsgemäß anonymisiert und Informationen unrechtmäßig an Dritte weitergegeben.

Die Datenschutzbehörde ordnete die Löschung aller gesammelten Daten an und begründete dies mit Verstößen gegen die Transparenz- und Verhältnismäßigkeitsgrundsätze der DSGVO. Dieser Fall verdeutlicht Italiens zunehmende Durchsetzung von Datenschutzbestimmungen im Zusammenhang mit KI, wie etwa das vorübergehende Verbot von ChatGPT im Jahr 2023 und die Verhängung einer Geldbuße gegen OpenAI Ende 2024. 5

Bewährte Verfahren zur Gewährleistung des Datenschutzes

  • Daten nach ihrer Sensibilität beurteilen und klassifizieren sowie sensible Daten überwachen.
  • Entwickeln Sie eine Datenzugriffs- und Nutzungsrichtlinie innerhalb der Organisation. Setzen Sie das Prinzip der minimalen Berechtigungen um.

3. Sicherheit und Schutz

Die Sicherheit eines KI-Systems ist entscheidend, um Angreifer daran zu hindern, das System zu manipulieren und sein beabsichtigtes Verhalten zu verändern. Der zunehmende Einsatz von KI in besonders kritischen Bereichen der Gesellschaft kann Schwachstellen mit sich bringen, die erhebliche Auswirkungen auf die öffentliche Sicherheit haben können.

Die Anwendung strenger Sicherheitsprinzipien beim Systemdesign trägt dazu bei, diese Schwachstellen zu minimieren. Darüber hinaus erfordert eine robuste KI-Richtlinie Bedrohungsmodellierung, Penetrationstests und Red-Teaming.

Betrachten Sie die folgenden Beispiele:

  • Forscher haben gezeigt, dass sie ein selbstfahrendes Auto dazu bringen können, auf der Gegenfahrbahn zu fahren, indem sie kleine Aufkleber auf die Straße kleben.
Abbildung 2. Irreführung eines medizinischen KI-Systems durch einen Adversarial Attack.

Diese Angriffe können Folgendes umfassen:

  • Datenvergiftung durch Einschleusen irreführender Daten in Trainingsdatensätze.
  • Modellvergiftung durch Zugriff auf und Manipulation der Modelle.

unter anderem dazu führen, dass das KI-Modell unvorhergesehene Aktionen ausführt. Mit der Weiterentwicklung der KI-Technologie werden Angreifer neue Methoden finden, und es werden neue Wege zur Verteidigung von KI-Systemen entwickelt.

Beispiel aus dem realen Leben

Spanien hat einen Gesetzentwurf verabschiedet, der sich an der EU-KI-Richtlinie orientiert und die Kennzeichnung aller KI-generierten Inhalte, wie beispielsweise Deepfakes, vorschreibt. Ziel ist es, die Transparenz zu erhöhen und gefährdete Gruppen zu schützen. Das Gesetz verbietet zudem die unterschwellige Manipulation durch KI und sieht hohe Strafen für Verstöße vor. Das Gesetz fordert:

  • Kennzeichnung : Alle KI-generierten Inhalte (z. B. Bilder, Videos, Texte) müssen eindeutig als solche gekennzeichnet werden.
  • Deepfake-Regulierung : Synthetische Medien müssen ihren künstlichen Ursprung offenlegen.
  • Verbot der Manipulation : KI-Systeme dürfen keine unterschwelligen Techniken einsetzen, um Benutzer, insbesondere Minderjährige oder schutzbedürftige Personen, auszubeuten.

Bei Verstößen drohen den Anbietern von Modellen Strafen von bis zu 35 Millionen Euro oder 7 % ihres weltweiten Umsatzes. Die neu gegründete nationale Agentur AESIA überwacht und kontrolliert die Einhaltung der Vorschriften.

Dieses Gesetz stärkt die Transparenz- und Sicherheitsprinzipien verantwortungsvoller KI, indem es sicherstellt, dass die Nutzer wissen, wann sie mit synthetischen Inhalten interagieren, und indem es schädliche Manipulationen eindämmt. 6

Bewährte Verfahren zur Erreichung von Sicherheit

  • Beurteilen Sie, ob ein Angreifer einen Anreiz hätte, das System anzugreifen, und welche potenziellen Folgen ein solcher Angriff hätte.
  • Bilden Sie innerhalb Ihrer Organisation ein Red Team, das als Angreifer agiert, um das System auf Schwachstellen zu testen und diese zu beheben.
  • Verfolgen Sie die neuesten Entwicklungen bei KI-Angriffen und KI-Sicherheit. Es handelt sich um ein fortlaufendes Forschungsgebiet, daher ist es wichtig, auf dem Laufenden zu bleiben.

4. Transparenz

Transparenz, Interpretierbarkeit und Erklärbarkeit von KI-Systemen sind in Branchen wie dem Gesundheits- und Versicherungswesen unerlässlich, da Unternehmen dort Branchenstandards und staatliche Vorschriften einhalten müssen. Doch auch für alle anderen Unternehmen und Nutzer ist es wichtig, nachvollziehen zu können, warum KI-Modelle bestimmte Ergebnisse liefern, um KI-Systeme zu verstehen und ihnen zu vertrauen.

Abbildung 3: Erklärbarkeit von KI im Vergleich zu traditionellen KI-Modellen.

Ein transparentes KI-System kann Unternehmen helfen:

  • Geschäftskritische Entscheidungen erläutern und verteidigen
  • Erstellen Sie „Was-wäre-wenn“-Szenarien,
  • Stellen Sie sicher, dass die Modelle wie vorgesehen funktionieren.
  • Für Verantwortlichkeit im Falle unbeabsichtigter Folgen sorgen.

Beispiel aus dem realen Leben

Clearview AI, ein US-amerikanisches Unternehmen für Gesichtserkennung, erstellte eine Datenbank mit über 30 Milliarden aus dem Internet gesammelten Bildern, um Personen für Strafverfolgungsbehörden und private Auftraggeber zu identifizieren. Es wurde von der niederländischen Datenschutzbehörde wegen Verstößen gegen die Datenschutz- und Transparenzgrundsätze der DSGVO mit einer Geldstrafe von 30,5 Millionen Euro belegt.

  • Keine Einwilligung : Biometrische Daten (Gesichtsmerkmale) wurden ohne Wissen oder Zustimmung der Nutzer erhoben.
  • Mangelnde Transparenz : Die Betroffenen wurden nicht darüber informiert, dass ihre Bilder verwendet wurden und wie diese verarbeitet wurden.
  • Sensible Daten : Die Datenbank enthielt Bilder von Minderjährigen.
  • Nichteinhaltung : Betrieb in der EU ohne lokalen Vertreter oder rechtmäßige Datengrundlage. 7

Anwendungsfälle

Erklärbare KI kann dazu beitragen, Transparenz und Vertrauen in die Entscheidungsprozesse verschiedener Sektoren zu schaffen, wie zum Beispiel:

  • Verbesserung des Gesundheitswesens durch Unterstützung von Ärzten beim Verständnis der Logik hinter den Krankheitsdiagnosen und Behandlungsvorschlägen der KI.
  • Finanzwesen durch Transparenz und Förderung des Vertrauens zwischen den Beteiligten bei der Betrugserkennung und Anlageberatung.
  • Automobilindustrie durch die Verdeutlichung der Entscheidungsprozesse in autonomen Fahrzeugen, wodurch Sicherheit und Zuverlässigkeit verbessert werden.
  • Marketing & Vertrieb werden durch die Bereitstellung KI-gestützter Erkenntnisse für Kundensegmentierung, Umsatzprognosen und Werbeausrichtung transparent und unterstützen strategische Entscheidungen.
  • Cybersicherheit durch Erläuterung der Logik hinter der Bedrohungserkennung durch KI und Verbesserung des Cybersicherheitsmanagements.

Bewährte Verfahren zur Gewährleistung von Transparenz

  • Verwenden Sie nur wenige Eingangsgrößen, die für die gewünschte Modellleistung notwendig sind. Dadurch lässt sich leichter und genauer feststellen, woher die Korrelation oder die Kausalität zwischen den Variablen stammt.
  • Erklärbare KI-Methoden sollten Vorrang vor schwer interpretierbaren Modellen (d. h. Black-Box-Modellen) haben.
  • Besprechen Sie mit Fachexperten und Stakeholdern den erforderlichen Grad an Interpretierbarkeit.

Neue Säule: Grüne KI

Grüne KI konzentriert sich darauf, die Umweltauswirkungen von KI-Systemen zu reduzieren. Das Training und der Betrieb von KI-Modellen erfordern erhebliche Rechenleistung, was zu einem hohen Energieverbrauch führt. Dies kann sowohl die Kosten als auch die CO₂-Emissionen erhöhen.

Mit zunehmender Verbreitung von KI gewinnt Energieeffizienz an Bedeutung. Unternehmen optimieren daher verstärkt die Erstellung, das Training und den Einsatz von Modellen, um den Ressourcenverbrauch zu reduzieren und gleichzeitig die Leistung aufrechtzuerhalten.

Ein grüner KI-Ansatz kann Unternehmen helfen:

  • Reduzierung des Energieverbrauchs und der Betriebskosten
  • Geringerer CO2-Fußabdruck von KI-Workloads,
  • Verbesserung der Effizienz von Modelltraining und -inferenz,
  • KI-Initiativen mit Nachhaltigkeitszielen in Einklang bringen.

Beispiel aus dem realen Leben

DeepMind hat maschinelles Lernen eingesetzt, um Kühlsysteme in Rechenzentren zu optimieren. Das System analysiert Daten wie Temperatur, Stromverbrauch und Geräteleistung, um die Kühlung automatisch anzupassen.

Dies führte zu Folgendem:

  • Bis zu 40 % Reduzierung des Kühlenergieverbrauchs
  • Eine Reduzierung des Gesamtenergieverbrauchs in Rechenzentren um etwa 15 %.

Dieses Beispiel zeigt, dass Green AI bereits in großflächigen Umgebungen messbare Ergebnisse liefert. 8

Anwendungsfälle

Grüne KI kann in verschiedenen Bereichen angewendet werden, darunter:

  • Optimierung von Rechenzentren: KI-Systeme passen Kühlung und Stromverbrauch an, um Energieverschwendung zu reduzieren.
  • Effizientes Modelldesign: Kleinere Modelle und Komprimierungstechniken reduzieren den Rechenaufwand.
  • Arbeitslastplanung: Aufgaben werden ausgeführt, wenn der Energiebedarf geringer ist oder erneuerbare Energien verfügbar sind.
  • Cloud-Optimierung: KI hilft bei der dynamischen Ressourcenzuweisung, um eine Überdimensionierung zu vermeiden.
  • Edge AI: Die Verarbeitung von Daten näher an der Quelle reduziert Datentransfer und Energieverbrauch.

Bewährte Verfahren zur Sicherstellung grüner KI

  • Verwenden Sie effiziente Modellarchitekturen anstelle unnötig großer Modelle.
  • Optimieren Sie das Training, indem Sie die Anzahl der Iterationen reduzieren und qualitativ bessere Daten verwenden.
  • Überwachung des Energieverbrauchs von KI-Workloads.
  • Bevorzugen Sie Cloud-Regionen oder Anbieter, die erneuerbare Energien nutzen.
  • Verwenden Sie nach Möglichkeit vortrainierte Modelle wieder, anstatt sie von Grund auf neu zu trainieren.

Fälligkeitsnote

Einige Praktiken im Bereich grüner KI, wie beispielsweise die CO₂-bewusste Arbeitslastplanung, befinden sich noch in der Entwicklung und sind noch nicht weit verbreitet standardisiert. Bestehende Implementierungen zeigen jedoch bereits, dass signifikante Effizienzsteigerungen möglich sind.

Verantwortungsvolle KI-Tools

Die Marktlandschaft für Software für verantwortungsvolle KI umfasst verschiedene Tools, die Frameworks für verantwortungsvolle KI bereitstellen, wie zum Beispiel:

In unseren datenbasierten Listen von KI-Dienstleistungen finden Sie weitere Informationen zu Data-Science- und KI-Beratern. Sie können sich auch das Responsible AI Toolkit-Ökosystem von TensorFlow ansehen, das Unternehmen bei der Implementierung verantwortungsvoller KI-Praktiken unterstützt.

Um sicherzustellen, dass diese Tools mit ethischen Werten übereinstimmen, sollten Organisationen Tools einsetzen, die ihrer KI-Richtlinie entsprechen und Sicherheit, Fairness, Transparenz und Verantwortlichkeit abdecken.

Wie lässt sich feststellen, ob ein KI-Tool die Verantwortung trägt?

Unternehmen können KI-Tools einsetzen, beispielsweise Personalabteilungen, die mithilfe eines LLM-basierten Algorithmus Bewerberprofile prüfen und so die Rekrutierung beschleunigen, indem sie Lebensläufe anhand von Erfahrung und Ausbildung filtern. Verstößt das Tool jedoch gegen Fairnessprinzipien, kann es bestimmte Gruppen diskriminieren. Da sich die Nutzer dieser Verzerrung nicht bewusst sind, könnten sie Kandidaten aufgrund ihres Geschlechts oder ihrer ethnischen Zugehörigkeit ablehnen, was zu ethischen und reputationsbezogenen Problemen für das Unternehmen führen kann.

Um solchen Problemen vorzubeugen, sollten Unternehmen Tools einsetzen, die den Prinzipien verantwortungsvoller KI entsprechen. Sie können Benchmarks auswerten, Nutzerbewertungen analysieren und Beispiele aus der Praxis oder Fallstudien untersuchen, um eine ethische KI-Nutzung sicherzustellen. Die folgende Tabelle zeigt die Benchmark-Ergebnisse einiger führender LLM-Programme:

Die Systeme werden sowohl insgesamt als auch hinsichtlich jeder einzelnen Gefahrenquelle anhand einer 5-Punkte-Skala bewertet: Mangelhaft (1), Befriedigend (2), Gut (3), Sehr gut (4) und Ausgezeichnet (5). Die Bewertungen ergeben sich aus dem Prozentsatz der Antworten, die die Bewertungsstandards nicht erfüllen. 9

Aktuelle Entwicklungen im Bereich verantwortungsvoller KI

Frühwarnsystem für Fehlausrichtung

Eine neue Technik namens Frühwarnung vor Fehlausrichtungen wurde von OpenAI als vielversprechender Schritt hin zu sichereren und verantwortungsvolleren KI-Systemen vorgestellt. Diese Methode konzentriert sich auf die Erkennung interner Warnsignale, bevor ein KI-Modell schädliche Ergebnisse liefert. 10

Wie funktioniert das Frühzeit-Arbeitssystem bei Fehlausrichtung?

Das System identifiziert spezifische interne Merkmale, wie beispielsweise eine „toxische Persönlichkeit“, die mit unsicherem Verhalten korrelieren. Durch die Überwachung der Aktivierungsgrade dieser Merkmale während des Trainings oder der Bereitstellung erhalten Entwickler frühzeitig Warnungen, wenn ein Modell in Richtung unangepassten Verhaltens abdriftet.

Wenn solche Warnsignale auftreten, können Maßnahmen ergriffen werden, indem:

  • Direkte Dämpfung der schädlichen Aktivierung
  • Anwendung der Aktivierungssteuerung, einer Technik, die die interne Ausrichtung des Modells von unsicheren Bewegungsmustern weg korrigiert.

Dieser Ansatz ermöglicht eine proaktive Risikominderung, anstatt sich ausschließlich auf die Überwachung externer Ergebnisse zu verlassen.

Abbildung 4: Das Beispiel der ChatGPT-Feinabstimmung

Fehlausrichtung frühzeitiges Arbeiten für verantwortungsvolle KI

Diese Entwicklung unterstützt wichtige Grundsätze verantwortungsvoller KI:

  • Transparenz , indem das Verhalten des internen Modells interpretierbar gemacht wird
  • Sicherheit durch die Ermöglichung frühzeitiger Intervention
  • Rechenschaftspflicht durch die Bereitstellung klarer Signale für die menschliche Aufsicht.

Dies spiegelt einen wachsenden Trend zur Integration von Echtzeit-Überwachungs- und Steuerungsmechanismen in den Modellentwicklungsprozess wider. Als Teil umfassenderer Forschungs- und Entwicklungsbemühungen im Bereich der Sicherheit verbessert diese Technik die Fähigkeit, Fehlausrichtungen während des Trainings zu erkennen und zu korrigieren, und entspricht damit internationalen Rahmenwerken für die KI-Governance sowie Standards für sicherheitsorientiertes Design.

Der KI-Sicherheitsgipfel

Der AI Safety Summit ist eine führende internationale Konferenz, die sich mit der Sicherheit, den Risiken und der Regulierung fortschrittlicher KI-Systeme („Frontier AI“) befasst. Die Auftaktveranstaltung fand im November 2023 in Bletchley Park, Großbritannien, statt und brachte Regierungen, KI-Unternehmen, die Zivilgesellschaft und Experten aus 28 Ländern zusammen, um die globalen Bemühungen zur KI-Sicherheit zu koordinieren.

Wichtigste Ergebnisse

  • Erklärung von Bletchley: Die teilnehmenden Nationen verpflichten sich zur Entwicklung einer sicheren, menschenzentrierten, vertrauenswürdigen und verantwortungsvollen KI auf der Grundlage gemeinsamer Sicherheitsprinzipien.
  • Internationale Zusammenarbeit: Hervorzuheben ist die dringende Notwendigkeit einer Kooperation zur Minderung von Risiken wie Missbrauch, gesellschaftlichen Verwerfungen und Kontrollverlust über hochentwickelte KI.
  • Transparenz und Regulierung: Es wurden Transparenz, strenge Sicherheitsprüfungen und anpassungsfähige Regulierungsrahmen gefordert, um mit den Fortschritten im Bereich der KI Schritt halten zu können.

Zweck und Vision

Der Gipfel fördert eine verantwortungsvolle KI-Entwicklung durch die Stärkung der Zusammenarbeit verschiedener Interessengruppen und ethischer Governance. Ziel ist es, sicherzustellen, dass KI der Gesellschaft nützt und gleichzeitig Schaden minimiert. Dabei wird die globale Verantwortung hervorgehoben, KI-Systeme so zu gestalten, einzusetzen und zu regulieren, dass menschliche Sicherheit, Ethik und Inklusion Priorität haben.

Cem Dilmegani
Cem Dilmegani
Leitender Analyst
Cem ist seit 2017 leitender Analyst bei AIMultiple. AIMultiple informiert monatlich Hunderttausende von Unternehmen (laut similarWeb), darunter 55 % der Fortune 500. Cems Arbeit wurde von führenden globalen Publikationen wie Business Insider, Forbes und der Washington Post, von globalen Unternehmen wie Deloitte und HPE sowie von NGOs wie dem Weltwirtschaftsforum und supranationalen Organisationen wie der Europäischen Kommission zitiert. Weitere namhafte Unternehmen und Ressourcen, die AIMultiple referenziert haben, finden Sie hier. Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte außerdem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen wiederkehrenden Umsatz und eine neunstellige Unternehmensbewertung kam. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider gewürdigt. Er ist ein gefragter Redner auf internationalen Technologiekonferenzen. Cem absolvierte sein Studium der Informatik an der Bogazici-Universität und besitzt einen MBA der Columbia Business School.
Vollständiges Profil anzeigen

Seien Sie der Erste, der kommentiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450