Cem Dilmegani
Berufserfahrung und Erfolge
Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte zudem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen Umsatz und eine neunstellige Unternehmensbewertung wuchs. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider thematisiert. [6], [7]Forschungsschwerpunkte
Cems Arbeitsschwerpunkt liegt darauf, wie Unternehmen neue Technologien in den Bereichen KI, agentenbasierte KI, Cybersicherheit (einschließlich Netzwerk- und Anwendungssicherheit) und Daten, insbesondere Webdaten, nutzen können. Seine praktische Erfahrung mit Unternehmenssoftware fließt in seine Arbeit ein. Weitere KI-Branchenanalysten und das technische Team unterstützen Cem bei der Konzeption, Durchführung und Auswertung von Benchmarks.Ausbildung
Er schloss 2007 sein Studium der Informatik an der Bogazici-Universität ab. Während seines Studiums beschäftigte er sich mit maschinellem Lernen, damals noch unter dem Begriff „Data Mining“ bekannt, und die meisten neuronalen Netze besaßen nur wenige verborgene Schichten. 2012 erwarb er einen MBA an der Columbia Business School. Cem spricht fließend Englisch und Türkisch. Seine Deutschkenntnisse sind fortgeschritten, seine Französischkenntnisse liegen auf Anfängerniveau.Externe Veröffentlichungen
- Cem Dilmegani, Post-KI-Banking: Millionen von Arbeitsplätzen in Gefahr, da Banken ihre Kernfunktionen automatisieren . International Banker.
- Cem Dilmegani, Bengi Korkmaz und Martin Lundqvist (1. Dezember 2014). Digitalisierung des öffentlichen Sektors: Die Billionen-Dollar-Herausforderung , McKinsey & Company.
Medien-, Konferenz- und sonstige Veranstaltungspräsentationen
- Antworten auf die Fragen von Korea24 zum Thema Arbeitsplatzverlust durch KI, Korea24
- Immobilien und Technologie , präsentiert vom Wilbur F. Breslin Center for Real Estate Studies der Hofstra University und der Frank G. Zarb School of Business in den Jahren 2023 und 2024.
- Radar AI- Session (22. Juni 2023): „Steigerung der Wirkung von Data Science mit ChatGPT“.
- Generative AI Atlanta Meetup: Generative KI für Unternehmenstechnologie .
Quellen
- Warum Microsoft, IBM und Google ihre Bemühungen im Bereich KI-Ethik verstärken , Business Insider.
- Microsoft investiert 1 Milliarde Dollar in OpenAI, um künstliche Intelligenz zu entwickeln, die intelligenter ist als wir , Washington Post.
- Stärkung der KI-Führungskräfte: KI-Toolkit für die C-Suite , Weltwirtschaftsforum.
- Wissenschafts-, Forschungs- und Innovationsleistung der EU , Europäische Kommission.
- Die EU investiert 200 Milliarden Euro in KI, wodurch Geld in Rechenzentren fließt, doch der Chipmarkt bleibt eine Herausforderung , IT Brew.
- Hypatos erhält 11,8 Millionen Dollar für einen Deep-Learning-Ansatz zur Dokumentenverarbeitung , TechCrunch.
- Wir haben einen exklusiven Einblick in die Präsentation erhalten, mit der das KI-Startup Hypatos 11 Millionen Dollar eingesammelt hat , Business Insider.
Neueste Artikel von Cem
LLM-Inferenzmaschinen: vLLM vs. LMDeploy vs. SGLang
Wir haben drei führende LLM-Inferenz-Engines auf dem H100 (NVIDIA) getestet: vLLM, LMDeploy und SGLang. Jede Engine verarbeitete identische Workloads: 1.000 ShareGPT-Prompts mit Llama 3.1 8B-Instruct, um die tatsächlichen Auswirkungen ihrer Architektur und Optimierungsstrategien auf die Performance zu ermitteln. Benchmark-Ergebnisse der Inferenz-Engines: Wir haben den Offline-Batch-Durchsatz über insgesamt 10.000 Inferenzoperationen (1.000 Prompts ) gemessen.
Die 5 besten Open-Source-Datenbanküberwachungstools
Kommerzielle Datenbanküberwachungstools versprechen oft benutzerfreundliche Oberflächen und dedizierten Enterprise-Support. Open-Source-Lösungen werden aufgrund ihrer Transparenz, Kosteneffizienz, Community-basierten Entwicklung und Flexibilität zunehmend bevorzugt. Wir haben fünf Open-Source-Datenbanküberwachungsplattformen untersucht, die Funktionsangaben anhand der offiziellen Dokumentation und Versionshinweise überprüft, Einrichtung und Abfrageanalyse mit MySQL- und MongoDB-Workloads getestet und die Akzeptanz in der Community berücksichtigt.
LCMs: Von der Tokenisierung auf LLM-Ebene zur Repräsentation auf Konzeptebene
Große Konzeptmodelle (Large Concept Models, LCMs), wie sie von Meta in ihrer Arbeit zu „Großen Konzeptmodellen“ eingeführt wurden, stellen einen grundlegenden Wandel von tokenbasierter Vorhersage hin zur Repräsentation auf Konzeptebene dar.
Vergleich von visuellen Sprachmodellen mit der Bilderkennung
Können fortschrittliche Bildverarbeitungsmodelle (VLMs) traditionelle Bilderkennungsmodelle ersetzen? Um dies herauszufinden, haben wir 16 führende Modelle in drei Paradigmen verglichen: traditionelle CNNs (ResNet, EfficientNet), VLMs (wie z. B. GPT-4.1, Gemini 2.5) und Cloud-APIs (AWS, Google, Azure).
Die 7 Schichten des Agentic AI Stack in 2026
Der Aufstieg agentenbasierter KI hat einen Technologie-Stack hervorgebracht, der weit über einfache Aufrufe von APIs des Basismodells hinausgeht. Anders als bei traditionellen Software-Stacks, bei denen sich der Wert oft auf der Anwendungsebene konzentriert, ist er im agentenbasierten KI-Stack ungleichmäßiger verteilt. Einige Ebenen bieten großes Potenzial für Differenzierung und Wettbewerbsvorteile, während andere sich rasch zu Massenprodukten entwickeln.
Agentic Mesh: Die Zukunft skalierbarer KI-Kollaboration
Obwohl viel über Agentenarchitekturen geschrieben wurde, sind praxistaugliche Implementierungen weiterhin selten. Dieser Artikel beleuchtet das agentenbasierte KI-Netzwerk, ein Konzept, das kürzlich von McKinsey vorgestellt wurde. Wir untersuchen die Herausforderungen in Produktionsumgebungen und zeigen, wie unsere vorgeschlagene Architektur eine kontrollierte Skalierung der KI-Fähigkeiten ermöglicht.
Agentencodierung optimieren: Wie nutzt man Claude Code im Jahr 2026?
KI-Codierungswerkzeuge sind für viele Entwicklungsaufgaben unverzichtbar geworden. In unseren Tests generierten gängige KI-Codierungswerkzeuge wie Cursor über 70 % des benötigten Codes. Da sich KI-Systeme noch in einer frühen Entwicklungsphase befinden, haben sich im Rahmen der Produkttests verschiedene Workflow-Muster herauskristallisiert, die zur Optimierung beitragen können.
Die 20 wichtigsten Prognosen von Experten zum Arbeitsplatzverlust im KI-Sektor
Als McKinsey-Berater habe ich Unternehmen zehn Jahre lang bei der Einführung neuer Technologien unterstützt. Meine Kurzantworten zum Thema KI-bedingter Arbeitsplatzverlust: Prognosen zum KI-bedingten Arbeitsplatzverlust. Hinweis: Die Größe der Diagramme korreliert mit der Höhe der prognostizierten Arbeitsplatzverluste. Die in unserer Analyse genannten Prozentsätze basieren auf Annahmen zum allgemeinen Arbeitsplatzabbau.
MCP-Benchmark: Die besten MCP-Server für den Webzugriff
Wir haben acht MCP-Server hinsichtlich Websuche und -extraktion sowie Browserautomatisierung getestet, indem wir vier verschiedene Aufgaben jeweils fünfmal auf allen geeigneten MCPs ausgeführt haben. Zusätzlich führten wir einen Lasttest mit 250 gleichzeitig aktiven KI-Agenten durch.
Top-Vektordatenbank für RAG: Qdrant vs Weaviate vs Pinecone
Vektordatenbanken bilden die Grundlage für die Abfrageschicht in RAG-Workflows, indem sie Dokument- und Abfrageeinbettungen als hochdimensionale Vektoren speichern. Sie ermöglichen schnelle Ähnlichkeitssuchen basierend auf Vektordistanzen. Wir haben sechs Anbieter von Vektordatenbanken hinsichtlich ihrer Preisstrukturen und Leistung verglichen: Vergleich von Vektordatenbanken: Preise & Leistung.
AIMultiple Newsletter
1 kostenlose E-Mail pro Woche mit den neuesten B2B-Technachrichten und Experten Einblicken.