Kontaktieren Sie uns
Keine Ergebnisse gefunden.

Vergleich von visuellen Sprachmodellen mit der Bilderkennung

Cem Dilmegani
Cem Dilmegani
aktualisiert am Feb 27, 2026
Siehe unsere ethischen Normen

Können fortschrittliche Vision Language Models (VLMs) traditionelle Bilderkennungsmodelle ersetzen? Um dies herauszufinden, haben wir 16 führende Modelle in drei Paradigmen verglichen: traditionelle CNNs (ResNet, EfficientNet), VLMs (wie z. B. GPT-4.1, Gemini 2.5) und Cloud-APIs (AWS, Google, Azure).

Die mittlere durchschnittliche Präzision (mAP) diente als primäre Genauigkeitsmetrik, ergänzt durch Latenz-, Kosten- und klassenspezifische Leistungsanalysen.

Die Benchmark-Methodik können Sie hier einsehen.

Genauigkeits- vs. Latenzvergleich

In unserem Benchmark bewerteten wir Modelle anhand von vier Dimensionen: Latenz, mittlere durchschnittliche Präzision (mAP), Preis und Erfolgsrate. Die Latenz misst die Zeit, die ein Modell zur Verarbeitung eines einzelnen Bildes benötigt, während die mAP die Gesamtgenauigkeit der Klassifizierung widerspiegelt. Die Erfolgsrate erfasst, ob ein Modell eine gültige JSON-Ausgabe lieferte. Dies ist besonders relevant für Bildverarbeitungsmodelle, die Bilder in natürlicher Sprache und nicht in strukturierten Daten interpretieren.

Loading Chart

Traditionelle Bilderkennungsmodelle wie EfficientNet, ResNet18, ResNet50, ResNet101 und DenseNet121 zeichnen sich durch geringe Latenz (0,03–0,2 Sekunden) und hohe Genauigkeit (mAP 0,75–0,81) aus. DenseNet121 und ResNet18 erzielen dabei die höchsten mAP-Werte (0,81 bzw. 0,80), dicht gefolgt von EfficientNet (0,78). ResNet50 und ResNet101 weisen innerhalb dieser Gruppe eine mittlere Leistung auf (0,75 bzw. 0,77). Alle traditionellen Modelle übertreffen jedoch deutlich cloudbasierte Bilderkennungstools wie AWS Rekognition, Cloud Vision und Vision, die eine mittlere Genauigkeit (mAP 0,61–0,64) bei Latenzen zwischen 2 und 3,5 Sekunden erreichen. Dies beweist die Dominanz traditioneller Modelle hinsichtlich Geschwindigkeit und Präzision.

Bei Bildverarbeitungsmodellen wie OpenAI GPT-4.1, Claude Opus 4.1, X-AI Grok 2 Vision, Meta-Llama/LLama-3.2-11B Vision Instruct und Google Gemini 2.5 Flash sind die Latenzen deutlich höher und liegen zwischen 1 und 12 Sekunden, mit mAP-Werten zwischen 0,60 und 0,75. Google Gemini 2.5 Flash erreicht einen mAP-Wert von 0,75 und ist damit das präziseste Bildverarbeitungsmodell in unserem Test. Unter den verschiedenen VLMs erzielt GPT-4.1 mit einem mAP-Wert von 0,73 die besten Ergebnisse, gefolgt von Claude Opus 4.1 (0,71) und X-AI Grok 2 Vision (0,70). GPT-4o-mini zeigt eine mittlere Leistung (0,66 mAP), während Meta-Llama Vision Instruct deutlich zurückliegt (0,60 mAP).

Die meisten Bildverarbeitungsmodelle liefern zuverlässig JSON-Ausgaben mit nahezu 100% Erfolgsquote, mit Ausnahme von Meta-Llama Vision Instruct , das nur in 36% der Fälle erfolgreich war, und Gemini 2.5 Pro , das durchgehend fehlschlug (0% Erfolg), was ihre praktische Anwendbarkeit in automatisierten Pipelines stark einschränkt.

Während Bildverarbeitungsmodelle in puncto Geschwindigkeit im Allgemeinen hinter traditionellen Bilderkennungsmodellen zurückbleiben, erreichen die leistungsstärksten Modelle wie Google Gemini 2.5 Flash (0,75 mAP) und GPT-4.1 (0,73 mAP) eine Klassifizierungsgenauigkeit, die sich der Leistung traditioneller CNNs annähert und Cloud-APIs wie AWS Rekognition und Azure Vision deutlich übertrifft. Hinsichtlich der Latenz liegen die meisten Bildverarbeitungsmodelle bei etwa 3–4 Sekunden, mit Ausnahme von Meta-Llama, das mit 12 Sekunden deutlich langsamer ist. Dies unterstreicht den Einfluss der Modellarchitektur und -optimierung.

Insgesamt zeichnen sich traditionelle Bilderkennungsmodelle weiterhin durch hohe Geschwindigkeit und Genauigkeit aus. VLMs hingegen bieten vielversprechende Möglichkeiten für multimodales Schließen und strukturierte Ausgaben. Die Latenz ist zwar durchweg höher, aber die besten Modelle erreichen eine Genauigkeit, die sich traditionellen CNNs annähert und cloudbasierte Bilderkennungsdienste übertrifft.

Klassenspezifische Leistung: Wo Modelle glänzen und wo sie Schwierigkeiten haben

Unsere Auswertung umfasste sieben sich überschneidende Klassen, die verschiedene Aspekte der Objekterkennung testen:

  • Gesicht : Stellt nur den Gesichtsbereich dar. Das Modell muss das Gesicht einer Person erkennen, was aufgrund seiner geringen Größe und der feinen Details eine Herausforderung darstellen kann.
  • Kopf : Umfasst den gesamten Kopf mit Ausnahme des Gesichts. Der Fokus liegt auf der Erkennung von Form und Struktur des Kopfes.
  • head_with_helmet : Stellt einen Kopf mit Helm dar. Das Modell muss sowohl den Kopf als auch den Helm gemeinsam erkennen und testet damit seine Fähigkeit, deren Beziehung zu erkennen.
  • Helm : Bezeichnet ausschließlich den Helm, unabhängig davon, ob sich eine Person oder ein Kopf darauf befindet. Wichtig für die Ausrüstungserkennung.
  • Person : Erkennt die Anwesenheit einer Person, mit oder ohne Helm. Dient als allgemeine Klasse zur Personenerkennung.
  • person_no_helmet : Stellt eine Person dar, die keinen Helm trägt. Das Modell muss sowohl die Anwesenheit einer Person als auch das Fehlen eines Helms erkennen.
  • person_with_helmet : Bezeichnet eine Person, die einen Helm trägt. Erfordert die Unterscheidung zwischen menschlicher Anwesenheit und Helmnutzung, eng verwandt mit person_no_helmet.

Diese sich überschneidenden und eng verwandten Klassen können für visuelle Sprachmodelle eine Herausforderung darstellen, da sie visuelle Informationen durch natürliche Sprache interpretieren, anstatt feinkörnige Unterschiede auf Pixelebene direkt zu erfassen.

Traditionelle CNN-Leistung

  1. Gesichtsklasse
    • Beste Leistung: EfficientNet und DenseNet121 (100 %)
    • Niedrigster Wert: ResNet101 (95%) Die Gesichtserkennung ist bei CNNs sehr genau und übertrifft die meisten VLMs.
  2. Hauptklasse
    • Beste Ergebnisse: ResNet18 und DenseNet121 (69 %)
    • Niedrigstes Ergebnis: ResNet50 (50%) Mittlere Leistung; CNNs haben mehr Schwierigkeiten mit der Kopferkennung als mit der Gesichts- und Helmerkennung.
  3. Kopf und Kopf mit Helm
    • Beste Ergebnisse: EfficientNet und ResNet18 (Kopf mit Helm 98 %, Kopf 65–69 %)
    • Niedrigste Genauigkeit: ResNet50 (Kopf 50 %, Kopf mit Helm 96 %). CNNs erzielen bei Köpfen mit Helm sehr gute Ergebnisse und erreichen über alle Modelle hinweg eine Genauigkeit von 96–98 %. Die Erkennung von Köpfen ohne Helm ist schwieriger und mit einer geringeren Genauigkeit (50–69 %) verbunden. Dies deutet darauf hin, dass CNNs markante Objekte wie Helme besser unterscheiden als weniger deutlich abgegrenzte Bereiche wie Köpfe ohne Helm.
  4. Personenklasse
    • Alle Modelle: 0 % Genauigkeit
  5. Person ohne Helm
    • Bestes Ergebnis: DenseNet121 (72 %)
    • Niedrigster Wert: ResNet50 (53%). CNNs bewältigen diese anspruchsvolle Klasse besser als VLMs, was ihre Fähigkeit unterstreicht, feinkörnige Details zu erfassen.
  6. Person mit Helm
    • Bestes Ergebnis: EfficientNet (98 %)
    • Niedrigster Wert: DenseNet121 (96%) Hohe Genauigkeit bei allen Modellen; Personen mit Helm werden durchgängig erkannt.

Leistung des Bildsprachemodells

  1. Gesichtserkennung (Gesichtserkennung)
    • Beste Aufführung: Claude Opus 4.1 (83 %)
    • Am schwächsten: Meta-Llama Vision Instruct (4%) und GPT-4o-mini (12%)VLMs schneiden im Allgemeinen bei kleinen und detaillierten Objekten wie Gesichtern schlechter ab; Meta-Llama und GPT-4o-mini haben Schwierigkeiten mit feinen Details.
  2. Kopf und Kopf mit Helm
    • Spitzenreiter: Claude Opus 4.1 (96 %) am häufigsten, Meta-Llama (30 %) am seltensten.
    • Head_with_helmet: GPT-4.1 (99%) und Gemini 2.5 Flash (98%) am besten, Meta-Llama (50%) am schlechtesten. Die Modelle schneiden bei der Kopferkennung mit und ohne Helm gut ab; die meisten erreichen eine Genauigkeit von über 90 %, außer Meta-Llama.
  3. Helmklasse
    • Höchste Werte: Grok 2 Vision (100%), GPT-4.1 (99%), Gemini 2.5 Flash (98%)
    • Niedrigster Wert: Meta-Llama (52%) Die Unterscheidung zwischen Objekten mit und ohne Helm ist im Allgemeinen einfacher, aber Meta-Llama schneidet schlecht ab.
  4. Personenklasse
    • Alle Modelle erreichen 100 %, was wahrscheinlich an den großen und klaren Objekten liegt.
  5. Person ohne Helm
    • Beste: GPT-4.1 und Gemini 2,5 Flash (58 %)
    • Niedrigste Werte: Meta-Llama (18%) und GPT-4o-mini (29%) Die Erkennung feiner Details wie das Fehlen eines Helms ist eine Herausforderung; einige Modelle zeichnen sich bei markanten Objekten aus, hinken aber bei nuancierten Klassen hinterher.
  6. Person mit Helm
    • Höchste Werte: GPT-4.1 (98 %) und Gemini 2.5 Flash (98 %)
    • Niedrigster Wert: Meta-Llama (55%) Die meisten Modelle schneiden hier sehr gut ab.

Cloud-API-Performance

  • Gesichtsklasse
    • Beste Wahl: AWS Rekognition (22 %)
    • Niedrigster Wert: Google Cloud Vision (0%) Die Gesichtserkennung ist über Cloud-APIs im Allgemeinen schlecht; feine Unterscheidungen wie Gesichter sind eine Herausforderung.
  • Kopf und Kopf mit Helm
    • Spitzenreiter: AWS Rekognition (24 %) am besten, Vision am schlechtesten (0 %).
    • Head_with_helmet: AWS Rekognition (10%) best, Azure Vision (1%) am schlechtesten. Die Erkennung von Köpfen, insbesondere von solchen mit oder ohne Helm, ist begrenzt; Cloud-APIs konzentrieren sich eher auf größere Objekte als auf feine Details.
  • Helmklasse
    • Beste Wahl: AWS Rekognition (94 %)
    • Niedrigster Wert: Azure Vision (37%) Die Helmerkennung ist für einige APIs (AWS) mäßig erfolgreich, jedoch nicht einheitlich zwischen den Anbietern.
  • Personenklasse
    • Alle Modelle: 100% Große und klare Objekte wie ganze Personen werden von allen Cloud-APIs zuverlässig erkannt.
  • Person ohne Helm
    • Best: Azure Sehvermögen (78%)
    • Niedrigster Wert: Google Cloud Vision (26%) Die Leistung variiert stark; einige APIs können anspruchsvolle Klassen einigermaßen gut bewältigen.
  • Person mit Helm
    • Beste Wahl: AWS Rekognition (94 %)
    • Niedrigster Wert: Azure Sicht (37%) Personen mit Helm werden von AWS zuverlässig erkannt, von anderen Anbietern jedoch nicht konsistent.

Bei Gesichtern erzielen CNNs die höchste Genauigkeit, gefolgt von VLMs, während Cloud-APIs schlecht abschneiden. In den Klassen „Kopf“ und „Kopf mit Helm“ bleiben CNNs stark, VLMs schneiden bei Köpfen mit Helm gut ab, jedoch weniger konsistent bei Köpfen ohne Helm, und Cloud-APIs haben mit beiden Schwierigkeiten. Bei Helmen erzielen CNNs und VLMs im Allgemeinen sehr gute Ergebnisse, während Cloud-APIs unterschiedliche Erfolge zeigen. In der Klasse „Person“ erkennen alle Paradigmen vollständige Personen zuverlässig. Bei Personen ohne Helm übertreffen CNNs sowohl VLMs als auch Cloud-APIs und demonstrieren eine überlegene Verarbeitung feinster Details. Schließlich weisen CNNs und VLMs bei Personen mit Helm eine hohe Genauigkeit auf, während Cloud-APIs je nach Anbieter inkonsistente Ergebnisse zeigen.

Präzision, Trefferquote und F1-Score

Die Präzision misst, wie viele der positiven Vorhersagen eines Modells tatsächlich korrekt sind. Anders ausgedrückt: Sie beantwortet die Frage: „Wie viele der vom Modell als positiv gekennzeichneten Vorhersagen sind tatsächlich korrekt?“

Der Recall- Wert misst, wie viele der tatsächlich positiven Fälle das Modell erfolgreich identifiziert. Er beantwortet die Frage: „Wie viele der tatsächlich positiven Fälle hat das Modell erkannt?“

Der F1-Score ist eine ausgewogene Zusammenfassung von Präzision und Trefferquote. Er liefert eine einzige Kennzahl, die sowohl Genauigkeit als auch Abdeckung widerspiegelt und ist besonders nützlich, wenn man Präzision und Trefferquote in Einklang bringen möchte.

CNN-basierte Modelle (ResNet50, ResNet101, DenseNet121) zeigen hohe Werte sowohl in Präzision (0,93–0,95) als auch in Trefferquote (0,91–0,94), was zu hohen F1-Scores (0,92–0,93) führt. Dies deutet darauf hin, dass sie sowohl sehr genaue Vorhersagen treffen als auch die Mehrheit der korrekt positiven Fälle erfassen können. Auch EfficientNet weist einen hohen F1-Score (0,92) auf und bietet somit eine konsistente und zuverlässige Leistung.

Cloud-APIs (AWS Rekognition, Cloud Vision, Vision) weisen eine geringere Präzision und Trefferquote auf, mit F1-Scores zwischen 0,32 und 0,58. Dies deutet darauf hin, dass Cloud-Dienste zwar für allgemeine Aufgaben optimiert sind, ihre Genauigkeit bei feinkörnigen Klassenunterscheidungen jedoch begrenzt ist.

Bildverarbeitungsmodelle zeigen eine variablere Leistung. X-AI Vision und Claude Opus 4.1 erreichen exakt einen F1-Score von 0,76, während Flash 2.5 mit einem F1-Score von 0,80 etwas besser abschneidet. Obwohl diese Modelle in einigen Klassen eine starke Leistung zeigen, bleiben sie in der Gesamtgenauigkeit im Allgemeinen hinter CNNs zurück. Llama Vision Instruct weist einen F1-Score von 0,47 auf, mit sowohl geringer Präzision als auch niedriger Trefferquote, was bedeutet, dass das Modell Schwierigkeiten hat, korrekte Vorhersagen zu treffen und echte positive Ergebnisse zu erkennen.

Mögliche Gründe für Leistungsunterschiede

Vorteile der CNN-Architektur

Traditionelle CNNs sind auf die Merkmalsextraktion auf Pixelebene spezialisiert und ermöglichen so die schnelle und präzise Erkennung feinster Objekte. Ihre optimierten Faltungsschichten und hierarchischen Merkmalskarten gewährleisten geringe Latenz und hohe mittlere durchschnittliche Genauigkeit (mAP) bei Standardaufgaben der Bilderkennung.

Multimodaler Overhead in VLMs

Bildverarbeitungsmodelle verarbeiten sowohl Bilder als auch Text und ergänzen diese durch Cross-Attention und Embedding-Alignment-Schritte. Dies ermöglicht logisches Denken und kontextbezogene Ausgaben, erhöht aber die Inferenzzeit und führt somit zu einer höheren Latenz im Vergleich zu CNNs.

Feinkörnige Klassenerkennung

Überlappende oder subtile Klassen (z. B. Person ohne Helm vs. Person mit Helm) verdeutlichen die Unterschiede zwischen den Modellen. CNNs erfassen diese Details zuverlässig, VLMs erzielen gute Ergebnisse bei markanten Objekten, haben aber Schwierigkeiten mit feinen Unterschieden, und Cloud-APIs konzentrieren sich auf breite Klassen, was die Genauigkeit einschränkt.

Strukturierte Ausgabezuverlässigkeit

Inkonsistente JSON-Generierung beeinträchtigt die VLM-Performance. Modelle mit niedrigen Erfolgsraten scheinen in Pipelines weniger effektiv zu sein, während CNNs und Cloud-APIs vorhersagbare, deterministische Ergebnisse liefern.

Welche Option sollten Sie also wählen?

Klassische CNNs eignen sich ideal für geschwindigkeitskritische Anwendungen, bei denen Reaktionszeiten im Millisekundenbereich entscheidend sind, wie z. B. Echtzeit-Videoverarbeitung, autonome Fahrzeuge oder industrielle Sicherheitssysteme. Dank ihrer überragenden Genauigkeit (mAP 0,75–0,81) und blitzschnellen Inferenz (0,03–0,2 s) sind diese traditionellen KI-Modelle hervorragend geeignet, wenn zuverlässige und konsistente Leistung ohne den Aufwand der Verarbeitung natürlicher Sprache oder komplexer Modelle benötigt wird. CNNs konzentrieren sich auf visuelle Daten und Bildklassifizierungsaufgaben wie die Objekterkennung und bieten sowohl visuelle Genauigkeit als auch Effizienz, ohne dass eine Feinabstimmung multimodaler Modelle erforderlich ist.

Bildsprachmodelle (VLMs) spielen ihre Stärken aus, wenn Kontextverständnis und flexible Ausgaben gefragt sind. Diese Modelle arbeiten sowohl mit visuellen als auch mit textuellen Daten und ermöglichen es großen Sprachmodellen, Bildeingaben zusammen mit Textbeschreibungen zu verarbeiten. Sie eignen sich ideal für Anwendungen, die Erklärungen in natürlicher Sprache, Bildbeschreibungen, visuelles Schlussfolgern oder sogar visuelle Fragebeantwortung erfordern. Dabei nutzen sie Bildcodierer und Cross-Attention-Layer, um Bild-Text-Paare im selben dimensionalen Raum abzubilden. Obwohl eine höhere Latenz (3–12 Sekunden) in Kauf genommen wird, machen die von ihnen ermöglichten Fähigkeiten zum Verständnis von Bildern, visuellen Elementen und visuellen Anweisungen sie ideal für spezifischere nachgelagerte Aufgaben wie intelligente Inhaltsmoderation, Bildgenerierung, visuelles mathematisches Schlussfolgern oder interaktive Bildassistenten. Durch parametereffizientes Feintuning mit hochwertigen Trainingsdaten entwickeln sich Bildsprachmodelle (VLMs) zu leistungsstarken Modellen des maschinellen Lernens, die visuelle und textuelle Informationen in einem gemeinsamen Einbettungsraum vereinen.

Cloud-APIs liefern detaillierte und umfassende Antworten mit umfangreichen Metadaten und Konfidenzwerten und eignen sich daher ideal, wenn Sie über eine einfache Klassifizierung hinausgehende Informationen benötigen. Diese APIs basieren häufig auf vortrainierten Bildverarbeitungskomponenten und visuellen Encodern, die mit großen, öffentlich zugänglichen Modelldatensätzen mit konzeptionellen Bildunterschriften und relevanten Fotos trainiert wurden. Sie eignen sich optimal für Anwendungen, die strukturierte JSON-Ausgaben, Begrenzungsrahmen, Objektlokalisierung oder die Analyse langer Videos erfordern, und sind sofort einsatzbereite Lösungen, die kein aufwendiges Modelltraining oder Infrastrukturmanagement benötigen. Obwohl ihre Genauigkeit moderat ist (mAP 0,61–0,66), reduzieren sie den technischen Aufwand und die Infrastrukturkosten und ermöglichen Aufgaben wie die automatisierte Berichtserstellung, die semantische Bedeutungsextraktion und die Integration in ein einheitliches Framework mit bestehenden generativen Modellen.

Preisrechner

Bildsprachmodelle (VLMs) – Hauptmerkmale und Vorteile

Multimodales Denken

Vision Language Models (VLMs) sind leistungsstarke multimodale Modelle, die visuelle und textuelle Informationen gleichzeitig verarbeiten und so eine umfassendere, kontextbezogene Interpretation ermöglichen. Durch die Verknüpfung von Bildeingaben mit natürlichsprachlichen Anweisungen ermöglichen sie fortgeschrittene Aufgaben wie die automatische Bildbeschreibung, die Helmerkennung in Überwachungsvideos, visuelle Schlussfolgerungsaufgaben, die visuelle Beantwortung von Fragen und sogar die Erklärung visueller Inhalte in natürlicher Sprache. Im Gegensatz zu traditionellen KI-Modellen, die sich ausschließlich auf visuelle Daten konzentrieren, kombinieren VLMs visuelle Fähigkeiten mit der Logik großer Sprachmodelle und eignen sich daher ideal für komplexe Folgeaufgaben.

Strukturierte Ausgabe und JSON-Generierung

Viele Bildverarbeitungsmodelle können strukturierte Ausgaben wie JSON generieren, was für automatisierte Pipelines und Anwendungen, die neben Bildmerkmalen auch Textbeschreibungen benötigen, wertvoll ist. In unserem Benchmark scheiterten ChatGPT-5 und Gemini 2.5 Pro durchgehend, während Meta-Llama Vision Instruct nur in etwa 36 % der Fälle erfolgreich war. Strukturierte Ausgaben sind besonders nützlich für Bildverarbeitungsassistenten, da sie Aufgaben wie Objekterkennung und -lokalisierung ermöglichen und zuverlässige Daten für Modelle des maschinellen Lernens ohne aufwendiges Feintuning liefern.

Feinabstimmungsmöglichkeiten

VLMs ermöglichen eine effiziente Parameteroptimierung mit relativ kleinen Trainingsdaten und somit eine schnelle Anpassung an domänenspezifische visuelle Denkaufgaben. Beispielsweise können sie so optimiert werden, dass sie in Bildeingabeszenarien zwischen Personen mit und ohne Helm oder spezieller Sicherheitsausrüstung unterscheiden. Durch die Nutzung vortrainierter Architekturen für Bildkodierer und robuster Modelltrainingsmethoden können sie mit weniger konzeptuellen Beschreibungen oder Bild-Text-Paaren besser generalisieren.

Einschränkungen von visuellen Sprachmodellen

Latenz und Geschwindigkeit

Im Vergleich zu herkömmlichen CNNs oder einfacheren Bildverarbeitungsmodellen weisen Bildverarbeitungs-Sprachmodelle typischerweise eine höhere Latenz auf, was Echtzeitanwendungen wie die Analyse langer Videos einschränken kann. Einige multimodale Modelle, wie X-AI Vision und 2.5 Flash, erreichen in puncto Geschwindigkeit fast die Geschwindigkeit von Cloud-APIs, während Llama deutlich langsamer ist. Dieser Kompromiss resultiert aus dem durchgängigen Design des Modells und den Cross-Attention-Layern, die zwar die Schlussfolgerungsfähigkeit verbessern, aber die Inferenzzeit erhöhen.

Klassenspezifische Herausforderungen

Bildverarbeitungsmodelle haben mitunter Schwierigkeiten mit überlappenden Klassen und der feinen Objekterkennung, beispielsweise der Unterscheidung zwischen einem „Kopf“ und einem „Kopf mit Helm“ oder zwischen einer „Person ohne Helm“ und einer „Person mit Helm“. Während einige Modelle bei der Erkennung von Personen mit Helm gute Ergebnisse erzielen, weisen sie bei anderen visuellen Analyseaufgaben, wie der Gesichtserkennung oder der Erkennung subtiler visueller Elemente, Schwächen auf. Dies unterstreicht die Bedeutung hochwertiger Trainingsdaten und sorgfältiger Feinabstimmung für die Bearbeitung spezifischerer Folgeaufgaben.

Strukturierte Ausgabezuverlässigkeit

Die Konsistenz strukturierter Ausgaben wie JSON variiert stark. Während einige VLMs zuverlässig gültige Ausgaben generieren, versagen andere in bestimmten Anwendungsfällen, was ihre Nützlichkeit in vollautomatisierten Pipelines einschränkt. Selbst mit vortrainierten Bildkodierungs-Backbones und Ansätzen mit gemeinsamem Einbettungsraum gelingt es manchen Modellen nicht, die semantische Bedeutung in strukturierten Ausgaben zu erhalten. Diese Inkonsistenz unterstreicht die Notwendigkeit eines robusten Modelltrainings, relevanter Fotos im Datensatz und kontinuierlicher Verbesserungen generativer Modelle für Bild- und Sprachverarbeitung.

Benchmark-Methodik

Unsere umfassende Evaluierung erfolgte anhand des SHEL5K-Datensatzes zur Erkennung von Schutzhelmen. Dabei nutzten wir insbesondere die ersten 500 Bilder, um einen konsistenten Vergleich aller Modellarchitekturen zu gewährleisten. Der Datensatz umfasst sieben sich überschneidende Klassen, die zur Prüfung der detaillierten Objekterkennungsfähigkeiten entwickelt wurden: Gesicht, Kopf, Kopf mit Helm, Helm, Person, Person ohne Helm und Person mit Helm.

Datenvorverarbeitung

Die ursprünglichen Annotationen des SHEL5K-Datensatzes lagen im XML-Format vor. Wir haben eine Vorverarbeitungspipeline entwickelt, um diese Annotationen in ein Multi-Label-CSV-Format zu konvertieren, das sich für die systematische Auswertung eignet:

Jedes Bild wurde seinen entsprechenden Referenzdaten zugeordnet, wodurch ein standardisiertes Bewertungsmodell entstand. Für traditionelle CNNs wurden die Bilder mit Standardnormalisierung auf eine Auflösung von 224×224 Pixel vorverarbeitet. Bildverarbeitungsmodelle und Cloud-APIs erhielten die Bilder im Originalformat, um Kontextinformationen zu erhalten.

Traditionelles CNN-Evaluierungsprotokoll

Traditionelle Convolutional Neural Networks (EfficientNet, ResNet-Varianten, DenseNet121) wurden einem überwachten Feintuning unter Anwendung etablierter Best Practices unterzogen:

Trainingskonfiguration:

  • Architektur: Vortrainierte Modelle mit modifizierten Klassifizierungsköpfen
  • Verlustfunktion: BCEWithLogitsLoss für Multilabel-Klassifizierung
  • Optimierer: Adam mit Lernrate 1e-4
  • Trainingsepochen: 5
  • Datenaufteilung: 80 % Trainingsdaten, 20 % Validierungsdaten
  • Losgröße: 16

Testframework für Bildsprachmodelle

Die VLMs wurden anhand sorgfältig strukturierter Fragen evaluiert, die konsistente, maschinenlesbare Antworten hervorrufen sollten. Unser Ansatz zur Fragenerstellung forderte Konfidenzwerte im JSON-Format für jede Klasse an.

API-Konfiguration:

  • Temperatur: 0,1 (niedrige Temperatur für gleichbleibende Ergebnisse)
  • Maximale Anzahl an Tokens: 800
  • Modelle getestet über die API-Integration OpenRouter
  • JSON-Parsing mit Fehlerbehandlung und Formatvalidierung

Erfolgsratenverfolgung: Wir überwachten den Anteil gültiger JSON-Antworten, da VLMs mitunter Erklärungen in natürlicher Sprache anstelle strukturierter Ausgaben generieren. Diese Metrik erwies sich als entscheidend für die Bewertung der praktischen Umsetzbarkeit.

Cloud-API-Integration und Label-Zuordnung

Cloud-APIs stellten aufgrund ihrer allgemeinen Natur und unterschiedlichen Taxonomien besondere Herausforderungen dar. Wir entwickelten umfassende Mapping-Strategien für jeden Dienst:

Strategie zur Beschriftungszuordnung:

Cloud-APIs stellen eine grundlegende Herausforderung dar: Sie wurden nicht für unsere spezifische Taxonomie mit sieben Klassen entwickelt. Diese Dienste liefern allgemeine Bezeichnungen wie „Person“, „Helm“, „Bauarbeiter“ oder „Schutzausrüstung“ anstelle der präzisen Kombinationen, die wir zur Auswertung benötigen (z. B. „Person_mit_Helm“ oder „Kopf_mit_Helm“).

Um diese Einschränkung zu beheben, entwickelten wir umfassende Mapping-Wörterbücher für jeden Cloud-Dienst basierend auf dessen Ausgaben. Das Mapping für Computer Vision umfasste über 50 Labelvarianten, die verschiedene Möglichkeiten der API zur Beschreibung von Personen (Person, Mann, Frau, Arbeiter, Individuum), Helmen (Helm, Schutzhelm, Sicherheitshelm, Mütze) und Gesichtszügen (Gesicht, menschliches Gesicht, Porträt) abdeckten. Ähnliche umfangreiche Mappings wurden für AWS Rekognition und Cloud Vision erstellt, jeweils zugeschnitten auf das spezifische Vokabular und die Labeling-Muster des jeweiligen Dienstes.

Kombinierte Klasseninferenzlogik:

Der anspruchsvollste Aspekt unserer Cloud-API-Evaluierung bestand darin, kombinierte Klassen abzuleiten, die die APIs nicht explizit erkennen. Wir implementierten eine regelbasierte Logik, um zu erkennen, wann mehrere Basiselemente gemeinsam auftreten:

Werden sowohl „Person“ als auch „Helm“ mit ausreichender Sicherheit im selben Bild erkannt, schließt das System auf „Person mit Helm“ anhand des niedrigeren Konfidenzwertes der beiden Erkennungen (konservativer Ansatz). Ebenso führt die gleichzeitige Erkennung von „Kopf“ und „Helm“ zur Klassifizierung „Kopf mit Helm“.

Bei negativen Klassifizierungen, wenn eine Person erkannt wird, aber kein Helm gefunden wird, schließt das System auf „person_no_helmet“ mit leicht reduziertem Vertrauen (90 % des ursprünglichen Vertrauens für die Person), um der Unsicherheit Rechnung zu tragen, die negativen Schlussfolgerungen innewohnt.

Dieser Ansatz erkennt an, dass Cloud-APIs zwar hervorragend darin sind, einzelne Objekte zu erkennen, aber Schwierigkeiten mit relationalen Schlussfolgerungen über Objektkombinationen haben – eine wesentliche Einschränkung bei der Bewertung von feingranularen, kontextabhängigen Klassifizierungsaufgaben.

Bewertungsmetriken und statistische Analyse

Primäre Kennzahlen:

  • Mittlere durchschnittliche Präzision (mAP): Primäres Genauigkeitsmaß unter Verwendung von Makro-Mittelwertbildung über alle Klassen hinweg
  • Präzision, Trefferquote, F1-Score: Mikro-gemittelt für die Gesamtleistungsbewertung
  • Klassenspezifische Genauigkeit: Individuelle Klassenleistung für eine detaillierte Analyse
  • Latenz: Gesamtverarbeitungszeit pro Bild
  • Erfolgsquote: Prozentsatz gültiger Ausgaben (besonders relevant für VLMs)

Schwellenwertauswahl: Ein Klassifizierungsschwellenwert von 0,5 wurde einheitlich für alle Modelle angewendet, wobei VLMs Konfidenzwerte und traditionelle Modelle sigmoid-aktivierte Logits verwendeten.

Statistische Robustheit: Jedes Modell wurde anhand identischer Bilddatensätze mit einheitlicher Vorverarbeitung evaluiert, um einen fairen Vergleich zu gewährleisten. Die Latenzmessungen wurden über mehrere Durchläufe gemittelt, um Systemvarianzen zu berücksichtigen.

Experimentelle Kontrollen und Einschränkungen

Durchgeführte Kontrollmaßnahmen:

  • Identischer Testdatensatz mit 500 Bildern für alle Modelle
  • Einheitliche Bewertungskriterien und Schwellenwerte
  • Standardisierte Fehlerbehandlungs- und Timeout-Verfahren
  • Mehrere API-Schlüsselrotationen zur Bewältigung von Ratenbegrenzungen
Cem Dilmegani
Cem Dilmegani
Leitender Analyst
Cem ist seit 2017 leitender Analyst bei AIMultiple. AIMultiple informiert monatlich Hunderttausende von Unternehmen (laut similarWeb), darunter 55 % der Fortune 500. Cems Arbeit wurde von führenden globalen Publikationen wie Business Insider, Forbes und der Washington Post, von globalen Unternehmen wie Deloitte und HPE sowie von NGOs wie dem Weltwirtschaftsforum und supranationalen Organisationen wie der Europäischen Kommission zitiert. Weitere namhafte Unternehmen und Ressourcen, die AIMultiple referenziert haben, finden Sie hier. Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte außerdem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen wiederkehrenden Umsatz und eine neunstellige Unternehmensbewertung kam. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider gewürdigt. Er ist ein gefragter Redner auf internationalen Technologiekonferenzen. Cem absolvierte sein Studium der Informatik an der Bogazici-Universität und besitzt einen MBA der Columbia Business School.
Vollständiges Profil anzeigen
Recherchiert von
Nazlı Şipi
Nazlı Şipi
KI-Forscher
Nazlı ist Datenanalystin bei AIMultiple. Sie verfügt über Erfahrung in der Datenanalyse in verschiedenen Branchen, wo sie an der Umwandlung komplexer Datensätze in umsetzbare Erkenntnisse gearbeitet hat.
Vollständiges Profil anzeigen

Seien Sie der Erste, der kommentiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450