Kontaktieren Sie uns
Keine Ergebnisse gefunden.

KI-Modelle

KI-Modelle machen Vorhersagen auf Basis ihrer Trainingsdaten. Sie können in jedem Bereich eingesetzt werden, beispielsweise in Zahlen, Texten oder Multimedia-Inhalten.

Benchmark für tabellarische Modelle: Leistung in 19 Datensätzen bis 2026

KI-ModelleMai 6

Wir haben sieben weit verbreitete tabellarische Lernmodelle anhand von 19 realen Datensätzen mit insgesamt ca. 260.000 Stichproben und über 250 Merkmalen getestet. Die Datensatzgrößen reichten von 435 bis fast 49.000 Zeilen. Unser Ziel war es, die leistungsstärksten Modellfamilien für Datensätze unterschiedlicher Größe und Struktur (z. B. numerisch vs. kategorisch) zu identifizieren, wie sie typischerweise in Unternehmen vorkommen.

Mehr lesen
KI-ModelleApr 24

Vergleich von visuellen Sprachmodellen mit der Bilderkennung

Können fortschrittliche Bildverarbeitungsmodelle (VLMs) traditionelle Bilderkennungsmodelle ersetzen? Um dies herauszufinden, haben wir 16 führende Modelle in drei Paradigmen verglichen: traditionelle CNNs (ResNet, EfficientNet), VLMs (wie z. B. GPT-4.1, Gemini 2.5) und Cloud-APIs (AWS, Google, Azure). Die mittlere durchschnittliche Präzision (mAP) diente als primäres Genauigkeitsmaß, ergänzt durch Latenz, Kosten und klassenspezifische Leistung.

KI-ModelleApr 24

Vergleich der Modelle mit großer Sicht: GPT-4o vs YOLOv8n

Große Bildverarbeitungsmodelle (LVMs) können visuelle Aufgaben wie Fehlererkennung, medizinische Diagnostik und Umweltüberwachung automatisieren und verbessern. Wir haben drei Objekterkennungsmodelle – YOLOv8n, DETR und GPT-4o Vision – anhand von jeweils 1000 Bildern verglichen und dabei Metriken wie mAP@0,5, Inferenzgeschwindigkeit, FLOPs und Parameteranzahl gemessen. Um einen fairen Vergleich zu gewährleisten, wurden alle Bilder auf […] skaliert.

KI-ModelleApr 15

Vergleich relationaler Fundamentmodelle

Wir haben SAP-RPT-1-OSS anhand von Gradient Boosting (LightGBM, CatBoost) auf 17 tabellarischen Datensätzen verglichen, die das semantisch-numerische Spektrum abdecken: kleine/hochsemantische Tabellen, gemischte Geschäftsdatensätze und große, niedrigsemantische numerische Datensätze. Unser Ziel ist es, zu ermitteln, wo die vortrainierten semantischen Priors eines relationalen LLM Vorteile gegenüber traditionellen Baummodellen bieten und wo sie bei großen Datensätzen oder niedrigsemantischen Strukturen an ihre Grenzen stoßen.

KI-ModelleFeb 11

Weltweite Stiftungsmodelle: 10 Anwendungsfälle

Das Training von Robotern und autonomen Fahrzeugen (AVs) in der realen Welt kann kostspielig, zeitaufwändig und riskant sein. World Foundation Models bieten eine skalierbare Alternative, indem sie realistische Simulationen realer Umgebungen ermöglichen. Diese Modelle beschleunigen die Entwicklung und den Einsatz in der Robotik, bei AVs und anderen Bereichen, indem sie die Abhängigkeit von physischen Tests reduzieren.

KI-ModelleFeb 10

Grundlagenmodelle für Zeitreihen: Anwendungsfälle und Vorteile

Time Series Foundation Models (TSFMs) bauen auf Fortschritten in Basismodellen aus der Verarbeitung natürlicher Sprache und der Bildverarbeitung auf. Mithilfe von Transformer-basierten Architekturen und umfangreichen Trainingsdaten erreichen sie Zero-Shot-Performance und sind branchenübergreifend einsetzbar, beispielsweise in den Bereichen Finanzen, Einzelhandel, Energie und Gesundheitswesen.