Kontaktieren Sie uns
Keine Ergebnisse gefunden.

Die besten Serverless-Funktionen: Vercel vs. Azure vs. AWS

Sedat Dogan
Sedat Dogan
aktualisiert am Jan 21, 2026
Siehe unsere ethischen Normen

Serverlose Funktionen ermöglichen es Entwicklern, Code auszuführen, ohne einen Server verwalten zu müssen. Dadurch können sie sich auf die Entwicklung und Bereitstellung von Anwendungen konzentrieren, während die Skalierung und Wartung der Infrastruktur automatisch im Hintergrund erfolgen.

Loading Chart

In diesem Benchmark haben wir sieben gängige Cloud-Service-Anbieter anhand unserer Methodik hinsichtlich ihrer Serverless-Funktionsleistung evaluiert. Wir haben die schnellsten und langsamsten Antwortzeiten, die Gesamtausführungszeit für 1000 Anfragen, den Durchsatz und die durchschnittliche Zeit pro erfolgreicher Anfrage unter Last gemessen.

Benchmark-Ergebnisse für serverlose Funktionen

Das erste Diagramm visualisiert die Leistung der einzelnen Anbieter nicht als einzelne Zahl, sondern als Bandbreite der Antwortzeiten, die wir während unseres Benchmarks mit 1000 Anfragen ermittelt haben. Dieses Leistungsspektrum wird durch ein „Unteres Band“ und ein „Oberes Band“ dargestellt, zwischen denen Sie mithilfe der Schaltflächen über dem Diagramm wechseln können.

  • Unteres Band: Hier werden die schnellsten Antwortzeiten der einzelnen Anbieter dargestellt. Es zeigt die optimale Leistung an und verdeutlicht, wie schnell eine Funktion unter optimalen Bedingungen (z. B. einem „Warmstart“ mit zwischengespeicherten Ressourcen) ausgeführt werden kann. In dieser Ansicht ist ein niedrigerer Wert (weiter links) besser.
  • Oberes Band: Dies repräsentiert die langsamsten Reaktionszeiten, die für jeden Anbieter beobachtet wurden. Es verdeutlicht die Leistung im ungünstigsten Fall, die durch Faktoren wie Kaltstarts, Netzwerklatenz oder vorübergehende Ressourcenkonflikte beeinflusst werden kann. Dieser Wert ist entscheidend, um potenzielle Latenzspitzen zu verstehen, die die Benutzererfahrung beeinträchtigen könnten.

Anfragen/Sek.: Die Anzahl der Anfragen pro Sekunde, d. h. der durchschnittliche Durchsatz. Dies misst die Verarbeitungskapazität des Servers. Je höher der Wert, desto besser, da so mehr Anfragen pro Sekunde verarbeitet werden können.

Gesamtzeit: Je niedriger, desto besser, da die Plattform die Arbeitslast dann schneller bewältigen kann.

Durchschnittliche Zeit pro erfolgreicher Anfrage: Die durchschnittliche Zeit pro erfolgreich verarbeiteter Anfrage, ohne Berücksichtigung von Fehlern oder fehlgeschlagenen Anfragen. Ein niedrigerer Wert ist besser und bedeutet eine schnellere Bearbeitung jeder Anfrage.

Mögliche Gründe für Leistungsunterschiede bei serverlosen Funktionen

1. Kernausführungsumgebung (Architektur)

Die zugrundeliegende Technologie – sei es eine hochoptimierte MicroVM, eine V8-Engine oder ein Standardcontainer – ist der Hauptgrund für Leistungsunterschiede.

  • AWS Lambda Firecracker MicroVMs: Nutzt KVM-basierte MicroVMs, die nicht essentielle Kernel-Funktionen entfernen, um in Millisekunden zu booten.
    • Optimierte Parallelverarbeitung: AWS stellt Ausführungsumgebungen physisch schneller bereit als herkömmliche Container. Die MicroVM-Architektur ermöglicht es ihnen, einen Lastanstieg von 1000 Anfragen ohne Warteschlangenbildung zu bewältigen.
  • Cloudflare Workers V8 Isolates (Edge): Führt Code in bestehenden Chrome V8-Prozessen (Isolates) aus, anstatt ein Betriebssystem zu starten.
    • Keine Kaltstarts: Durch die vollständige Eliminierung des Bootvorgangs des Betriebssystems beseitigt Cloudflare den Hauptengpass der serverlosen Skalierung und bietet die niedrigste Latenz.
  • Google Cloud Functions gVisor (Sandboxed Containers): Nutzt gVisor für Kernel-Abstraktion und Sicherheit.
    • Beschränkungen der Parallelität: Die gVisor-Sandbox ist zwar sicher, verursacht aber zusätzlichen Aufwand bei der Erstellung neuer Instanzen. Der Scheduler drosselt wahrscheinlich die Erstellungsrate (Ramp-Up), um die Stabilität zu gewährleisten, was die Gesamtzahl der Anfragen pro Sekunde verringert.
  • Heroku Dynos (LXC Container): Setzt auf traditionelle Container-Orchestrierung (PaaS).
    • Der Nachteil des „Immer-an“-Betriebs: Konzipiert für Anwendungen mit langer Laufzeit, nicht für ereignisgesteuerte Spitzenlasten. Die Architektur ist nicht für eine sofortige Skalierung von 0 auf 1000 optimiert.

2. Initialisierungs- und Skalierungsaufwand

Diese Kategorie befasst sich mit dem direkten Zielkonflikt zwischen der Komplexität der Ausführungsumgebung (hochkomplex vs. niedrigkomplex) und der Geschwindigkeit von Kaltstarts.

  • AWS-Worker -Initialisierung (Lambda / Cloudflare) : Sowohl AWS MicroVMs als auch Isolates (Cloudflare) sind darauf ausgelegt, die Startzeit zu eliminieren oder drastisch zu reduzieren. AWS entfernt den Kernel, während Isolates das Starten eines Betriebssystems vollständig vermeiden. Dadurch werden höchster Durchsatz und maximale Parallelität durch die Beseitigung von Startengpässen ermöglicht.
  • Azure Functions / Cloud Functions: Höherer Umgebungsaufwand: Beide Plattformen weisen im Vergleich zu den Marktführern eine deutlich längere Initialisierungslatenz auf. Azure initialisiert eine ressourcenintensivere Webserverumgebung (z. B. C#/.NET auf IIS/Kestrel), während gVisor von Cloud Functions die Erstellung neuer Instanzen durch zusätzliche Sicherheitsmaßnahmen erschwert. Diese Sicherheitsmaßnahmen müssen vom Scheduler gedrosselt werden, um die Systemstabilität zu gewährleisten.

Serverlose Funktionsanbieter

Es gibt eine Vielzahl von Anbietern serverloser Funktionen, jeder mit eigenen Merkmalen, Ökosystemintegrationen und Stärken, die auf spezifische Anwendungsfälle zugeschnitten sind:

Microsoft Azure Functions

Microsoft Azure Functions ist ein serverloser Computing-Dienst, der es Entwicklern ermöglicht, ereignisgesteuerte Anwendungen zu erstellen und bereitzustellen, ohne die Infrastruktur verwalten zu müssen. 1 Es bietet Integration mit anderen Azure-Diensten, wie z. B. Azure Blob Storage für die Dateiverarbeitung, Cosmos DB für Datenbankoperationen und Event Grid für das Ereignisrouting.

Azure Functions verfügen über eine automatische Skalierung zur Bewältigung schwankender Anforderungsvolumina und lassen sich zur Leistungsüberwachung und Sicherheitsverwaltung in Azure Monitor und Azure Security Center integrieren.

Abbildung 1: Microsoft Azure Functions-Dashboard

AWS Lambda

AWS Lambda ist ein serverloser Computing-Service, der von Amazon Web Services (AWS) angeboten wird und sich in andere AWS-Services wie Amazon S3 für die Speicherung , DynamoDB für Datenbankoperationen und API Gateway für HTTP-Endpunkte integriert, wodurch die Entwicklung ereignisgesteuerter Architekturen ermöglicht wird. 2

AWS Step Functions können mehrere Lambda Funktionen koordinieren und unterstützen so die Erstellung komplexer Workflows für Aufgaben wie Datenverarbeitung oder Anwendungs-Orchestrierung .

Abbildung 2: AWS Lambda Functions-Dashboard

Google Cloud-Funktionen

Cloud Functions ist eine serverlose Ausführungsumgebung, die es Entwicklern ermöglicht, Code auszuführen, der durch Ereignisse aus Quellen wie HTTP-Anfragen, Cloud-Storage-Aktualisierungen oder Pub/Sub-Nachrichten ausgelöst wird. Die Plattform skaliert automatisch, um schwankende Arbeitslasten zu bewältigen und stellt Ressourcen bedarfsgerecht ohne manuelles Eingreifen bereit. 3

Cloud Functions integriert sich zudem in die Daten- und Analysedienste der Cloud, wie beispielsweise BigQuery für die Analyse großer Datenmengen und Cloud Dataflow für die Streamverarbeitung, und unterstützt so Anwendungen, die auf Datenverarbeitung und Echtzeit-Einblicke ausgerichtet sind. Das ereignisgesteuerte Design gewährleistet die effiziente Ausführung von Aufgaben, die an spezifische Auslöser innerhalb des Cloud-Ökosystems gekoppelt sind.

Abbildung 3: Google Cloud Functions-Dashboard

Vercel-Funktionen

Vercel ist eine Cloud-Plattform für Frontend-Entwickler, die Tools für die Bereitstellung und Skalierung moderner Webanwendungen bietet. Sie ist bekannt für die Entwicklung von Next.js und bietet Integration mit diesem weit verbreiteten React-Framework.

Vercel Functions ermöglicht Entwicklern die Ausführung von Backend-Code ohne Serververwaltung und unterstützt Sprachen wie JavaScript (Node.js), TypeScript, Python, Go und Ruby. Funktionen wie automatische Bereitstellungen, Vorschau-URLs und ein globales Edge-Netzwerk verbessern die Performance und steigern die Produktivität der Entwickler. 4

Abbildung 4: Vercel Functions Dashboard

Cloudflare Arbeiter

Mit Cloudflare Workers können Entwickler ihren Code in Rechenzentren weltweit ausführen und so geringe Latenzzeiten erreichen. 5 Die Plattform unterstützt Technologien wie JavaScript und WebAssembly und ermöglicht Entwicklern so die schnelle Bereitstellung ihrer Anwendungen. Cloudflare Workers ist zudem für KI- und Blockchain-Anwendungen optimiert.

Workers konzentriert sich auf Edge Computing und hohe Leistung bei geringer Latenz. Entwickler können diese Plattformen entsprechend ihren Bedürfnissen und Projektanforderungen evaluieren.

Abbildung 5: Cloudflare Mitarbeiter-Dashboard

Huawei Cloud FunctionGraph

Huawei Cloud FunctionGraph ist ein Dienst, der es Entwicklern ermöglicht, Code als Reaktion auf Ereignisse auszuführen, ohne die Serverinfrastruktur verwalten zu müssen. 6 Der Dienst integriert sich mit Ereignisquellen innerhalb des Cloud-Ökosystems, einschließlich Object Storage Service (OSS) für dateibezogene Auslöser und API Gateway für HTTP-basierte Aufrufe, wodurch die Erstellung ereignisgesteuerter Anwendungen ermöglicht wird.

Cloud FunctionGraph bietet automatische Skalierung zur Anpassung an Workload-Änderungen und arbeitet mit einem nutzungsbasierten Abrechnungsmodell, bei dem nur die während der Ausführung verbrauchten Ressourcen berechnet werden. Zudem umfasst es Überwachungs- und Protokollierungsfunktionen über die Observability-Tools der Cloud, die Entwickler bei der Leistungsüberwachung und der Diagnose von Anwendungsproblemen unterstützen.

Abbildung 6: Huawei Cloud FunctionGraph-Dashboard

Heroku

Heroku ist eine Platform as a Service (PaaS) , die die schnelle Bereitstellung und Verwaltung von Anwendungen ermöglicht. Sie verwendet virtuelle Container, sogenannte „Dynos“, um die Anwendungsverwaltung und -skalierung zu vereinfachen. 7 Darüber hinaus bietet es temporäre „Einmal-Dynos“ zur Ausführung bestimmter Operationen in einer serverlosen Funktionsweise.

Abbildung 7: Heroku-Dashboard

Anzahl der unterstützten Sprachen

Was sind serverlose Funktionen?

Serverlose Funktionen, auch bekannt als Function as a Service (FaaS), sind ein Cloud-Computing-Modell, ähnlich wie Cloud-GPUs. Es ermöglicht die Ausführung von Code, ohne die zugrunde liegenden Server oder die Infrastruktur verwalten zu müssen. In diesem Modell werden kleine, ereignisgesteuerte Codeabschnitte (Funktionen) geschrieben, die durch bestimmte Ereignisse wie eine HTTP-Anfrage, eine Datenbankaktualisierung oder eine Nachricht in einer Warteschlange ausgelöst werden.

Der Cloud-Anbieter kümmert sich um Serverbereitstellung, Skalierung und Verwaltung, sodass Sie sich auf die Entwicklung und Bereitstellung Ihres Codes konzentrieren können. In serverlosen Architekturen werden Ressourcen dynamisch und bedarfsgerecht skaliert. Bei Inaktivität wird die Infrastruktur auf null herunterskaliert, wodurch kein Ressourcenverbrauch und keine Kosten entstehen.

Steigt die Nachfrage hingegen, skaliert das System, um die erhöhte Arbeitslast zu bewältigen. Diese dynamische Skalierung gewährleistet Kosteneffizienz, da die Abrechnung auf den tatsächlich genutzten Ressourcen basiert.

Wie funktionieren serverlose Funktionen?

1. Ereignisauslöser:

Serverlose Funktionen sind ereignisgesteuert und werden durch HTTP-Anfragen, Datei-Uploads, Datenbankänderungen oder andere Ereignisse ausgelöst. Das Ereignis definiert, wann die Funktion ausgeführt werden soll.

2. Ausführung:

Sobald ein Ereignis ausgelöst wird, stellt der Cloud-Anbieter eine ressourcenschonende Umgebung zur Ausführung der Funktion bereit. Diese wird oft als „Container“ oder „Ausführungsumgebung“ bezeichnet. Der Code wird innerhalb dieser Umgebung ausgeführt, die Umgebung selbst ist jedoch temporär und wird nur für die Dauer der Funktionsausführung erstellt.

3. Skalierung:

Serverlose Plattformen sind so konzipiert, dass sie sich bedarfsgerecht automatisch skalieren. Treten mehrere Ereignisse gleichzeitig auf, startet die Plattform weitere Instanzen der Funktion, um diese zu verarbeiten – dies wird oft als horizontale Skalierung bezeichnet. 8 Der Cloud-Anbieter kümmert sich automatisch darum, sodass Sie die Infrastruktur nicht selbst verwalten müssen.

4. Herunterfahren:

Sobald die Funktion ihre Ausführung abgeschlossen hat, wird die Umgebung (der Container) heruntergefahren. Die serverlose Funktion wird nach Abschluss ihrer Aufgabe nicht mehr ausgeführt und verbraucht keine Ressourcen mehr.

Vorteile serverloser Funktionen

Keine Serververwaltung

Serverlose Funktionen entlasten Entwickler von der Bereitstellung, Verwaltung und Wartung der zugrundeliegenden Infrastruktur. Der Cloud-Anbieter übernimmt das Servermanagement wie Patches, Skalierung und Überwachung, sodass sich Entwickler auf die Entwicklung und Bereitstellung der Geschäftslogik konzentrieren können.

Dadurch wird die Komplexität der Verwaltung von Servern, Betriebssystemen oder Hardware abstrahiert, was zu weniger operativen Problemen für die Entwicklungsteams führt.

Mit AWS (Lambda) können Entwickler beispielsweise ihre Funktionen bereitstellen, ohne virtuelle Maschinen, Load Balancer oder Netzwerkkomponenten verwalten zu müssen. Die Plattform stellt die zur Ausführung der Funktion benötigten Ressourcen automatisch als Reaktion auf ein Ereignis bereit und gewährleistet so die Ausführung ohne manuelles Eingreifen.

Kosteneffizienz

Serverlose Anwendungen werden in der Regel nach tatsächlicher Ressourcennutzung abgerechnet, nicht nach vorab reservierter Rechenleistung oder Leerlaufzeiten. Dieses nutzungsbasierte Abrechnungsmodell ermöglicht es Unternehmen, nur für die tatsächliche Laufzeit ihres Codes zu zahlen, die oft sehr detailliert erfasst wird. Dies unterscheidet sich von traditionellen Cloud-Computing-Modellen, bei denen reservierte Rechenleistung auch dann bezahlt werden muss, wenn sie ungenutzt bleibt.

Sie zahlen beispielsweise nicht für ungenutzte Kapazität, wenn Ihre Funktion im Leerlauf ist oder nur geringe Auslastung verzeichnet . Steigt die Nachfrage hingegen sprunghaft an, passt die Plattform die Ressourcen automatisch an die Last an – ohne zusätzliche Kosten über Ihre tatsächliche Nutzung hinaus. Dadurch ist Serverless Computing eine äußerst kosteneffiziente Option, insbesondere für Workloads mit schwankenden Auslastungsmustern.

Automatische Skalierung

Eine der größten Stärken serverloser Funktionen ist ihre automatische Skalierung bei Bedarf. Werden Funktionen gleichzeitig durch viele Ereignisse ausgelöst, stellt die Plattform automatisch zusätzliche Ressourcen (z. B. neue Funktionsinstanzen) bereit, um die erhöhte Last zu bewältigen. Sobald der Bedarf wieder sinkt, reduziert das System die Ressourcen und stellt sicher, dass nur die notwendige Infrastruktur genutzt wird.

Bei Ereignissen mit hohem Datenverkehr, wie Produkteinführungen oder Blitzverkäufen, stellt eine serverlose Plattform wie AWS oder Azure Functions zusätzliche Ressourcen bereit, um die vielen zusätzlichen Anfragen zu bearbeiten. Nach dem Ende des Ereignisses wird die Plattform wieder heruntergefahren, um Ressourcen zu schonen und Kosten zu senken.

Schnelle Bereitstellung

Serverlose Funktionen lassen sich deutlich schneller bereitstellen als herkömmliche Anwendungen, insbesondere bei der Integration mit anderen Diensten. Denn Sie schreiben lediglich kleine, voneinander unabhängige Codeabschnitte (Funktionen), die durch bestimmte Ereignisse ausgelöst werden. Die Bereitstellung beschränkt sich auf das Hochladen des Funktionscodes auf die Plattform; das System kümmert sich um alles Weitere, von der Ressourcenbereitstellung bis zur Verwaltung der Laufzeitumgebung.

Die schnelle Bereitstellung ist der Schlüssel zur Beschleunigung der Entwicklungszyklen. Entwickler können schneller experimentieren und iterieren, da sie keine Zeit mit dem Einrichten der Infrastruktur oder der Verwaltung komplexer Bereitstellungspipelines verbringen müssen.

Dies kann die Zeit für die Veröffentlichung neuer Funktionen oder die Behebung von Fehlern erheblich verkürzen und so einen agileren Entwicklungsprozess fördern. Beispielsweise lässt sich schnell eine Funktion bereitstellen, die auf einen Datei-Upload in einem Speicherdienst oder eine API-Anfrage reagiert, ohne dass die Infrastruktur selbst verwaltet werden muss.

Methodik des Benchmarks für serverlose Funktionen

In diesem Test haben wir eine Funktion erstellt, die anhand des aktuellen Betriebssystems und User-Agents prüft, ob der Browser eines Website-Besuchers auf dem neuesten Stand ist. Wir wollten herausfinden, wie die einzelnen Plattformen mit dieser Art von Anfrage umgehen, die die Überprüfung mehrerer User-Agents auf Browser-Updates beinhaltet.

Testverfahren:

  1. Code-Implementierung: Es wurde eine Python-Funktion geschrieben, die den User-Agent-String eines Besuchers prüft. Die Funktion überprüft das aktuelle Betriebssystem und vergleicht es mit der Browserversion, um festzustellen, ob der Browser auf dem neuesten Stand ist. Der Code stellt einen einfachen Vergleich zwischen der aktuellen Browserversion und der vom Betriebssystem unterstützten Version dar.
  2. Parallele Anfragen: Die Funktion wurde 1000 Mal parallel ausgeführt, um realen Datenverkehr zu simulieren. Dabei wurden 10 Threads zur Lasterzeugung verwendet. Dies testet, wie die Plattformen mehrere Anfragen gleichzeitig verarbeiten können.
  3. Leistungskennzahlen: Während des Tests wurden mehrere wichtige Leistungskennzahlen erfasst, um die Leistungsfähigkeit der einzelnen Plattformen zu beurteilen.

Weiterführende Literatur

Entdecken Sie die neuesten Entwicklungen im Bereich serverloser Plattformen, indem Sie Folgendes besuchen:

Die 10+ besten Serverless-GPU-Anbieter 2025: AWS, Azure & mehr

FAQs

Serverlose Funktionen sind ressourcenschonend und laufen in einer zustandslosen Umgebung, in der der Cloud-Anbieter die Skalierung und Ressourcenverwaltung übernimmt. Im Gegensatz dazu packen containerisierte Funktionen Ihren Code mit allen Abhängigkeiten in einen Container, der überall ausgeführt werden kann. Dies ermöglicht eine bessere Kontrolle über die Ausführungsumgebung und die Skalierung.

Serverlose Funktionen wie AWS Cloud Functions (991259_1724 oder 991259_1712) sind ereignisgesteuert und skalieren automatisch bedarfsgerecht, ohne dass eine Infrastrukturverwaltung erforderlich ist. Cloud Functions bezeichnen beliebige cloudbasierte Rechenfunktionen, werden aber typischerweise mit dem serverlosen Modell in Verbindung gebracht, bei dem Ressourcen dynamisch bereitgestellt werden.

Sowohl AWS (AWS-Services) als auch Cloud Functions bieten robuste serverlose Umgebungen. AWS integriert sich nahtlos in andere AWS-Services und ermöglicht so die einfache Verbindung zwischen serverlosen Funktionen und Ressourcen wie S3 oder DynamoDB. Cloud Functions hingegen bietet umfassende Unterstützung für Sprachen wie Go und Python und ist hochskalierbar für die Verarbeitung ereignisgesteuerter Geschäftslogik. Ihre Wahl hängt von Ihrem bestehenden Cloud-Ökosystem und den spezifischen Anforderungen Ihrer serverlosen Anwendungen ab.

Serverlose Anwendungen auf Plattformen wie AWS Workers ermöglichen Entwicklern die Bereitstellung von Funktionen mit minimalem Aufwand. AWS Workers verbindet Funktionen mit anderen AWS-Services, während AWS Workers durch sein Edge-Computing-Modell auf latenzarme Ausführung setzt. Beide Plattformen skalieren automatisch datenverkehrsabhängig , sodass Sie sich nicht um die Infrastrukturverwaltung kümmern müssen. Diese Plattformen optimieren die Ausführung Ihres Funktionscodes und verbessern so die Leistung und Skalierbarkeit Ihrer serverlosen Anwendungen.

Sedat Dogan
Sedat Dogan
CTO
Sedat ist ein führender Experte für Technologie und Informationssicherheit mit Erfahrung in Softwareentwicklung, Web-Datenerfassung und Cybersicherheit. Sedat: – Verfügt über 20 Jahre Erfahrung als White-Hat-Hacker und Entwicklungsexperte mit umfassenden Kenntnissen in Programmiersprachen und Serverarchitekturen. – Berät Führungskräfte und Vorstandsmitglieder von Unternehmen mit hohem Datenverkehr und geschäftskritischen Technologieanwendungen wie Zahlungsinfrastruktur. – Besitzt neben seiner technischen Expertise auch ausgeprägtes betriebswirtschaftliches Verständnis.
Vollständiges Profil anzeigen
Recherchiert von
Ekrem Sarı
Ekrem Sarı
KI-Forscher
Ekrem ist KI-Forscher bei AIMultiple und konzentriert sich auf intelligente Automatisierung, GPUs, KI-Agenten und RAG-Frameworks.
Vollständiges Profil anzeigen

Seien Sie der Erste, der kommentiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450