Neue LLMs, wie zum Beispiel die GPT-5-Familie von OpenAI, gibt es in verschiedenen Ausführungen (z. B. GPT-5, GPT-5-mini und GPT-5-nano) und mit verschiedenen Parametereinstellungen, darunter hoch, mittel, niedrig und minimal.
Im Folgenden untersuchen wir die Unterschiede zwischen diesen Modellversionen, indem wir ihre Benchmark-Leistung und die Kosten für die Durchführung der Benchmarks erfassen.
Preis vs. Erfolg: Wichtigste Erkenntnisse
Wir verwendeten die GPT-5-Familie in unserer Analyse. Wir verwendeten sechs Benchmarks in verschiedenen Bereichen, darunter logisches Denken, Codierung, Befolgen von Anweisungen und Mathematik.
Unsere Analyse ergab:
- Im Durchschnitt aller Vergleichstests erzielen GPT-5 (hoch) und GPT-5 (mittel) nahezu identische Erfolgsquoten (65 % bzw. 64 %), wobei GPT-5 (hoch) jedoch fast doppelt so viel kostet (511 $ gegenüber 280 $). Darauf folgen GPT-5-mini (hoch) , GPT-5 (niedrig) und GPT-5-mini (mittel) mit Erfolgsquoten von 62 %, 61 % bzw. 60 % zu deutlich niedrigeren Preisen von 105 $, 90 $ bzw. 28 $. Dies zeigt, dass durch die Akzeptanz eines Rückgangs der Erfolgsquote von nur etwa 5 % die Aufgaben zu bis zu 18-mal geringeren Kosten erledigt werden können, indem von GPT-5 (hoch) auf GPT-5-mini (mittel) umgeschaltet wird.
- GPT-5-mini (hoch) übertrifft GPT-5 (niedrig) in nahezu allen Benchmarks und das zu gleichen oder sogar geringeren Kosten. In IFBench liegen die Erfolgsquoten bei 75 % gegenüber 67 %, in AIME 2025 bei 97 % gegenüber 83 %, in Humanity's Last Exam bei 20 % gegenüber 18 % und in GPQA Diamond bei 83 % gegenüber 81 %. In SciCode erreichen beide Versionen mit 39 % die gleiche Erfolgsquote, dennoch ist GPT-5-mini (hoch) kostengünstiger.
- Das teuerste Modell, GPT-5 (hoch), übertrifft das zweitbeste Modell nur in drei Benchmarks, und selbst da beträgt der Unterschied nicht mehr als 3 %. In allen anderen Benchmarks wird es von günstigeren Alternativen übertroffen.
Hoch-mittel-niedrig-minimal Parametereinstellungen
Obwohl LLM-Parameter häufig anhand numerischer Anpassungen beschrieben werden, können sie auch als qualitative Bereiche wie hoch, mittel und niedrig ausgedrückt werden. Diese Bereiche sind keine festen Standards, sondern konzeptionelle Kategorien, die beschreiben, welchen Einfluss ein Parameter auf das Modellergebnis ausübt.
Mithilfe dieser drei Stufen lassen sich die Einstellungen für verschiedene Aufgaben schnell anpassen, je nach gewünschtem Grad an Kreativität, Determinismus oder Länge. Diese Stufen sind besonders hilfreich bei der Anpassung von Parametern wie Top-P, maximale Tokenanzahl und Strafen.
Der Parameter „medium“ bezieht sich auf die reguläre (nicht parametrisierte) Version eines Modells.
Minimale Einstellungen :
- Top-p / Top-k: Sehr niedrig (top-p ≈ 0,1–0,2, top-k = 1–5)
- Maximale Tokenanzahl: Kurzes Limit
- Strafen: Sehr gering oder keine
- Auswirkungen:
- Hochgradig deterministisch, nahezu identische Ergebnisse bei jeder Messung.
- Sehr prägnant, sachlich und stringent.
- Ideal für Code, Mathematik, Datenbankabfragen oder die Beantwortung strenger Compliance-Anforderungen.
- Sehr eingeschränkt, mit geringer Zufälligkeit, wodurch Vorhersagbarkeit und Präzision begünstigt werden.
Niedrige Einstellung:
- Top-p / Top-k: Niedrig (top-p ≈ 0,3–0,5, top-k = 5–10)
- Maximale Tokenanzahl: Kurz bis mittel
- Strafen: Niedrig bis mittel
- Auswirkungen:
- Größtenteils deterministisch, erlaubt aber geringfügige Abweichungen.
- Reduziert die Anzahl der Roboterwiederholungen im Vergleich zum Minimum.
- Geeignet für Zusammenfassungen, strukturierte Erklärungen oder professionelle Texte mit einheitlichem Stil.
Mittlere Einstellung :
- Top-p / Top-k: Mittel (top-p ≈ 0,7–0,9, top-k = 20–50)
- Maximale Token-Länge: Mittlere Länge
- Strafen: Moderat, um Wiederholungen zu vermeiden, aber gleichzeitig Kreativität zu ermöglichen.
- Auswirkungen:
- Ausgewogenes Verhältnis zwischen Genauigkeit und Kreativität.
- Erzeugt natürliche Reaktionen, die von Durchlauf zu Durchlauf leicht variieren.
- Geeignet für allgemeine Fragerunden, Entwurfsarbeiten und Brainstorming.
Hohe Einstellung :
- Top-p / Top-k: Hoch (top-p ≈ 0,95–1,0, top-k = 50–100)
- Maximale Tokenanzahl: Hohes Limit für längere Ausgaben
- Strafen: Mittel bis hoch, fördern Vielfalt und Neuheit
- Auswirkungen:
- Äußerst kreative und vielfältige Ergebnisse.
- Weniger vorhersehbar, mit einem höheren Risiko für Halluzinationen .
- Ideal für Storytelling, Ideenfindung, Rollenspiele und kreatives Schreiben.
Um zu entscheiden, welches Niveau verwendet werden soll, beachten Sie Folgendes:
- Aufgabenart/Zweck : Wenn Genauigkeit erforderlich ist ( juristisch , medizinisch , Code , faktisch ), wählen Sie minimal oder mittel. Wenn Kreativität, Ausdruck oder Neuartigkeit gefragt sind, ist eine hohe Stufe möglicherweise besser geeignet.
- Fehlertoleranz : Wie gravierend sind gelegentliche Ausrutscher oder Fehler? Bei geringer Fehlertoleranz sollte eine hohe Zufälligkeit vermieden werden.
- Rechenbeschränkungen : Große Ausgabelängen und hohe Zufälligkeit erfordern oft mehr Rechenleistung und Speicherplatz.
- Modellgröße : Größere Modelle kommen tendenziell besser mit hoher Zufälligkeit zurecht, während kleinere Modelle unter hohen Einstellungen deutlich an Leistung einbüßen können.
- Gewünschte Ausgabelänge : Längere generierte Texte können abweichen, daher ist eine hohe Zufälligkeit in Kombination mit einer großen Länge riskanter.
GPT-5
GPT-5 vereint hohes logisches Denkvermögen mit mittlerer Geschwindigkeit und eignet sich daher für komplexe, mehrstufige Aufgaben, bei denen Genauigkeit und Anpassungsfähigkeit entscheidend sind.
- Kontextfenster : 400.000
- Maximale Ausgabeanzahl Token : 128.000
- Stichtag für die Kenntnisaufnahme : 30. September 2024
- Begründung : Höher, mit Unterstützung für Begründungstoken
Preisgestaltung (pro 1 Million Token)
- Eingabe: 1,25 $
- Zwischengespeicherte Eingabe: 0,125 $
- Ausgabe: 10,00 $
Modalities
- Text: Eingabe und Ausgabe
- Bild: Nur Eingabe
- Audio: nicht unterstützt
GPT-5 mini
GPT-5 mini ist eine kleinere, schnellere und kostengünstigere Version von GPT-5. Es behält seine starke analytische Leistungsfähigkeit bei und eignet sich besser für klar definierte Aufgaben.
- Kontextfenster : 400.000
- Maximale Ausgabeanzahl Token : 128.000
- Stichtag für die Kenntnisaufnahme : 31. Mai 2024
- Funktionen : Unterstützt Websuche, Dateisuche und Codeinterpreter.
Preis pro 1 Million Token :
- Eingabe: 0,25 $
- Zwischengespeicherte Eingabe: 0,025 $
- Ausgabe: 2,00 $
GPT-5 nano
GPT-5 nano ist die schnellste und günstigste Option und wurde für einfache Aufgaben wie Klassifizierung und Zusammenfassung entwickelt.
- Kontextfenster : 400.000
- Maximale Ausgabeanzahl Token : 128.000
- Stichtag für die Kenntnisaufnahme : 31. Mai 2024
- Funktionen : Unterstützt Dateisuche, Bildgenerierung und Codeinterpreter (jedoch keine Websuche).
Preis pro 1 Million Token :
- Eingabe: 0,05 $
- Zwischengespeicherte Eingabe: 0,005 $
- Ausgabe: 0,40 $
Merkmale der GPT-5-Serie
Die Serie GPT-5 bietet zahlreiche Funktionen zur Verbesserung von Steuerung, Formatierung und Effizienz. Diese Funktionen gelten für die Modelle GPT-5, GPT-5 Mini und GPT-5 Nano.
Ausführlichkeitsparameter
Der Ausführlichkeitsparameter ermöglicht es Entwicklern, den Detaillierungsgrad der Modellausgaben zu beeinflussen, ohne die Eingabeaufforderung zu verändern.
Es akzeptiert drei Werte:
- Niedrig: kurze und prägnante Ergebnisse
- Mittel: Ausgewogene Ergebnisse (Standard)
- Hoch: Detaillierte Ausgaben, geeignet für Erläuterungen, Dokumentationen oder Überprüfungen
Höhere Ausführlichkeit führt zu längeren Antworten und einem häufigeren Einsatz von Ausgabetoken.
Freiform-Funktionsaufruf
Die GPT-5-Serie unterstützt benutzerdefinierte Tool-Aufrufe, die Rohdaten anstelle von strukturiertem JSON verarbeiten. Dadurch können Code, SQL-Abfragen oder Konfigurationstext generiert werden, der direkt an externe Laufzeitumgebungen wie beispielsweise die folgenden übergeben wird:
- Code-Sandboxes
- SQL-Engines
- Shell-Umgebungen
- Konfigurationssysteme
Der benutzerdefinierte Werkzeugtyp unterstützt keine parallelen Werkzeugaufrufe. Er ist für Situationen gedacht, in denen natürlicher Text einem strikten JSON-Schema vorzuziehen ist.
Unterstützung für kontextfreie Grammatiken (CFG)
Modelle können Texte erzeugen, die einer mit Lark oder regulären Ausdrücken definierten Grammatik entsprechen. Dadurch wird sichergestellt, dass der generierte Text strengen Strukturregeln folgt. Typische Anwendungsfälle sind:
- Erzwingen bestimmter SQL-Dialekte
- Einschränkung von Zeitstempeln oder Kennungen
- Validierung von Konfigurationsformaten
Bei der Verwendung von CFGs definieren Entwickler Terminals und Regeln, die die Menge der zulässigen Zeichenketten beschreiben. Das Modell erzeugt nur Ausgaben, die diesen Regeln entsprechen.
Minimaler Denkmodus
Der Modus für minimales Schließen reduziert oder entfernt Schließungstoken. Dies verringert die Latenz und verbessert die Zeit bis zum ersten Token.
Es eignet sich für Aufgaben wie:
- Einstufung
- Kurze Überarbeitungen
- Strukturierte Extraktion
- Grundlegende Formatierungsvorgänge
Wenn keine Begründungseinstellung angegeben ist, ist der Standardaufwand mittel.
Wesentliche Unterschiede
Die drei Modelle unterscheiden sich hauptsächlich in ihrer Analysetiefe, Geschwindigkeit und ihren Kosten. Die neuen Funktionen sind modellübergreifend einsetzbar, ihre Auswirkungen variieren jedoch je nach Modell.
Argumentation
- GPT-5 bietet die stärkste Argumentationsfähigkeit. Es eignet sich für komplexe, mehrstufige Probleme in der Programmierung, der wissenschaftlichen Analyse oder der Entscheidungsunterstützung.
- GPT-5 mini bietet starke Argumente für strukturierte Aufgabenstellungen mit vorhersehbaren Aufgabengrenzen.
- GPT-5 nano verfügt über eine mäßige Denkleistung und eignet sich am besten für Aufgaben, die keine tiefgehende Analyse erfordern.
- Der Modus für minimales Denken kann mit allen Modellen verwendet werden und bietet den größten Nutzen für GPT-5 nano und GPT-5 mini, da diese einen Geschwindigkeitsvorteil bieten.
Geschwindigkeit
- GPT-5 nano ist die schnellste Option und eignet sich effektiv für Echtzeit- oder umfangreiche Workloads.
- GPT-5 mini vereint Geschwindigkeit und Logik und eignet sich daher für reguläre Produktionsworkloads.
- GPT-5 ist langsamer, weil es mehr interne Schlussfolgerungen zieht, aber das führt zu einem präziseren Ergebnis.
- Der Minimal Reasoning Mode kann die Latenz weiter reduzieren, insbesondere für Nano-Systeme.
Kosten
- GPT-5 nano bietet die niedrigsten Kosten pro Token. Es eignet sich besonders für Aufgaben mit hohem Datenvolumen, wie z. B. Stapelklassifizierung oder Zusammenfassung.
- GPT-5 mini ist im mittleren Preissegment angesiedelt und bietet ein ausgewogenes Verhältnis zwischen Leistung und Kosten.
- GPT-5 ist das teuerste Modell und wird typischerweise dann eingesetzt, wenn Genauigkeit und Konsistenz Priorität haben.
- Die Ausführlichkeitseinstellungen beeinflussen die Kosten, da eine höhere Ausführlichkeit zu mehr Ausgabetoken führt.
Was sind LLM-Parameter?
LLM-Parameter sind Einstellungen, die beeinflussen, wie große Sprachmodelle (LLMs) während der Inferenz Text generieren . Diese Parameter verändern nicht die gelernten Gewichte eines vortrainierten Modells. Stattdessen bestimmen sie, wie das Sprachmodell bei der Generierung von Antworten aus einer Wahrscheinlichkeitsverteilung über wahrscheinliche Tokens zieht.
Große Sprachmodelle sind neuronale Netzwerksysteme, die typischerweise auf der Transformer-Architektur basieren. Während des Trainings lernt das Modell numerische Werte, sogenannte Gewichte und Bias-Werte. Gewichte repräsentieren die Bedeutung, die verschiedenen Eingaben zugewiesen wird, und ermöglichen es dem Modell, Beziehungen zwischen Wörtern, Konzepten und Kontext zu erfassen. Bias-Werte sind konstante Werte, die innerhalb der Schichten hinzugefügt werden und dazu beitragen, Neuronen unter bestimmten Bedingungen zu aktivieren. Zusammen bestimmen diese Werte die Fähigkeit des Modells, komplexe Sprachmuster zu erkennen.
Inferenzparameter hingegen greifen erst nach dem Training. Sie beeinflussen, wie das erlernte Wissen des Modells genutzt wird, ohne die zugrundeliegenden Gewichtungen zu verändern. Durch die Anpassung der LLM-Parameter können Benutzer die Diversität, Vorhersagbarkeit, Wiederholung und Länge der Ausgabe beeinflussen. Dies ist essenziell für die Optimierung der Modellleistung bei spezifischen Aufgaben wie kreativem Schreiben, strukturierter Textgenerierung oder technischen Erklärungen.
Zu den wichtigsten Parametern gehören die Auswahl der Top-P-Kerne, die maximale Anzahl an Tokens, die Frequenzstrafe, die Präsenzstrafe und die Stoppsequenzen. Zusammen steuern diese Sampling-Parameter die generierte Ausgabe und sorgen gleichzeitig für ein ausgewogenes Verhältnis zwischen Ausgabequalität, Rechenaufwand und Inferenzeffizienz.
Modellgröße, Parameter und Trainingsgrundlagen
Die Anzahl der Parameter in großen Sprachmodellen kann in die Milliarden gehen. Größere Modelle sind typischerweise besser in der Lage, nuancierte Sprache, langfristige Abhängigkeiten und komplexe Schlussfolgerungen zu verarbeiten. Diese verbesserte Modellleistung geht jedoch mit einem höheren Rechenleistungsbedarf sowohl beim Training als auch bei der Inferenz einher.
Kleinere Modelle benötigen weniger Rechenressourcen und bieten eine höhere Recheneffizienz, können aber bei komplexeren Mustern oder längeren Kontextfenstern Schwierigkeiten haben. Die Wahl zwischen größeren und kleineren Modellen hängt von der Aufgabe, der akzeptablen Latenz und der verfügbaren Infrastruktur ab. Informationen darüber, wie KI-Forscher den Einfluss von Modellgröße, Datenqualität und Trainingsstrategie bewerten, finden Sie in den LLM-Skalierungsgesetzen .
Mehrere Trainingsparameter beeinflussen, wie ein Modell vor der Inferenz lernt:
- Die Batchgröße bezeichnet die Anzahl der Trainingsbeispiele, die verarbeitet werden, bevor das Modell seine Gewichte aktualisiert. Größere Batchgrößen verbessern die Trainingseffizienz, erhöhen aber den Speicherbedarf.
- Die Lernrate steuert, wie schnell das Modell seine Gewichte und Bias-Werte anpasst. Höhere Werte beschleunigen das Lernen, bergen aber das Risiko von Instabilität, während niedrigere Werte eine stetige Konvergenz fördern.
- Hyperparameter definieren externe Einstellungen wie Modellgröße, Batchgröße und Lernrate und prägen so den gesamten Trainingsprozess.
Nach dem Vortraining sind Feinabstimmung und Ausrichtung unerlässlich. Die Feinabstimmung passt ein vortrainiertes Modell an domänenspezifische Daten oder Aufgaben an, während die Ausrichtung sicherstellt, dass der generierte Text die menschliche Intention widerspiegelt.
Parameter-Efficient Fine-Tuning (PEFT) verbessert die Recheneffizienz, indem die meisten Parameter eingefroren und nur eine kleine Teilmenge der aufgabenrelevanten Parameter aktualisiert wird.
Top-p-Sampling
Das Top-p-Sampling, auch bekannt als Nucleus-Sampling, beschränkt die Token-Auswahl auf die kleinste Gruppe, deren kumulative Wahrscheinlichkeit einen vorgegebenen Schwellenwert p überschreitet. Anstatt aus einer festen Anzahl von Token auszuwählen, wählt das Modell dynamisch aus wahrscheinlichen Token aus, die zusammen die angegebene Wahrscheinlichkeitsmasse ausmachen.
- Niedrigere Werte (z. B. p = 0,5) beschränken die Stichprobenziehung auf eine kleine Menge der Token mit der höchsten Wahrscheinlichkeit, was zu einem kohärenten, aber weniger abwechslungsreichen Text führt.
- Höhere Werte (z. B. p = 0,9) ermöglichen die Stichprobenziehung aus einem breiteren Pool, wodurch die Ergebnisvielfalt erhöht wird, aber auch das Risiko besteht, vom Thema abzuweichen.
Top-k-Sampling
Die Top-k-Sampling-Methode beschränkt die Auswahl des Modells auf die k wahrscheinlichsten Token für den nächsten Schritt der Textgenerierung. Durch die Verkleinerung der Kandidatenmenge beeinflusst dieser Parameter direkt die Vorhersagbarkeit und die Vielfalt der Elemente.
- Niedrigere Top-k-Werte beschränken die Auswahl auf eine kleine Menge hochwahrscheinlicher Token, was zu vorhersehbareren und fokussierteren Ergebnissen führt.
- Höhere Werte erweitern den Kandidatenpool, erhöhen die Variabilität und unterstützen eine größere sprachliche Vielfalt.
Während sich das Top-p-Sampling dynamisch an die Wahrscheinlichkeitsmasse anpasst, verwendet das Top-k-Sampling einen festen Schwellenwert. Beide Verfahren werden häufig bei der Modellevaluierung verglichen, um optimale Einstellungen für spezifische Aufgaben zu ermitteln.
Maximale Tokenanzahl (Die Tokenanzahl)
Der Parameter „max_tokens“ definiert die maximale Anzahl an Tokens, die das Modell in einer einzelnen Antwort generieren kann. Er bestimmt direkt die Ausgabelänge und beeinflusst den Rechenaufwand.
- Niedrigere Maximalwerte erzwingen zwar prägnante Antworten, können aber wichtige Details ausblenden.
- Höhere Werte ermöglichen detailliertere Erklärungen, erfordern aber mehr Rechenressourcen und verlängern die Schlussfolgerungszeit.
Die maximale Anzahl an Tokens ist durch das Kontextfenster begrenzt, das sowohl die Eingabedaten als auch die generierte Ausgabe umfasst. Überschreitet die Gesamtanzahl der Tokens das Tokenlimit des Modells, wird die Generierung unabhängig von der eingestellten maximalen Tokenanzahl gestoppt.
Frequenzstrafparameter
Die Frequenzstrafe passt die Wahrscheinlichkeit von Tokens an, basierend darauf, wie oft sie bereits im generierten Text vorgekommen sind.
- Positive Werte reduzieren Wiederholungen und verbessern so die Ausgabequalität bei längeren Antworten.
- Negative Werte fördern die Wiederverwendung, was für Dokumente, die eine einheitliche Terminologie erfordern, hilfreich sein kann.
Zu hohe Strafen können die Kohärenz beeinträchtigen, da natürliche Wiederholungen für menschenähnliche Texte oft notwendig sind. Dieser Parameter ist am effektivsten bei der Optimierung der Modellleistung für die Generierung längerer Texte.
Anwesenheitsstrafe
Die Anwesenheitsstrafe verringert die Wahrscheinlichkeit, dass Token mindestens einmal aufgetreten sind, unabhängig von ihrer Häufigkeit. Dies regt das Modell dazu an, neue Ideen einzuführen.
- Positive Werte fördern Neuheit und Entdeckergeist, was beim Brainstorming und kreativen Schreiben hilfreich ist.
- Negative Werte verstärken bestehende Terme, was bei strukturierten oder eingeschränkten Ausgaben hilfreich sein kann.
Die Präsenzstrafe ist ein wertvolles Kontrollinstrument zur Steuerung der Ideenvielfalt, sollte aber mit Bedacht angewendet werden, um eine unnatürliche Vermeidung von Schlüsselbegriffen zu vermeiden.
Stoppsequenzen
Stoppsequenzen definieren bestimmte Token oder Zeichenketten, die dem Modell signalisieren, die Generierung zu beenden. Sie werden häufig in strukturierten Anwendungen verwendet.
- Nützlich zur Durchsetzung von Vorlagen in Dialogsystemen oder bei der Codegenerierung.
- Hilft dabei, die Ausgabelänge zu kontrollieren und irrelevante Fortsetzungen zu verhindern.
Stoppsequenzen verbessern die Vorhersagbarkeit generierter Textausgaben, ohne sich ausschließlich auf Tokenbegrenzungen zu verlassen.
Saat und Determinismus
Bei einigen Systemen können Benutzer einen Zufallsgenerator (Seed) festlegen, um sicherzustellen, dass dieselben Eingabedaten und Parametereinstellungen die gleiche Ausgabe erzeugen.
- Nützlich für die Modellevaluierung und -prüfung.
- Hilft dabei, verschiedene Parameterkonfigurationen zu vergleichen, ohne dass zufällige Schwankungen die Ergebnisse beeinflussen.
Deterministische Generierung unterstützt die Reproduzierbarkeit, obwohl die genauen Ergebnisse je nach KI-Modell oder Einsatzumgebung variieren können.
Unterschiede zwischen Schlüsselparametern
Das Verständnis der Unterschiede zwischen den Schlüsselparametern hilft bei der Anpassung der LLM-Parameter für optimale Ergebnisse.
- Häufigkeitsstrafe vs. Anwesenheitsstrafe : Die Häufigkeitsstrafe skaliert mit der Häufigkeit des Erscheinens eines Spielsteins, während die Anwesenheitsstrafe nur einmalig nach dem ersten Erscheinen eines Spielsteins fällig wird.
- Top-k- vs. Top-p-Sampling : Top k beschränkt die Auswahl auf eine feste Anzahl von Token, während Top p Token dynamisch auf Basis der kumulativen Wahrscheinlichkeit auswählt.
- Max Tokens vs Kontextfenster : Max Tokens begrenzt die Ausgabelänge, während das Kontextfenster eine feste Obergrenze darstellt, die sowohl Eingabe- als auch Ausgabetokens umfasst.
Durch die sorgfältige Abstimmung dieser Parameter können Anwender die Ausgabequalität, die Recheneffizienz und die Leistungsfähigkeit des LLM in verschiedenen Anwendungsbereichen wie der erweiterten Datengenerierung, analytischen Aufgaben und der Generierung offener Texte in Einklang bringen.
Seien Sie der Erste, der kommentiert
Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.