Mit GPT-5 wird die stochastische Natur von Sprachmodellen verfeinert, indem ein größeres Kontextfenster und verbesserte Stilparameter genutzt werden, um präzisere Texte zu erzeugen. Der Thinking-Modus ermöglicht es, gedankliche Zwischenschritte zu überprüfen, während klare Anweisungen die Umsetzung von Vorgaben erleichtern. Trotz dieser Verbesserungen bleibt die kritische Prüfung der Inhalte wichtig, da das Modell weiterhin ungenaue Antworten liefern kann. Die bewusste Steuerung des Modells ist entscheidend, um die gewünschten Ergebnisse zu erzielen.

Frühsommer 2025

Im Artikel “Fakten in einem stochstischem Sytem” habe ich beschrieben, wie große Sprachmodelle wie GPT 4.0 ihre Texte aus Wahrscheinlichkeit erzeugen. Diese stochastische Grundlage bestimmt, welche Formulierungen entstehen und welche Muster sich wiederholen. Mit dem Erscheinen von GPT-5 lohnt es sich, diese Analyse neu zu betrachten. Die Architektur ist gleich geblieben, doch der erweiterte Werkzeugkasten verändert den Umgang mit dem Modell deutlich.

Der stochastische Raum

Ein Sprachmodell bewegt sich in einem Raum, der nicht von Fakten, sondern von Wahrscheinlichkeiten geprägt ist. Jede Formulierung ist das Ergebnis einer Berechnung aus den gelernten Korrelationen der Trainingsdaten. Manche Wege in diesem Raum werden häufiger beschritten, weil sie statistisch „bequem“ sind.

Mit GPT-5 lässt sich dieser Raum feiner ausleuchten. Das große Kontextfenster hält deine Zusammenhänge über lange Passagen hinweg. Der Thinking-Modus ermöglicht es dir, gedankliche Zwischenschritte zu prüfen, bevor ein Satz erscheint.

Beispiel: Wenn ich GPT-4 gebeten habe, einen Abschnitt ohne Einleitungsfloskeln zu schreiben, erschien oft dennoch ein Satz wie „In diesem Artikel möchte ich…“. In GPT-5 kann ich diese Vorgabe klarer verankern, und das Modell hält sie in längeren Texten stabil ein.

Wahrscheinlichkeitsarchitektur in der Praxis

Die Berechnung jeder Antwort folgt weiterhin der gleichen Mechanik: Token für Token wird die wahrscheinlichste Fortsetzung ermittelt. In meiner ersten Analyse habe ich gezeigt, dass daraus wiederkehrende Strukturen entstehen, etwa additive Wiederholungen oder selbstabsichernde Wendungen.

GPT-5 verändert daran den Rahmen, nicht das Prinzip. Die Kombination aus großem Kontext und Stilparametern hilft, Vorgaben dauerhaft umzusetzen. So kann ich im Prompt nicht nur den Inhalt, sondern auch den Detaillierungsgrad und die Tonalität festlegen.

Beispiel: Ein Prompt wie

„Formuliere einen sachlichen Absatz mit 14–16 Wörtern pro Satz, ohne Einleitungsfloskeln und ohne Wiederholungen“

führt in GPT-5 deutlich häufiger im ersten Anlauf zum Zieltext als in GPT-4.

Muster erkennen und steuern

Frühere Modelle zeigten typische Eigenarten: wohlmeinende Einleitungen, additive Wiederholungen und übervorsichtige Absicherungen. In GPT-4 ließ sich das nur teilweise im Voraus unterbinden.

In GPT-5 treten diese Muster seltener auf. Stilanker wie „keine Einleitungssätze“ oder „keine wiederholten Argumente“ werden zuverlässiger umgesetzt. Die Persona-Funktion erlaubt es, den Tonfall zu justieren – etwa sachlich-präzise, erklärend oder knapp informativ.

Beispiel: Wenn ich eine Analyse im Stil einer technischen Dokumentation anfordere, verzichtet GPT-5 meist auf dekorative Übergänge und bleibt durchgehend im definierten Format.

Steuerung als Arbeitsprinzip

Das bewusste Steuern des Modells bleibt zentral. Auch mit GPT-5 gilt: Wer den Output formen will, muss klare, strukturierte Anweisungen geben. Neu ist, dass sich diese Anweisungen länger halten und in mehr Details umsetzen lassen.

Du kannst mit einem Set fester struktureller Anker arbeiten – etwa Absatzlängen, Satzlängen und Zwischenüberschriften – und zusätzlich die gewünschten stilistischen Eigenheiten fixieren. Die Modellantwort bleibt auch bei langen Texten näher am definierten Rahmen.

Kritisch bleiben

GPT-5 wirkt konsistenter und plausibler, doch die stochastische Natur bleibt unverändert. Das Modell kann weiterhin ungenaue, vereinfachte oder rein wahrscheinlichkeitstreue Antworten liefern. Der Thinking-Modus reduziert diesen Effekt, ersetzt dir aber nicht die kritische Prüfung.

Hier helfen mir, und sicherlich auch dir, konkrete Routinen: Inhalte querprüfen, mehrere Antwortvarianten vergleichen, Widersprüche notieren. So wird das Modell zu einem präziseren Werkzeug. Du verlässt dich nicht nur auf "seine" Plausibilität.

Fazit

Der stochastische Raum hat sich mit GPT-5 nicht verändert – wohl aber unsere Möglichkeiten, uns darin zu bewegen. Ein größeres Kontextfenster, erweiterte Stilsteuerung und der Thinking-Modus erlauben eine präzisere Navigation. Die Muster, die ich vor einiger Zeit beschrieben habe, sind in abgeschwächter Form noch vorhanden. Wer sie erkennt und bewusst steuert, kann mit GPT-5 Texte erzeugen, die näher an den eigenen Vorgaben liegen.

Jetzt wird es interessant sein, den nächsten Schritt des Rennens um das beste LLM zu beobachten. Ich werde hier weiterhin dazu posten und bin gespannt, wie die Marktbegleiter von OpenAI schon auf ChatGPT 5.0 reagiert haben und oder reagieren werden.