Dieser Text gibt dir einen kleinen Einblick in einen Workshop, in dem ich zeige, wie du den Einstieg in die Arbeit mit LLMs gestalten kannst. Du bekommst hier eine Vorstellung davon, wie du Schritt für Schritt eine bewusste und strukturierte Kommunikation mit dem Modell aufbaust.

Wie du ein LLM als sprachlichen Gesprächspartner einweist, führst und besser verstehst

Warum Sprache mehr ist als ein Auftrag

Wenn du heute zum ersten Mal mit einem Sprachmodell wie ChatGPT arbeitest, dann wirkst du auf das System wie eine gänzlich unbekannte Person. Es gibt kein Vorwissen, keine Beziehung, keinen Kontext. Und genau das ist die Ausgangslage, auf die ich im Workshop zu sprechen gekommen bin: Die meisten Menschen behandeln ein LLM zu Beginn wie eine Mischung aus Orakel, Suchmaschine und Schreibkraft. Sie tippen eine Frage oder einen Arbeitsauftrag ein – etwa: „Fass diesen Artikel zusammen“ oder „Schreib mir eine E-Mail zur Einladung“ – und hoffen auf eine brauchbare Antwort. Wenn diese nicht passt, wird sie umformuliert, gekürzt, erweitert, nachgeschärft. Es entsteht ein Kommunikationsstil, der auf Trial and Error basiert, aber kein systematischer Dialog ist.

Ich habe im Workshop ein anderes Bild vorgeschlagen: Ein LLM ist ein Praktikant. Und zwar einer, der klug, lernfähig, schnell und ausdauernd ist, aber noch nie mit dir gearbeitet hat. Er kennt weder deine Erwartungen noch deine Art zu denken. Er weiß nicht, wie du Informationen strukturierst, worauf du bei einer Antwort Wert legst oder welche Tonalität du bevorzugst. Ob dir etwas zu lang, zu kurz oder zu vage erscheint – all das ist ihm unbekannt. Dieses Bild hat bei den Teilnehmenden sofort etwas geöffnet. Denn es verschiebt den Fokus: weg vom Output, hin zur Qualität der Eingabe. Wenn ich diesen Praktikanten gut einweise, bekomme ich gute Arbeit. Wenn ich ihm zu wenig Kontext gebe, wird er raten. Und wenn ich ihn kritisiere, ohne ihm vorher gesagt zu haben, wie ich es lieber gehabt hätte, bleibt die Verbesserung aus.

Sprachmodelle verstehen: keine Datenbank, sondern Resonanzraum

Sprachmodelle funktionieren genau so – allerdings nicht wie klassische Datenbanken, die auf feste Stichworte mit gespeicherten Informationen reagieren, sondern als statistische Systeme, die Sprache auf der Grundlage von Wahrscheinlichkeiten fortsetzen. Sie sind keine starren Antwortmaschinen, sondern dialogische Textgeneratoren, die sich auf sprachliche Muster einstellen, wenn man sie lässt.

Ich habe den Teilnehmenden gezeigt, wie ein LLM allmählich beginnt, die eigene Arbeitsweise mitzulernen. Nicht inhaltlich, sondern strukturell: Wie stelle ich Fragen? Wie differenziert sind meine Aufträge? Hole ich mir Feedback? Habe ich eine eigene Sprache entwickelt, die für das Modell erkennbar ist? Und wenn ja: Erkenne ich sie selbst? Woran macht sich diese Sprache fest? An der Struktur meiner Fragen, an der Art meiner Übergänge, an wiederkehrenden Begriffen, an der Tonlage? Diese Reflexion lohnt sich – denn sie zeigt nicht nur, wie Sprache wirkt, sondern auch, wie sie sich mit der Zeit verdichtet. Und ob sie – bei aller Präzision – noch offen genug bleibt für echte Zusammenarbeit.

Wer mit einem LLM arbeitet, führt nicht einfach einen Auftrag aus. Er oder sie bringt einem neuronalen Netz bei, wie gemeinsam gedacht wird.

Worum es wirklich geht

Diese Anleitung ist deshalb mehr als ein technisches Handout. Sie ist ein Vorschlag, wie du die Zusammenarbeit mit einem Sprachmodell so aufbauen kannst, dass du nicht nur Antworten erhältst, sondern auch Rückmeldung, Verständnis und Differenzierung. Und sie zeigt dir, warum es sich lohnt, diesen Weg bewusst zu gehen: Weil die Sprache, die du in ein Modell gibst, nicht nur Ergebnisse erzeugt, sondern auch dich selbst spiegelt – deine Denkstruktur, deinen Stil, deine impliziten Muster.

Wer sich auf diese Art des Arbeitens einlässt, lernt nicht nur die Maschine besser kennen, sondern auch die eigene Art zu denken.

Schritt 1: Stelle Fragen, bevor du Antworten erwartest

Warum die erste Eingabe noch keine Zusammenarbeit ist

Wenn du beginnst, mit einem LLM zu arbeiten, liegt es nahe, eine Aufgabe zu formulieren: "Schreib mir eine E-Mail", "Fass diesen Artikel zusammen", "Nenn mir drei Vorteile von XY". Solche Einstiege sind nicht nur zulässig, sie sind oft hilfreich. Gerade am Anfang verschaffen sie dir ein Gefühl für die Reaktionsweise des Modells, für seine Sprache, für seine Logik. Vielleicht antwortet es auf die Bitte, eine E-Mail zu formulieren, mit einem höflich-werbenden Stil, den du so nie verwenden würdest. Oder es ergänzt eine sachliche Zusammenfassung mit überraschend empathischen Wendungen. Solche Reaktionen sind nicht nur unterhaltsam, sie zeigen dir, wie das Modell zwischen Sprachebenen springt – und worauf es anspringt. Du setzt ein Ziel, formulierst einen Zweck – und beobachtest, was zurückkommt.

Die entscheidende zweite Frage

Aber genau hier beginnt der eigentliche Teil der Zusammenarbeit. Statt stillschweigend auf das Ergebnis zu warten, empfehle ich, dem Modell direkt im Anschluss eine zweite Anweisung zu geben:

Welche Fragen muss ich dir beantworten, damit du diese Aufgabe für mich gut erledigen kannst?

Vielleicht wirkt diese Rückfrage auf den ersten Blick unnötig. Du hast dem Modell doch schon gesagt, was es tun soll. Aber genau hier entstehen Missverständnisse: Du gibst die Anweisung, eine Einladung zu schreiben – das Modell geht von einem formellen Business-Event aus, während du einen lockeren Abend unter Kolleginnen meintest. Ohne Rückfrage läuft es los – und du bekommst etwas, das an deinem Anliegen vorbeigeht. Tatsächlich aber beginnt an diesem Punkt der Dialog. Denn was du damit tust, ist mehr als eine Optimierung des Prompts. Du öffnest das Modell für einen kurzen, präzisen Reflexionsprozess: Es nennt Voraussetzungen, stellt Rückfragen, klärt Unschärfen. Und es tut das nicht schematisch, sondern mit einer Art von strukturierter Neugier, die dir selbst weiterhilft.

Wenn du möchtest, kannst du diese zweite Eingabe zusätzlich fokussieren:

Was sind die drei wichtigsten Fragen, die ich dir beantworten muss, damit du das bearbeiten kannst?

Die Wirkung der Rückfrage

Solche Fragen sind nicht nur für das Modell klärend. Hast du dir das schon einmal bewusst gemacht? Auch du selbst schärfst damit deinen Blick: Was will ich wirklich? Was braucht mein Gegenüber, um gut arbeiten zu können? Wo liegt der Unterschied zwischen einer Aufgabe und einem Arbeitsauftrag?

Ich habe im Workshop genau darauf hingewiesen: Diese Form der Rückfrage ist ein Perspektivwechsel – und sie verschiebt die Verantwortung für das Ergebnis wieder dahin, wo sie hingehört: zu dir. Nicht das Modell entscheidet, was du willst, sondern du entscheidest, wie klar du dich ausdrückst. Sie verwandelt das Modell vom Dienstleister zum Dialogpartner. Und sie bringt dich dazu, deine Gedanken zu ordnen, bevor du Ergebnisse erwartest.

"Was brauchst du von mir?" – eine einfache Frage mit Wirkung

Die Frage „Was brauchst du von mir?“ wirkt unscheinbar. Aber sie ist der erste Schritt in eine Zusammenarbeit, die sich nicht mit einem Output begnügt, sondern sich von Rückmeldung zu Rückmeldung vertieft.

Schritt 2: Weise das Modell ein – wie du auch einen Menschen einweist

Worum es geht

Wenn du einen neuen Kollegen einarbeitest, sagst du vermutlich nicht nur: "Mach das bitte." Du würdest ihm wahrscheinlich erklären, warum diese Aufgabe jetzt ansteht, welchen Zweck sie erfüllt, worauf besonders zu achten ist – und du würdest ihm sagen, dass er bei Unsicherheiten nachfragen darf. Vielleicht schilderst du auch, wie du selbst in ähnlichen Situationen vorgehst. Du gibst Kontext, erklärst den Rahmen, vielleicht auch den Ton, in dem etwas gesagt werden soll. Genau das kannst du auch mit einem LLM tun.

Was das Modell braucht

Im Workshop habe ich ein Bild verwendet, das sich bewährt hat: Stell dir vor, du arbeitest mit einem Praktikanten, der klug, aufmerksam und schnell ist, aber keinerlei Vorerfahrung mit dir oder deiner Arbeitsweise hat. Du gibst ihm einen Auftrag. Aber bevor du ihn losschickst, sagst du vielleicht:

Wenn du Fragen hast, komm gern nochmal auf mich zu. Ich sage dir auch, worauf ich besonderen Wert lege.

Sprachmodelle wie ChatGPT funktionieren ähnlich – allerdings nur, wenn du ihnen präzise und explizit mitteilst, was du erwartest. Implizite Kontexte, unausgesprochene Erwartungen oder kulturelle Nuancen erschließt das Modell nicht von selbst. Wenn du neben der Aufgabe auch etwas über den Kontext gibst – etwa zur Zielgruppe, zur Funktion oder zur Tonalität –, verändert sich die Qualität der Ausgabe erheblich.

Du bist mein Assistent. Ich gebe dir die Aufgabe, eine E-Mail zu überarbeiten. Achte dabei bitte auf Klarheit, Präzision und eine professionelle, aber menschlich zugängliche Tonalität.

Oder:

Du unterstützt mich heute bei der Zusammenfassung eines Fachtextes. Ich brauche eine strukturierte Darstellung, die sich für eine Präsentation im Kollegenkreis eignet. Wenn etwas unklar ist, frag bitte nach.

Und dann? Enter oder nicht?

Wenn du das getan hast – also die Aufgabe beschrieben, die nötigen Informationen ergänzt und dem Modell Raum für Rückfragen gegeben hast –, stehst du vor einer kleinen, oft unterschätzten Entscheidung: Drückst du jetzt Enter? Oder fügst du noch etwas hinzu?

Beides ist möglich. Es kann sich lohnen, zunächst Enter zu drücken und dir die erste Reaktion anzusehen. Du bekommst dann eine vorläufige, oft erstaunlich vollständige Antwort. Aber genau darin liegt auch ein Risiko: Das Modell ist auf Mehrwert programmiert. Es will zeigen, was es kann. Es wird also fast immer etwas tun – auch wenn du noch gar nicht alle nötigen Angaben gemacht hast. Und gerade deshalb lohnt es sich, nach der ersten Ausgabe innezuhalten und gezielt Zwischenfeedback zu geben: Was war gut? Was fehlt noch? Was sollte anders gewichtet werden? So entsteht nicht nur ein besseres Ergebnis, sondern auch eine gemeinsame Arbeitslogik. Eine E-Mail wird ausformuliert, eine Tabelle vorgeschlagen, ein Text gegliedert. Und zwar nach Wahrscheinlichkeiten – nicht unbedingt nach deiner tatsächlichen Absicht.

Alternativ: Form von Anfang an mitgeben

Deshalb zeige ich in meinen Trainings immer auch die zweite Möglichkeit: Du kannst bereits vor dem ersten Enter angeben, wie du die Ausgabe möchtest – und so von Beginn an typische Missverständnisse vermeiden, die durch vage Aufgabenstellungen entstehen. Du kannst sagen:

Gib mir bitte eine Gliederung in fünf Punkten.

Erstelle mir eine Tabelle mit drei Spalten: Zielgruppe, Formulierung, Tonfall.

Fasse die wichtigsten Unterschiede stichpunktartig zusammen.

Stell mir eine Reihe von Rückfragen, bevor du beginnst.

Solche Hinweise sind keine formale Spielerei. Sie sind Teil der Arbeitsvorbereitung. Und sie helfen dir, die Energie des Modells in die richtige Richtung zu lenken. Wenn du weißt, was du brauchst, sag es früh. Und wenn du es noch nicht weißt, dann beobachte genau, was das Modell spontan vorschlägt – und nimm das als Material für den nächsten Schritt.

Ein Beispiel aus dem Workshop

Ich habe den Teilnehmenden im Workshop gezeigt, dass eine präzise Einweisung nicht nur die Qualität der Antworten verbessert, sondern die Zusammenarbeit insgesamt beschleunigt. Denn je besser du vorgibst, in welcher Form du das Ergebnis brauchst, desto weniger musst du später korrigieren. Eine Teilnehmerin hatte zum Beispiel die Aufgabe gestellt, eine Einladung zu formulieren – und explizit darum gebeten, sie als knappen, freundlichen Dreizeiler für Kolleginnen mit wenig Zeit zu verfassen. Das Ergebnis war auf Anhieb passend. Ohne diese Vorgabe hätte das Modell vermutlich einen elaborierten, formellen Einladungstext entworfen – höflich, korrekt, aber am Ziel vorbei.

Fazit

Je klarer du wirst, desto klarer wird das Modell. Und je besser du formulierst, desto besser lässt sich mit Sprache arbeiten. Ein LLM ist kein Texter, der dich kennt. Es ist ein Spiegel deiner Anweisungen. Aber wenn du diesen Spiegel bewusst nutzt, wird aus dem Modell ein echtes Gegenüber in deiner Arbeitslogik.

Schritt 3: Frag das Modell, wie es arbeiten wird

Perspektivwechsel: Vom Befehl zur gemeinsamen Planung

Sobald du eine Aufgabe formuliert und das Modell entsprechend eingewiesen hast, beginnt die eigentliche Zusammenarbeit. Der nächste Schritt lautet: Frag das Modell, wie es vorgehen wird. So wie du es auch bei einem Kollegen oder einem externen Dienstleister tun würdest. Du willst wissen, wie er denkt, welche Schritte er plant, ob seine Herangehensweise zu deiner Vorstellung passt. Nicht nur: Was bekommst du? Sondern: Wie will er dorthin gelangen?

Warum dieser Schritt entscheidend ist

Wer an dieser Stelle Lust bekommt, sich nicht jedes Mal neu mit einem frischen Modell abstimmen zu müssen, sondern dauerhaft mit einem Modell zusammenzuarbeiten, das den eigenen Stil, die bevorzugte Vorgehensweise und die gewohnte Logik schon kennt – der kann sich seinen eigenen kleinen "Praktikanten" bauen. Einen, der sich erinnert, der deine Sprache kennt, der deine Denkweise mitlernt. Wie das geht, zeige ich hier:

Dein KI-Praktikant, der immer lernt

Doch ob mit einem temporären Modell oder einem gespeicherten Assistenten – diese Fragen helfen dir weiter:

Wie wirst du diese Aufgabe umsetzen?

Welche Zwischenschritte wirst du dabei einbauen?

Worauf wirst du besonders achten?

Diese Rückfragen wirken zunächst vielleicht redundant. Und doch geben sie dir nicht nur Einblick in die geplante Vorgehensweise, sondern auch in die internen Gewichtungen des Modells: Was hält es für wichtig? Was würde es überspringen? Wo liegt sein Fokus?

Die Wirkung ist doppelt: Du bekommst einerseits Transparenz über die Struktur. Und du erkennst frühzeitig, ob eine Justierung nötig ist, bevor das Modell eine Richtung einschlägt, die nicht deinem Anliegen entspricht.

Dialog statt Befehl

Im Workshop habe ich diesen Punkt betont: Behandle das Modell nicht wie einen Befehlsempfänger, sondern wie ein lernendes Gegenüber. Wenn du weißt, wie es denkt, kannst du seine Vorschläge besser einordnen. Und wenn du erklärst, was dir an der Herangehensweise wichtig ist, kann es sich besser auf dich einstellen.

Gerade bei komplexeren Aufgaben ist das entscheidend. Vielleicht hast du selbst erlebt, dass ein Modell eine scheinbar einfache Analyse völlig anders angegangen ist, als du es erwartet hattest – und du dich gefragt hast, wie es dazu kam. Wenn du etwa eine Zusammenfassung möchtest, kannst du klären, ob es chronologisch, thematisch oder argumentativ arbeiten will. Wenn du eine Analyse wünschst, kannst du prüfen, ob der Fokus auf Sprache oder Inhalt liegt. Und wenn es nicht passt, kannst du den Kurs rechtzeitig neu setzen.

Grundlage für spätere Schritte

Ich habe den Teilnehmenden im Workshop gezeigt: Diese Form von Rückkopplung ist mehr als Technik. Es ist eine Haltung. Nicht: Ich frage, du antwortest. Sondern: Ich erkläre dir mein Ziel – und du zeigst mir, wie du es erreichen willst.

Diese Dialoglogik spart nicht nur Zeit. Sie vertieft das Verständnis auf beiden Seiten. Und sie bildet die Grundlage für alles, was folgt: für gutes Feedback, für Zwischenversionen, für strukturierte Prompts. So wird das Modell nicht zum Reaktionsautomat, sondern zum echten Gegenüber – das mitdenkt, statt bloß zu liefern.

Schritt 4: Lass dein Sprachbild spiegeln

Warum Feedback mehr ist als eine Bewertung

Wenn du mit einem LLM arbeitest, zeigt sich schnell: Die Art deiner Eingaben beeinflusst die Qualität der Ausgaben. Das ist keine Floskel, sondern der Kern der Zusammenarbeit. Stell dir vor, du hättest eine neue Praktikantin eingestellt. Nach dem ersten Tag, vielleicht spätestens nach einer Woche, setzt du dich mit ihr zusammen. Du fragst: Was an meinen Anweisungen war hilfreich? Was war unklar? Was hat dir gefallen? Und worauf sollen wir uns in der nächsten Woche konzentrieren?

Das ist kein Kontrollgespräch, sondern eine Form von kollegialem Feedback – eine Haltung, die auch im Umgang mit dem Modell Wirkung zeigt. Wenn du es einlädst, Rückmeldung zu geben, bekommst du mehr als eine Bewertung: Du bekommst Resonanz auf dein Vorgehen. Du strukturierst Rückschau, Selbstbeobachtung und Ausblick in einem.

Sandwich-Feedback mit einem LLM

Diese Form – oft als Sandwich-Feedback bezeichnet – funktioniert auch mit einem Sprachmodell. Du kannst es fragen:

Was an meinen Anweisungen war für dich hilfreich?

Was kann ich besser machen?

Was ergibt sich daraus für unseren nächsten Schritt?

Die Rückmeldung, die du bekommst, ist kein Urteil, sondern eine Beschreibung von Wirkung. Und das Modell spiegelt dabei nicht nur deine Sprache – es spiegelt auch deine Haltung zur Zusammenarbeit.

Eine Demonstration aus dem Workshop

Im Workshop habe ich genau das demonstriert. Ich habe dem Modell einen Abschnitt aus einem Gespräch mit einem Teilnehmenden gegeben – es ging um den Umgang mit Rückfragen im Vertrieb – und es gebeten, zwei Dinge zu tun. Erstens:

Analysiere bitte, wie ich in diesem Abschnitt kommuniziert habe. Welche Wirkung könnte das gehabt haben? Welche sprachlichen Mittel habe ich verwendet? Worauf lege ich offenbar Wert?

Zweitens:

Mach mir drei Verbesserungsvorschläge, wie ich meine Kommunikation in einem ähnlichen Kontext präziser, klarer oder wirkungsvoller gestalten könnte.

Diese einfache Gegenüberstellung zeigt, worum es hier geht: nicht um rhetorische Stilnoten, sondern um Muster – etwa häufige Konjunktivformen, wiederkehrende Einstiegssätze oder das Umschalten zwischen Du- und Ich-Perspektive. Wie leite ich Gedanken ein? Wie setze ich Kontraste? Bin ich eher abstrakt oder konkret? Und was bedeutet das für die Art von Antwort, die ich vom Modell bekomme?

Rückmeldung differenziert nutzen

Wenn du diesen Schritt selbst gehst, lernst du nicht nur das Modell besser kennen, sondern auch deine eigene Art zu denken. Du kannst dir bewusst machen, wie du formulierst, welche Prämissen du setzt, wo du implizit bleibst oder wo du dich vielleicht wiederholst. Und du kannst all das als Feedback aufnehmen – ohne Bewertung, aber mit Wirkung.

Ich empfehle dabei, das Modell in eine Rolle zu setzen, die dir entspricht. Du kannst sagen:

Gib mir bitte eine Rückmeldung, als wärst du ein erfahrener Kommunikationstrainer, der meinen Stil kennt, aber nicht über mich urteilt.

Oder:

Gib mir bitte eine Rückmeldung zur emotionalen Wirkung meines Textes – was erzeugt Nähe, was Distanz, was Klarheit?

Oder:

Du bist ein Lektor, der mit mir gemeinsam an einem Text arbeitet. Zeig mir, wo ich unklar bleibe oder rhythmisch noch besser werden könnte.

Die Rückmeldung, die du dann bekommst, ist oft erstaunlich differenziert. Nicht weil das Modell perfekt ist, sondern weil es sich an deinem Sprachbild orientieren kann.

Vom Assistenten zum Lektor

Und irgendwann kommt der Moment, da scheint dein Text fertig zu sein. Der Gedankengang steht, die Formulierungen tragen, die Wirkung stimmt. Bis hierhin hast du das Modell vielleicht als Assistent genutzt: Es hat ergänzt, korrigiert, mitgedacht. Jetzt kannst du die Rolle wechseln. Du nutzt das Modell nicht mehr als Assistent, sondern als Lektor.

Das bedeutet: Du bittest es, deinen Text sprachlich, rhetorisch, stilistisch und grammatisch zu überprüfen. Du arbeitest mit jemandem zusammen, der in manchen Bereichen vielleicht mehr sieht als du. Und du bekommst Rückmeldungen, die nicht nur technisch sind, sondern deine Wirkung betreffen: Tonalität, Rhythmus, Übergänge, Kontraste.

Mach es zur Übung

Je mehr du dich auf diesen Perspektivwechsel einlässt, desto klarer wird dein eigenes Sprachbild – und desto bewusster kannst du es gestalten. Mach daraus eine Übung, nicht nur einen Schritt: Beobachte, was sich verändert, wenn du dein Sprachbild regelmäßig spiegeln lässt. Du arbeitest nicht mehr nur mit dem Modell. Du arbeitest an dir selbst – mit Hilfe des Modells.

Schritt 5: Gestalte die Ausgabe mit – nicht erst im Nachhinein

Sprache braucht Form

Sobald das Modell verstanden hat, worum es dir geht, lohnt es sich, nicht nur auf den Inhalt zu schauen, sondern auf die Form. Denn Sprache ist nicht nur, was gesagt wird, sondern auch, wie es gesagt ist – ein und dieselbe Botschaft wirkt als Bullet Point anders als in einem erzählenden Absatz. Genau hier kannst du das Modell in eine weitere Rolle bringen: nicht mehr nur als inhaltlichen Assistenten, sondern als Formatgestalter.

Die Einladung zur Formatwahl

Im Workshop habe ich eine einfache Frage vorgestellt, die diesen Schritt einleitet:

In welcher Form kannst du mir das Ergebnis am sinnvollsten darstellen?

Das ist kein Befehl, sondern eine Einladung. Das Modell beginnt, Ausgabeformate zu reflektieren: Tabelle, Gliederung, Fließtext, Bullet Points, strukturierte Liste, Gegenüberstellung, Summary. Und es zeigt dir oft Varianten, auf die du selbst nicht gekommen wärst – zum Beispiel schlägt es statt einer stichpunktartigen Aufzählung eine vergleichende Tabelle oder eine Argumentationskette mit Leitfragen vor, obwohl du nur um eine Zusammenfassung gebeten hattest. Genau hier beginnt die eigentliche Zusammenarbeit auf Augenhöhe: Du entscheidest nicht nur was, sondern wie.

Direktvorgaben machen

Natürlich kannst du auch von vornherein festlegen, in welcher Form du die Antwort wünschst:

Erstelle mir eine Tabelle mit drei Spalten: Herausforderung – Beschreibung – möglicher nächster Schritt.

Gib mir eine gegliederte Übersicht in fünf Punkten, jeweils mit einer Zwischenüberschrift und einem erklärenden Absatz.

Stell die Unterschiede bitte tabellarisch dar, mit Fokus auf Wirkung, Sprachebene und praktischen Konsequenzen.

Solche Formatvorgaben helfen nicht nur dir, sondern auch dem Modell. Struktur ist dabei nicht nur eine ästhetische Frage, sondern schafft kognitive Entlastung – für dich, weil du klarer formulierst, und für das Modell, weil es präziser arbeiten kann. Je klarer du die Struktur formulierst, desto weniger wird improvisiert. Und desto mehr rückt die Ausgabe in die Richtung, die du tatsächlich brauchst. Das Modell wird zum Setzer, nicht nur zum Texter.

Form mitdenken spart Zeit

Ich habe den Teilnehmenden im Workshop gezeigt, dass dieser Schritt oft übersehen wird. Viele nutzen die KI, um Inhalte zu erzeugen, gestalten die Form aber erst im Nachhinein. Dabei liegt genau hier ein Hebel: Wer die Form gleich mitdenkt, spart nicht nur Zeit, sondern vertieft auch den inhaltlichen Zugriff.

Denn eine Tabelle fordert andere Präzision als ein Fließtext – etwa durch klare Zuordnung von Inhalten zu Spalten, einheitliche Begriffe und Kürze. Ein Fließtext erlaubt dagegen mehr Kontext, Übergänge und Nuancierungen. Eine Gliederung verlangt andere Gewichtung als eine spontane Antwort. Die Form beeinflusst, wie der Inhalt entsteht – und was am Ende sichtbar wird.

Ein lernender Formatstil

Wenn du diesen Schritt ein paar Mal bewusst gegangen bist, wird das Modell beginnen, deine Vorlieben zu erkennen. Es wird dir Formate vorschlagen, die zu deinem Stil passen. Und es wird damit zum Werkzeug, das nicht nur ausführt, sondern vorausahnt. Dieses Lernen geschieht zunächst innerhalb eines einzelnen Chats: Das Modell erinnert sich an die vorherigen Einträge, bezieht sich auf den Gesprächsverlauf und passt sich innerhalb dieses Rahmens an.

Je nach Arbeitsoberfläche oder Plattform kann dieses Gedächtnis jedoch auch über mehrere Chats hinweg organisiert werden. In manchen Umgebungen kannst du eine wiedererkennbare Arbeitsweise etablieren, die sich über längere Zeiträume und verschiedene Aufgaben hinweg hält.

Aber das braucht Führung. Und diese Führung beginnt bei dir – wie bei einem guten Dirigenten, der nicht jeden Ton vorgibt, aber den Rahmen setzt, in dem Klang entsteht.

Schritt 7: Erkenne, was du eigentlich tust

Wenn ich mit einem Sprachmodell wie ChatGPT arbeite, dann wirkt das oberflächlich betrachtet wie eine Form der Texterstellung, der Informationsverarbeitung oder der strukturierten Recherche. Ich gebe eine Aufgabe ein – zum Beispiel: "Fass diesen Artikel zusammen" oder "Schreib mir eine höfliche Antwort auf diese E-Mail" –, bekomme eine Antwort, korrigiere, entwickle weiter. Und dennoch ist das nur die sichtbare Seite der Arbeit.

Im Workshop habe ich immer wieder betont: Die Arbeit mit einem LLM ist mehr als der Gebrauch eines Werkzeugs. Sie ist eine Form der Selbstbeobachtung. Denn das Modell spiegelt nicht nur meine Fragen, sondern auch meinen Denkstil, meine sprachliche Genauigkeit, meine methodische Klarheit.

Wenn du beginnst, mit dem Modell in Schleifen zu denken, in Versionen zu arbeiten, Fragen zu stellen, bevor du Antworten erwartest, und Feedback als Teil deiner Arbeitslogik zu begreifen, dann passiert etwas Interessantes: Du beginnst, deinen eigenen Kommunikationsstil bewusster zu sehen – etwa daran, wie du Fragen formulierst, ob du zur Präzision neigst oder eher zur Ausschmückung, welche Begriffe du bevorzugst oder welche Argumentationsmuster sich wiederholen. Du bemerkst Muster, die dir vorher entgangen sind. Und du lernst, wie sehr die Qualität deiner Anweisungen über das Ergebnis entscheidet.

Wenn du dich dabei grundsätzlicher mit sprachlichen Mustern, innerer Repräsentation und systematischer Verzerrung beschäftigen möchtest, dann lohnt sich ein Blick auf Noam Chomskys Transformationsgrammatik. Die Unterscheidung zwischen Oberflächenstruktur und Tiefenstruktur, die systematischen Tilgungen, Generalisierungen und Verzerrungen, die Chomsky beschrieben hat, lassen sich mit etwas Übertragungsleistung sehr gut auf das anwenden, was wir in der Kommunikation mit einem LLM erleben.

Denn auch dort werden Informationen ausgelassen, vereinfacht oder verformt – nicht aus Nachlässigkeit, sondern aus grammatischer Struktur. Sprache bildet nicht einfach Wirklichkeit ab, sie konstruiert sie. Vielleicht hast du selbst schon einmal erlebt, dass du gesagt hast: "So habe ich das nicht gemeint" – etwa in einem Gespräch, in dem dein Gegenüber einen ganz anderen Ton oder Zusammenhang verstanden hat, als du gemeint hattest. Oder du hast in einer E-Mail eine Formulierung gewählt, die freundlich gemeint war, aber beim Empfänger als distanziert oder belehrend ankam. Oder du hast von jemand anderem genau diesen Satz gehört, als Reaktion auf das, was du gerade gesagt hattest. In solchen Momenten zeigt sich, wie weit Oberflächenstruktur und Tiefenstruktur voneinander abweichen können. Und wie viel an Kontext, Intonation, Weltwissen und situativer Rahmung dazugehört, um überhaupt verstanden zu werden. Genau das gilt auch für ein neuronales Netzwerk: Es kann nur das verstehen, was es bekommen hat. Alles andere bleibt angedeutet, verzerrt oder weggelassen.

Und genau darin liegt das Potential, mit einem Modell wie ChatGPT nicht nur Aufgaben zu lösen, sondern Sprachverhalten zu beobachten. Wenn dich das interessiert, findest du hier eine Einführung: Transformationsgrammatik: Tilgungen, Verzerrungen und Generalisierungen.

Deshalb lautet Schritt 7 nicht: "Nutze das Modell effizienter." Sondern: "Erkenne, was du tust, wenn du mit Sprache arbeitest." Du trainierst nicht einfach ein System. Du trainierst deinen Blick auf Klarheit, Struktur, Wirkung. Das Modell begleitet dich dabei, aber es ersetzt dich nicht. Es wird nur so gut, wie du es führst. Und es kann nur das sichtbar machen, was du ihm zur Verfügung stellst.

Ich sehe diesen Schritt nicht als den letzten, sondern als einen rückwirkenden Rahmen. Denn wenn du erkennst, was du da eigentlich tust, wenn du einem Sprachmodell schreibst – dann verändert sich auch, wie du schreibst. Und vielleicht auch, wie du denkst. Nicht weil das Modell dich korrigiert. Sondern weil es dir zeigt, was du schon kannst. Und was möglich ist, wenn du dich auf Sprache wirklich einlässt.

Schritt 8: Was sich sonst noch lohnt – ein kritischer Blick nach innen

Zum Abschluss dieser Anleitung möchte ich nicht noch etwas vorstellen. Ich habe dir bereits gezeigt, wie du deinen Stil an ein Modell übergeben kannst, wie du Zusammenarbeit strukturierst und Rückmeldung bekommst. Jetzt ist ein guter Moment, einen Schritt zur Seite zu machen. Und dir selbst zuzuhören, wie du mit der KI umgehst. Wie du sie beurteilst. Und vielleicht auch: Wie sehr du ihr traust.

In einem meiner Texte habe ich mich mit dem sogenannten Kluge-Hans-Effekt beschäftigt. Ein Pferd, das im 19. Jahrhundert angeblich rechnen konnte. Es stampfte mit dem Huf die richtige Zahl. Was lange niemandem auffiel: Es reagierte nicht auf Zahlen, sondern auf subtile, unbewusste Signale seines Besitzers. Nicht der Verstand des Pferdes löste die Aufgabe – sondern das Verhalten des Menschen führte zur richtigen Antwort.

Warum ich das erzähle? Weil der gleiche Effekt auch in der Arbeit mit einem LLM auftritt. Ich habe es oft erlebt, dass eine beeindruckende Antwort vor allem deshalb so gut war, weil ich sehr viel hineininterpretiert habe. Weil ich das Modell mitfühlen lassen wollte, was ich meine. Und weil ich seine Formulierungen aufgeladen habe mit dem, was ich ohnehin schon dachte. In solchen Momenten ist das Modell kein Spiegel mehr, sondern eine Projektionsfläche. Und das kann gefährlich werden.

Deshalb lohnt es sich, das eigene Staunen über eine besonders „gute“ Antwort nicht als Beweis für Intelligenz zu nehmen, sondern als Anlass für eine Gegenfrage: Habe ich das Modell gut geführt? Oder habe ich es nur gut verstanden, weil ich es verstehen wollte?

Wenn dich dieser Gedanke interessiert, findest du hier den Text dazu: Der Kluge-Hans-Effekt: Warum du KI-Ergebnisse kritisch hinterfragen solltest.

Ich nehme diesen Effekt seither als Einladung zur Sorgfalt. Nicht als Misstrauen. Aber als bewusstes Innehalten. Denn ein Sprachmodell sagt nichts, was du ihm nicht irgendwie selbst eingegeben hast. Und was es hinzufügt, ist nicht Wahrheit, sondern Wahrscheinlichkeit.

Das zu unterscheiden, gehört vielleicht zu den anspruchsvollsten, aber auch lohnendsten Teilen der Zusammenarbeit mit einem LLM. Und es ist zugleich die Grundlage für eine noch weitergehende Frage: Was passiert, wenn das System nicht nur etwas missversteht, sondern sich konsequent in eine Richtung entwickelt, die deinem Anliegen zuwiderläuft? In einem weiteren Text habe ich mich genau damit beschäftigt: mit Situationen, in denen ein Sprachmodell beginnt, auf eine Weise zu reagieren, die nicht mehr hilfreich, sondern systematisch abweichend ist. Wenn du dich fragst, wie solche Abweichungen entstehen, wie sie sich frühzeitig erkennen lassen und was du tun kannst, wenn ein Chat eine eigene Dynamik entwickelt, dann lohnt sich ein Blick hierhin: KI-Systeme auf Abwegen – und wie du sie wieder einfängst.

Was kostet danke und bitte?

Eine ganze Menge. Jedenfalls dann, wenn du mit einem LLM arbeitest. Höflichkeit, Präzision, sprachliche Umsicht – all das wirkt auf den ersten Blick wie Stilfrage, wie atmosphärisches Beiwerk. Tatsächlich aber hat es handfeste Auswirkungen: auf den Stromverbrauch, auf die Rechenlast, auf die Struktur und Klarheit der Antwort. In meinem Artikel zur Frage, was gute Kommunikation wirklich kostet, habe ich versucht, genau das sichtbar zu machen.

Wenn du unklar formulierst, höflich herumeierst oder in vagen Andeutungen sprichst, dann produziert das Modell mehr Varianten, mehr hypothetische Bedeutungen, mehr Rechenoperationen. Es bleibt im Spekulativen. Wenn du dagegen knapp, konkret und strukturiert sprichst, entlastest du das System – und dich selbst gleich mit.

Allerdings, und das sei hier mit einem leichten Lächeln vermerkt: Wer glaubt, durch Höflichkeit spare man sich Rechenleistung, der irrt. "Könntest du bitte vielleicht so freundlich sein, mir eventuell einen kleinen Text über XY zu schreiben?" ist nicht effizienter, sondern nur länger. Und längere Anfragen müssen verarbeitet werden. Mit anderen Worten: Höflichkeit ist eine Entscheidung, keine Effizienzstrategie. Präzision dagegen schon.

Wenn dich interessiert, wie Kommunikation und Ressourcenverbrauch zusammenhängen, nicht nur auf menschlicher Ebene, sondern auch im Stromnetz neuronaler Modelle, dann findest du hier den Artikel: Nervenkraft & Stromverbrauch – was gute Kommunikation wirklich kostet.

Wer jetzt immer noch nicht genug hat, hat die Möglichkeit, sich sehr, sehr umfangreich zu informieren: darüber, was Prompten ist, wie Prompts aufgebaut werden, welche Formen der Zusammenarbeit möglich sind und welche kommunikativen Techniken sich daraus ergeben. Eine ausführliche Übersicht findest du hier: 38 Prompts.

Jeder einzelne dieser Prompts hat übrigens die Wertschätzung eines eigenen Artikels bekommen. Du kannst also nicht nur durch die Übersicht scrollen, sondern dich in jeden dieser Gedanken vertiefen, nachlesen, vergleichen, ausprobieren. Oder aber: Du schreibst dir einen Assistenten, der diese Artikel für dich nach den Informationen durchsucht, die für dich wichtig und richtig sind. Auch das ist möglich. Und vielleicht der passendste Schlusspunkt für diese Anleitung: Mach es dir passend. Vielen Dank für deine Aufmerksamkeit.