Die Automatisierung von Textarbeit mit KI, insbesondere durch Large Language Models (LLMs), bietet Möglichkeiten zur Individualisierung, zeigt jedoch auch Grenzen auf. LLMs tendieren zur Regression zur statistischen Mitte, was bedeutet, dass sie oft zu gängigen Formulierungen zurückkehren, selbst wenn sie zuvor einen individuellen Stil angenommen haben. Die Analyse und Nachahmung von Schreibstilen ist möglich, erfordert jedoch kontinuierliche menschliche Steuerung, um Authentizität zu gewährleisten. Die Zusammenarbeit mit LLMs verändert die Textarbeit, indem sie die Rolle des menschlichen Editors betont und Effizienzgewinne in der Vorbereitung und Nachbearbeitung ermöglicht.

Abschnitt 1: Der Einstieg

Individualisierte Texte mit KI: Möglichkeiten und Grenzen

Eine der häufigsten Fragen, die mir Klienten stellen, betrifft die Automatisierung ihrer Textarbeit. Sie möchten E-Mails beantworten, LinkedIn-Artikel verfassen, Blogbeiträge schreiben oder Webseiten-Inhalte erstellen – und das möglichst effizient mit Hilfe von Large Language Models. Dabei steht ein zentraler Wunsch im Vordergrund: Die Texte sollen individualisiert sein und einen hohen Wiedererkennungswert haben. Lesende sollen spüren, dass hinter dem Text eine konkrete Person mit einer erkennbaren Art zu kommunizieren steht.

Diese Erwartung ist verständlich. In einer Zeit, in der KI-generierte Inhalte zunehmend den digitalen Raum prägen, stellt sich die Frage, inwieweit individuelle Kommunikation mit diesen Systemen tatsächlich möglich ist. Wer authentisch kommunizieren möchte, sucht nach Texten, die einen hohen Wiedererkennungswert schaffen – einen Wiedererkennungswert zwischen dem geschriebenen Wort und der Person dahinter. Ein perfekt formulierter Text gewinnt an Wert, wenn er zur Person im persönlichen Gespräch passt. Wenn jemand etwa in Texten analytisch, ruhig und strukturiert schreibt, dabei aber im persönlichen Gespräch eher emotional und spontan wirkt, entsteht Irritation – oder zumindest ein Bruch in der Wahrnehmung. Stimmig ist es, wenn schriftliche und mündliche Kommunikation einander ergänzen und ein kohärentes Bild der Person erzeugen.

Um diese Fragen zu beantworten, lohnt sich ein Blick auf den aktuellen Stand der Technik. Im August 2025 haben Large Language Models bereits beachtliche Fähigkeiten in der Textgenerierung entwickelt. Was aber passiert, wenn man sie über gezielte Prompts dazu anleitet, einen individuellen Schreibstil zu erkennen und zu übernehmen? Mir sind dabei einige Dinge aufgefallen, die ich näher getestet habe: Ich gab einem LLM meinen eigenen Schreibstil zur Analyse und forderte es anschließend auf, in diesem Stil zu schreiben.

Der Versuch begann vielversprechend. Ich gab dem System einen meiner Blogartikel zur Analyse mit der Anweisung: "Analysiere den Stil, den Aufbau und die Ansprache. Merke dir das für diesen Chat, damit auch die folgenden Texte in diesem Stil entstehen." Das LLM lieferte eine präzise Analyse meiner sprachlichen Eigenarten, erkannte strukturelle Merkmale und identifizierte sogar subtile Aspekte wie meine Verwendung von bewussten Kontrasten in der Argumentation.

Die ersten Abschnitte, die daraufhin entstanden, waren tatsächlich individualisiert. Sie trugen erkennbare Züge meines Kommunikationsstils und unterschieden sich deutlich von der üblichen KI-generierten Prosa. Doch bereits innerhalb desselben Chats zeigte der zweite Abschnitt deutliche Abweichungen, und mit jedem weiteren Prompt entwickelte sich der Text mehr in Richtung Mainstream zurück. Plötzlich tauchten wieder die typischen Formulierungen auf: "Grundsätzlich ist es wichtig...", "Darüber hinaus solltest du bedenken...", "Es könnte hilfreich sein..." – die charakteristischen Sprachmuster, die KI-Texte austauschbar machen. Praktisch für jeden Abschnitt, manchmal sogar für jeden Absatz, musste ich nachpromten. Das macht es für praktische Textarbeit zu einer echten Herausforderung.

Ich nutze Prompts wie den folgenden, um Absatz für Absatz, manchmal auch Abschnitt für Abschnitt, die Texte entsprechend zu individualisieren.

"Versuche in diesem Absatz mal auf alle Negationen und Weg-von-Verweise zu verzichten und formuliere einen auf etwas hin zugerichteten Absatz."

  1. Statt: "Denn es nützt wenig, einen perfekt formulierten Text zu haben, wenn im persönlichen Gespräch ein völlig anderer Sprachgebrauch zum Vorschein kommt."

Neu: "Ein perfekt formulierter Text gewinnt an Wert, wenn er zur Person im persönlichen Gespräch passt."

  1. Statt: "Das Bemerkenswerte an diesem Experiment war nicht nur das Scheitern, sondern die Art, wie es geschah."

Neu: "Bemerkenswert an diesem Test war die Art, wie das System zurück zu seinen Mustern fand."

  1. Statt: "Denn die Frage ist nicht, ob KI beim Schreiben helfen kann, sondern wie du diese Hilfe so nutzt, dass am Ende Texte entstehen, die authentisch und unverwechselbar sind."

Neu: "Die entscheidende Frage lautet: Wie nutzt du KI-Unterstützung so, dass authentische und unverwechselbare Texte entstehen?"

  1. Statt: "Dieser Artikel soll dir ein realistisches Bild davon vermitteln..."

Neu: "Dieser Artikel zeigt, welche Aspekte der Individualisierung automatisierbar sind und wo du selbst aktiv werden musst, um Texte zu erhalten, die deinen persönlichen Stil widerspiegeln."

Bemerkenswert an diesem Test war die Art, wie das System zurück zu seinen Mustern fand. Das LLM konnte seine eigenen Mainstream-Muster sogar analysieren und benennen. Es erkannte kontrastive Strukturen, additive Wiederholungen und motivierende Abschlussformeln in seinen eigenen Texten. Diese Form der Selbstanalyse ist allerdings nicht mit menschlicher Reflexion vergleichbar. Vielmehr handelt es sich um einen promptbasierten Abgleich zwischen aktuell erzeugtem Text und internen Wahrscheinlichkeitsmustern – also eine In-Context-Einschätzung, nicht ein systeminternes Bewusstsein. Die Musterbenennung funktionierte präzise – die dauerhafte Stilkontrolle jedoch nicht.

Diese Beobachtung führt zu einer grundlegenden Erkenntnis: Wir haben es mit einer Regression zur statistischen Mitte zu tun. Darunter versteht man die Tendenz eines statistischen Modells, immer wieder zu den wahrscheinlichsten, in den Trainingsdaten am häufigsten vorkommenden Ausdrucksformen zurückzukehren – selbst dann, wenn zuvor ein abweichender Stil erfolgreich initiiert wurde. LLMs fallen immer wieder in ihre wahrscheinlichsten Muster zurück, selbst wenn sie diese Muster vorher explizit erkannt und benannt haben.

Warum das passiert.

  1. Statistische Dominanz: Wahrscheinlichkeitsbasierte Modelle wie GPT wurden auf riesigen Textkorpora trainiert, in denen standardisierte Formulierungen überproportional häufig auftreten. Was oft vorkommt, wird als wahrscheinlichster nächster Token „gelernt“. Ein konkretes Beispiel dafür ist das sogenannte „Next Token Prediction“-Training: Das Modell erhält einen Textausschnitt wie etwa „Grundsätzlich ist es ...“ und soll den wahrscheinlichsten nächsten Token – etwa „wichtig“ – vorhersagen. Da in den Trainingsdaten bestimmte Phrasen wie „Grundsätzlich ist es wichtig“ besonders häufig vorkommen, lernt das Modell diese Formulierungen als statistisch bevorzugte Fortsetzungen. Dieses Prinzip wiederholt sich millionenfach und formt eine Art gravitative Mitte sprachlicher Wahrscheinlichkeit, zu der das Modell auch später im Einsatz immer wieder zurückkehrt.
  2. Kontextverschiebung im Verlauf: Das Sprachmodell bildet seine Antworten auf Grundlage des aktuellen Promptkontextes. Selbst wenn zu Beginn stilistische Vorgaben gesetzt werden, verlieren diese an Gewicht, sobald neue semantische, thematische oder funktionale Kontexte hinzukommen. Ein Beispiel: Wird ein GPT-Modell zunächst mit der Aufgabe betraut, einen persönlichen Begrüßungstext im Stil einer bestimmten Person zu schreiben, und folgt danach ein Prompt zur sachlichen Erklärung eines Fachbegriffs, orientiert sich das Modell zunehmend an den typischen Formulierungen des Fachregisters. Der ursprünglich gesetzte Stilauftrag wird dadurch schrittweise überlagert – nicht, weil das Modell ihn vergessen hätte, sondern weil die statistisch nächstliegenden Formulierungen im neuen thematischen Kontext andere sind.
  3. Temperaturabhängigkeit: Bei niedriger Temperatur entstehen vorhersagbare, aber oft generische Standardformulierungen. Höhere Werte führen zu stilistischer Varianz, bergen jedoch das Risiko inkonsistenter Ergebnisse. Die Temperatur ist ein Parameter, der steuert, wie „mutig“ oder „konservativ“ ein Modell beim Textgenerieren vorgeht. Niedrige Temperaturen (z. B. 0,2) begünstigen die Auswahl besonders wahrscheinlicher Wörter, wodurch oft stereotype oder vorhersehbare Formulierungen entstehen. Höhere Temperaturen (z. B. 0,8 oder mehr) erhöhen die Wahrscheinlichkeit für ungewöhnlichere Fortsetzungen, was zu kreativeren, aber auch unvorhersehbaren Ergebnissen führen kann. Auch bei konstanter Temperatureinstellung kann es zur stilistischen Drift kommen, wenn keine expliziten Strukturanker gesetzt sind – etwa dann, wenn sich der semantische Fokus der Prompts über längere Abschnitte hinweg verändert.

Ein konkretes Beispiel verdeutlicht das Problem: In meinen Artikeln arbeite ich bewusst mit Gegensätzen, baue Spannungen auf und setze provokante Akzente. Das ist anti-statistisch – es widerspricht dem Prinzip, den wahrscheinlichsten nächsten Token zu erzeugen. Während ein Mensch lernen kann, solche stilistischen Mittel gezielt einzusetzen und langfristig beizubehalten, zieht die statistische Architektur der KI systematisch zurück in häufige, sichere Formulierungscluster – eine Art stilistisches Trägheitsmoment.

Was ich daraus ableite: Ein Custom GPT benötigt strukturelle Anker – feste Regeln, die individuelle Formulierungen fördern. Die Stilanalyse liefert die Grundlage, die Umsetzung erfordert Formatierungsroutinen, Formulierungsregeln und Wiederholungsmuster, die dauerhaft im Promptverlauf stabilisiert werden. In meinen Tests allerdings verlieren auch diese Anker mit der Zeit ihre Wirkung.

In den folgenden Abschnitten erkläre ich zunächst zentrale Fachbegriffe, die dir helfen, das Verhalten von Sprachmodellen besser zu verstehen – etwa den Unterschied zwischen Wahrheit und Plausibilität oder die Mechanismen der In-Context-Stilübertragung. Anschließend dokumentiere ich mein methodisches Vorgehen: von der Stilanalyse über präzise Arbeitsanweisungen bis hin zur modellinternen Selbstbeschreibung. Darauf folgt eine kritische Reflexion darüber, warum diese Verfahren an Grenzen stoßen – insbesondere im Hinblick auf die Illusion von Bewusstsein und Kontrolle.

Zum Abschluss leite ich konkrete Konsequenzen für deine eigene Textarbeit ab: Was lässt sich (im August 2025) automatisieren – und wo bleibt Handarbeit (möglicherweise) unverzichtbar? Wir stehen vor der Veröffentlichung von ChatGPT 5.0. Es könnte sein, dass die von mir dargestellten Herausforderungen sich verbessern oder ändern oder sogar ganz verschwinden. Ich persönlich halte das nicht für sehr wahrscheinlich. Ich kann schon mal auf Folgendes hinweisen. Es lohnt sich, die folgenden Bücher zu Sam Altman zu lesen. Ich meine, in dieser sind einige deutliche Hinweise darauf, warum auch zukünftige LLMs sehr, sehr geeignet sind für Sequenzial- und Detailsortierer und kreative und flexible eher weiter händisch nacharbeiten müssen.

Abschnitt 2: Die Fachterminologie erklären

Die Mechanismen verstehen: Warum LLMs zu Standardmustern zurückkehren

Um die Herausforderungen bei der Individualisierung deiner KI-unterstützten Texte zu verstehen, lohnt sich ein Blick auf die zugrundeliegenden Mechanismen. Large Language Models funktionieren nach Prinzipien, die zunächst technisch erscheinen, aber direkten Einfluss auf die Qualität und Individualität deiner erzeugten Texte haben.

Regression zur statistischen Mitte beschreibt das Phänomen, das ich bei der Erstellung meiner Texte beobachtet habe. Ein LLM lernt aus Millionen von Texten statistische Muster – welche Wörter folgen mit welcher Wahrscheinlichkeit aufeinander, welche Satzstrukturen kommen häufig vor, welche Formulierungen gelten als "normal". Diese statistischen Häufigkeiten werden zur Grundlage für die Textgenerierung. Das System tendiert daher immer zu den wahrscheinlichsten, häufigsten Formulierungen – zum Erwartungswert sprachlicher Wahrscheinlichkeit. Fachlich gesprochen ist dies eine direkte Folge der sogenannten Next-Token-Prediction: Das Modell wählt in jedem Schritt das Wort mit der höchsten berechneten Wahrscheinlichkeit basierend auf dem bisherigen Kontext. So entsteht ein gravitativer Sog zur Mitte hin – zuverlässig, aber stilistisch limitierend.

Individualisierte Texte erfordern Merkmale, die vom Mainstream abweichen – ungewöhnliche Wortwahl, besondere Satzstrukturen oder eigenwillige Gedankenführung. Diese Eigenschaften sind in den Trainingsdaten von LLMs selten vertreten, denn sie spiegeln nicht den sprachlichen Durchschnitt wider. Ein System, das auf statistische Wahrscheinlichkeiten programmiert ist, wird solche charakteristischen Elemente systematisch vermeiden. In der Fachliteratur spricht man in diesem Zusammenhang teilweise von "Mode Collapse", etwa wie es Ian Goodfellow in frühen GAN-Studien beschrieben haben – eine Tendenz, bei der ein Modell trotz vorhandener Vielfalt im Trainingsmaterial wiederholt nur wenige dominante Varianten produziert – der Tendenz, dass stilistische Varianten zugunsten der dominanten Form verloren gehen.

Plausibilität versus Wahrheit verdeutlicht einen weiteren wichtigen Aspekt. LLMs sind darauf optimiert, Texte zu erzeugen, die plausibel klingen – die sich "richtig" anfühlen und sprachlich stimmig erscheinen. Sie prüfen dabei jedoch nicht, ob der Inhalt faktisch korrekt ist oder ob der Stil tatsächlich zu einer bestimmten Person passt. Ein Text kann perfekt formuliert und völlig plausibel sein, aber dennoch nichts mit dem individuellen Kommunikationsstil des Verfassers zu tun haben.

Oder er kann – wie im oft zitierten Halluzinationsbeispiel aus der OpenAI-Dokumentation – behaupten, dass Immanuel Kant im 20. Jahrhundert gelebt habe. Diese Angabe wirkt sprachlich korrekt und thematisch stimmig, ist aber sachlich falsch: Kant starb bereits 1804. Solche Fehler entstehen, weil das Modell keine faktenbasierte Prüfung vornimmt, sondern darauf trainiert ist, sprachlich kohärente Antworten zu erzeugen. Die Forschung unterscheidet hier zwischen "truthfulness" (faktischer Korrektheit) und "verisimilitude" (sprachlicher Stimmigkeit). LLMs sind primär auf Letzteres optimiert.

In-Context-Stilübertragung bezeichnet den Versuch, einem LLM durch Beispiele und Anweisungen innerhalb eines Chats einen bestimmten Stil beizubringen. Das ist genau das, was ich in meinem Test gemacht habe: Ich gab dem System einen Artikel zur Analyse und bat es, diesen Stil zu übernehmen. Diese Methode funktioniert zunächst, weil das LLM die Stilmerkmale erkennen und nachahmen kann – etwa durch die Übernahme meiner typischen Struktur mit analytischem Einstieg, präziser Begriffsarbeit und ruhigem, rhythmisiertem Satzbau. Formulierungen wie „Diese Eigenschaft ist erklärungsbedürftig“ oder „Was daraus folgt, lässt sich in drei Punkten skizzieren“ wurden direkt übernommen und stilistisch passend in neue Kontexte eingebaut – situativ, nicht dauerhaft. Fachlich handelt es sich um sogenanntes Prompt Conditioning: ein kurzfristig wirksames Kontextlernen ohne langfristige Speicherung. Der übertragene Stil verblasst mit jedem weiteren Prompt, weil die statistische Architektur des Systems stärker ist als die temporäre Stilanweisung.

LLM-Imprints sind die charakteristischen Sprachmuster, die fast alle Large Language Models verwenden. Du erkennst sie an Formulierungen wie "Grundsätzlich...", "Es ist wichtig zu beachten...", "Darüber hinaus..." oder "Zusammenfassend lässt sich sagen...". Diese Muster entstehen nicht durch explizite Regeln, sondern durch ihre hohe Frequenz in den Trainingsdaten. Das Modell "lernt" sie als nützliche Strukturkonventionen. In der Fachdebatte spricht man hier auch von "alignment artifacts": sprachliche Oberflächenphänomene, die dazu beitragen sollen, dass Modelle als hilfreich, ausgewogen und sicher wahrgenommen werden – auch wenn sie dadurch stilistisch an Austauschbarkeit gewinnen.

Anti-Muster sind bewusste Abweichungen von diesen Standard-Formulierungen. Sie entstehen, wenn Autoren gezielt andere Wege wählen: kürzere Sätze statt langer Erklärungen, direkte Aussagen statt vorsichtiger Konjunktive, ungewöhnliche Übergänge statt Standard-Verbindungen. Anti-Muster zu entwickeln erfordert bewusste Entscheidungen gegen die statistische Wahrscheinlichkeit. Es handelt sich um intentionale Stilbrüche, etwa wenn ich statt eines typischen Satzbeginns wie „Darüber hinaus sollte beachtet werden…“ mit einem direkten „Diese Grenze ist deutlich spürbar.“ einsteige – ohne Abschwächung, ohne Übergangsfloskel. Solche Entscheidungen wirken wie ein stilistischer Bruch, sind aber bewusst gesetzt, um Klarheit und Haltung sichtbar zu machen, die vergleichbar sind mit eigenwilligen kompositorischen Entscheidungen in der Musik oder stilistischen Brüchen in der Literatur – bewusst gesetzt, um Konventionen zu unterlaufen und neue Wirkung zu erzeugen. Aus modelltechnischer Sicht sind solche Muster schwer stabil zu reproduzieren, weil sie in der Wahrscheinlichkeitsverteilung systematisch untergewichtet sind.

Diese Begriffe haben mir geholfen, die Grenzen und Möglichkeiten von LLMs in der Textarbeit präzise zu benennen – und vor allem zu erkennen, wann ich mich auf die KI verlassen kann und wann ich lieber selbst nachjustiere. Sie zeigen auch, warum individualisierte Texte mit KI eine größere Herausforderung darstellen – und warum es sich lohnt, im nächsten Abschnitt genauer auf den praktischen Umgang mit diesen Erkenntnissen einzugehen, als viele zunächst vermuten. Vielleicht sind sie gerade deshalb ein nützlicher Hinweis für dich, bei Zweifeln selbst Hand anzulegen – nicht gegen das System, sondern mit wachem Blick für das, was Stil wirklich ausmacht.

Abschnitt 3: Das methodische Vorgehen dokumentieren

Ein systematischer Ansatz und seine Grenzen

Mein Vorgehen bei der Stilübertragung folgte einer logischen Abfolge, die auf den ersten Blick vielversprechend erschien. Die Methode basierte auf der Annahme, dass ein LLM durch präzise Analyse und klare Anweisungen dauerhaft einen individuellen Schreibstil übernehmen kann. Diese Annahme erwies sich als teilweise richtig – und fundamental begrenzt.

Schritt 1: Die Stilanalyse

Ich begann damit, dem LLM einen meiner Blogartikel zur Analyse zu geben. Der Auftrag war konkret: "Analysiere den Stil, den Aufbau und die Ansprache. Merke dir das für diesen Chat, damit auch die folgenden Texte in diesem Stil entstehen." Das System lieferte eine bemerkenswert präzise Analyse meiner sprachlichen Eigenarten – und das bereits auf Basis eines einzelnen Blogartikels mit einer Länge von rund 1.200 Wörtern, den ich im Prompt bereitgestellt hatte. Dabei beruhte die Analyse nicht auf einem echten semantischen Textverständnis, sondern auf pattern recognition innerhalb des Promptkontexts: Das Modell identifizierte statistische Oberflächenmuster wie typische Satzlängen, bevorzugte Wortwahl oder den Rhythmus meiner Gedankenführung – nicht jedoch Bedeutung im engeren Sinn.

Es erkannte strukturelle Merkmale wie meine Tendenz zu systematischen Gedankenführungen, identifizierte sprachliche Besonderheiten wie die Verwendung präziser Fachbegriffe ohne Fachjargon und analysierte sogar subtile Aspekte wie meine bewusste Arbeit mit Kontrasten und Spannungen.

Diese Analyse war theoretisch fundiert und praktisch brauchbar. Das LLM hatte verstanden, was meinen Schreibstil ausmacht: die ruhige, aber bestimmte Ansprache, die systematische Entwicklung komplexer Gedanken, die Verbindung von fachlicher Präzision mit verständlicher Erklärung.

Die Qualität dieser Analyse ließ mich erwarten, dass die Stilübertragung tatsächlich gelingen könnte – auch wenn mir klar war, dass sie auf statistischer Mustererkennung basiert und nicht auf echtem Textverständnis. Das Modell erkennt Wahrscheinlichkeitsmuster in Syntax, Wortwahl und Struktur.

Schritt 2: Die Arbeitsanweisung

Basierend auf dieser Analyse erteilte ich dem System konkrete Arbeitsanweisungen für die Texterstellung. Ich verwies explizit auf die zuvor erstellte Stilanalyse. Die Anweisung lautete: "Schreibe in dem Stil, den du analysiert hast. Berücksichtige die strukturellen und sprachlichen Merkmale, die du identifiziert hast."

Zusätzlich integrierte ich Hinweise aus meinem Blogartikel über die Arbeit mit LLMs. Ich wies das System darauf hin, typische LLM-Muster zu vermeiden: keine kontrastiven "nicht... sondern"-Strukturen, keine wohlmeinenden Einleitungen mit "Grundsätzlich...", keine additiven Wiederholungen mit "Darüber hinaus...". Diese Anti-Muster-Anweisungen sollten verhindern, dass das System in seine statistischen Standardformulierungen zurückfällt.

Solche expliziten Negativanweisungen wirken im Promptkontext allerdings nur temporär. Sie entfalten keinen inhibitorischen Effekt im lernpsychologischen Sinn: Das Modell verlernt nichts, sondern verschiebt seine Wahrscheinlichkeitsschwerpunkte lokal entlang der Promptstruktur. Es ist ein wenig so, als würde man einem Schauspieler auf der Bühne sagen, er solle in einer Szene nicht seufzen – er wird es im Moment vielleicht unterlassen, aber ohne systematische Regieanweisung und Wiederholung wird er beim nächsten Auftritt instinktiv wieder in vertraute Ausdrucksmuster zurückfallen. Ein weiteres Beispiel ist, wenn ich den Teilnehmenden meiner Kommunikationsworkshops beibringe, auf "ähm" Laute zugunsten einer wohlplatzierten Pause zu verzichten. Das gelingt im ersten Ansatz bewusst recht gut. Es ist dann nur eine Frage der Zeit, bis die unbewussten "ähm"-Formen wieder verwendet werden. Es dauert eine ganze Weile, diese komplett durch Pausen zu ersetzen. Solche Negativanweisungen haben im Prompt nur temporären Einfluss – sie verdrängen keine Muster dauerhaft, sondern wirken als lokale Wahrscheinlichkeitsverschiebung im jeweiligen Kontext.

Schritt 3: Die Selbstreflexion des LLM

Nach der ersten Texterstellung forderte ich das System auf, seine eigene Arbeit zu analysieren. "Überprüfe deinen Text auf die typischen LLM-Muster, die du vermeiden solltest", lautete die Anweisung. Das Ergebnis war faszinierend: Das LLM konnte seine eigenen Mainstream-Muster tatsächlich erkennen und benennen.

Fachlich betrachtet handelt es sich dabei nicht um eine Form bewusster Selbstbeobachtung, wie man sie bei Menschen als Metakognition bezeichnet, sondern um promptbasierte Textklassifikation: Das Modell reagiert auf die Anfrage nach Mustern, indem es bekannte sprachliche Strukturen gegen den aktuellen Text abgleicht – eine Form von In-Context-Mustererkennung (siehe auch https://blog.dialoglabor.solutions/in-context-learning-icl/). Es identifizierte kontrastive Strukturen, motivierende Abschlüsse und Standard-Vokabular in seinem eigenen Text.

Diese Selbstreflexion funktionierte auf analytischer Ebene perfekt. Das System erkannte: "Hier verwende ich eine kontrastive Struktur", "dort eine additive Wiederholung", "am Ende einen motivierenden Abschluss". Es konnte sogar Verbesserungsvorschläge machen: "Statt 'nicht nur... sondern auch' könnte ich sequenziell argumentieren", "statt 'Darüber hinaus' könnte ich direkter überleiten". Diese „Selbstbeobachtung“ beruht auf In-Context-Klassifikation: Das Modell reagiert auf den Prompt, indem es bekannte Muster identifiziert und mit Wahrscheinlichkeitsclustern abgleicht.

Dieser Ansatz war aus mehreren Gründen theoretisch richtig:

Die Methode folgte bewährten Prinzipien des maschinellen Lernens und der Kommunikationstheorie. Sie lässt sich anschließen an Techniken des Supervised Fine-Tuning und des Few-Shot Prompting sowie an kommunikationstheoretische Schleifenmodelle wie sie etwa Paul Watzlawick oder Niklas Luhmann beschrieben haben. Beide gehen davon aus, dass Kommunikation nicht linear verläuft, sondern sich selbst rückbezüglich organisiert – das heißt: jede Äußerung wird nicht nur als Information, sondern zugleich als Reaktion auf Vorangegangenes und als Angebot für Weiteres verstanden.

In einem solchen Schleifenmodell wird jedes Element durch seine Beziehung zum gesamten Verlauf bestimmt – ähnlich wie im Promptdesign jeder neue Input den bisherigen Verlauf reflektiert und gleichzeitig modifiziert. Paul Watzlawick hätte es vielleicht so formuliert: Man kann nicht nicht reagieren – selbst das Schweigen in einem Gespräch verändert dessen Verlauf. Jede Äußerung – auch wenn sie noch so harmlos erscheint – ist immer auch eine Stellungnahme zur Beziehungsebene und ruft Reaktionen hervor, die sich rückwirkend auf das Verständnis vorheriger Aussagen auswirken.

Aus diesem Verständnis heraus ergibt sich eine logische Abfolge: Stilanalyse schafft Bewusstsein für sprachliche Muster, konkrete Arbeitsanweisungen geben Orientierung, Selbstreflexion ermöglicht Korrektur und Verbesserung. Während diese Sequenz in der menschlichen Kommunikation häufig zu nachhaltigen Lerneffekten führt, bleibt sie im Kontext künstlicher Intelligenz auf die Dauer eines Promptverlaufs beschränkt – sie erzeugt keine dauerhafte Verhaltensänderung, sondern lediglich temporäre Kontextadaption.

Mein Vorgehen berücksichtigte auch die bekannten Schwächen von LLMs: Ich gab nicht nur positive Anweisungen ("Schreibe so"), sondern auch negative ("Vermeide das"). Ich arbeitete mit konkreten Beispielen statt abstrakten Beschreibungen. Ich nutzte die Analysefähigkeiten des Systems, um Bewusstsein für problematische Muster zu schaffen.

Fachlich lässt sich dieses Vorgehen als Kombination aus Prompt Conditioning, Few-Shot Learning und reflexiver Kommunikation verstehen: Prompt Conditioning beschreibt die gezielte Steuerung des Sprachmodells durch formulierte Anweisungen; Few-Shot Learning bezeichnet die Methode, durch wenige Beispieltexte innerhalb eines Prompts eine gewünschte Textform zu etablieren.

Während beide Verfahren auf kurzfristige Einflussnahme abzielen, zielt der reflexive Anteil auf eine Rückbindung der Modellantwort an die eigene Textstruktur – also eine prozessuale Selbstbeobachtung entlang stilistischer Wiederholungsmuster. Du kannst dir das vorstellen wie eine Musikerin, die sich während des Spiels selbst zuhört und auf kleine Abweichungen im Rhythmus reagiert: Sie variiert nicht nur, sie hört sich beim Variieren zu und nimmt diese Veränderung wiederum in den weiteren Verlauf auf. (siehe auch few shot prompting https://blog.dialoglabor.solutions/few-shot-prompting/)

Theoretisch war mein Ansatz durchdacht und sollte funktionieren, dachte ich. Die Praxis zeigte mir jedoch die Grenzen dieser Methode auf: Bewusstsein führt bei LLMs nicht automatisch zu dauerhafter Verhaltensänderung. Weil es eben kein Bewusstsein hat. Die statistische Architektur ist stärker als die temporäre Stilanweisung.

GPT-Modelle bilden keine persistenten Prompt-States – das heißt: Stilinformationen und Anweisungen bleiben nur innerhalb des aktuellen Kontexts wirksam und werden mit jeder neuen Eingabe überschrieben, sobald sich Fokus, Thema oder Gesprächsrichtung verändern. GPT-Modelle bilden keine persistenten Prompt-States – Stilinformationen bleiben nur lokal wirksam.

Das lässt sich mit einem Mitarbeitenden vergleichen, mit dem man eine klare Absprache trifft: Zunächst funktioniert alles wie vereinbart. Dann – meist nach ein paar Tagen, manchmal sogar nach wenigen Stunden – schleichen sich alte Routinen wieder ein. Das liegt daran, dass Verhaltensänderungen ohne tiefgreifende Umstrukturierung nur oberflächlich wirken. Beim LLM geschieht dieser Rückfall nicht allmählich, sondern beinahe augenblicklich: Bereits wenige Prompts nach der Stilvorgabe dominieren wieder die wahrscheinlichsten Muster. Die Schleife beginnt nicht nach Tagen, sondern innerhalb derselben Sitzung – das Abweichen erfolgt nicht langsam, sondern systemimmanent schnell.

Die Ernüchterung

Trotz präziser Analyse, konkreter Anweisungen und funktionierender Selbstreflexion kehrte das System mit jedem weiteren Prompt mehr zu seinen Standardmustern zurück. Die ersten Abschnitte trugen noch erkennbare Züge meines Stils, doch bereits der zweite Abschnitt zeigte Abweichungen. Mit jedem weiteren Arbeitsschritt wurde der Text generischer, austauschbarer, "vanilla".

Das Problem, wenn es denn als ein solches bezeichnet werden kann, liegt in der Natur des Systems. Ein LLM kann Stilmerkmale erkennen, analysieren und temporär nachahmen. Es kann seine eigenen Muster reflektieren und Verbesserungen vorschlagen. Aber es kann diese Erkenntnisse nicht dauerhaft in sein generatives Verhalten integrieren, weil seine Textproduktion auf statistischen Wahrscheinlichkeiten basiert.

Auch wenn es für Anfänger häufig so wirkt, als ob es zu einer bewussten Konversation kommt – etwa weil das Modell frühere Aussagen wieder aufgreift oder auf Anschlussfähigkeit achtet –, basiert diese Wirkung ausschließlich auf der Kohärenz statistisch generierter Antworten im lokalen Kontext. Ein LLM, eine KI hat kein Bewusstsein.

Ein vertiefender Blick in diese Thematik lohnt sich im Buch „Maschinenbewusstsein“ von Dr. Ralf Otte. Er diskutiert dort die zukünftige Entwicklung der Künstlichen Intelligenz (KI) und betont, dass maschinelles Lernen mit heutiger Technologie an Grenzen stößt. Otte sieht in neuromorphen, vom menschlichen Gehirn inspirierten Hardware-Systemen eine mögliche nächste Stufe, die echtes Maschinenbewusstsein ermöglichen könnte. Gleichzeitig warnt er vor den gesellschaftlichen und ethischen Risiken dieser Entwicklung und fordert eine kritische Auseinandersetzung mit den Chancen und Gefahren fortschrittlicher KI.

Diese Erkenntnis verändert die Erwartungen an die Zusammenarbeit mit LLMs grundlegend. Individualisierte Texte mit KI-Unterstützung sind möglich – jedoch nur unter der Voraussetzung einer kontinuierlichen menschlichen Steuerung und Korrektur.

An genau diesem Punkt habe ich weitergedacht: Welche praktischen Schlussfolgerungen ergeben sich aus dieser begrenzten Steuerbarkeit – und was darf ich realistischerweise von einer LLM-basierten Textproduktion erwarten? Darum wird es im folgenden Abschnitt gehen.

Abschnitt 4: Die ernüchternde Erkenntnis

Warum Bewusstsein nicht gleich Kontrolle ist

Die Ergebnisse meiner Tests führten zu einer fundamentalen Einsicht über die Funktionsweise von Large Language Models: Die Fähigkeit zur Selbstreflexion bedeutet nicht automatisch die Fähigkeit zur dauerhaften Verhaltensänderung. Diese Erkenntnis hat weitreichende Konsequenzen für alle, die mit LLMs individualisierte Texte erstellen möchten.

Das Paradox der bewussten Inkompetenz

Das bemerkenswerteste Phänomen in meinen Tests war die Diskrepanz zwischen Erkennen und Handeln. Das LLM konnte seine eigenen problematischen Muster nicht nur identifizieren, sondern auch präzise beschreiben: "Hier verwende ich eine kontrastive Struktur mit 'nicht... sondern'", "dort eine additive Wiederholung mit 'darüber hinaus'", "am Ende einen motivierenden Abschluss, der typisch für KI-Texte ist". Die analytische Kompetenz war vollständig vorhanden.

Dennoch produzierte dasselbe System im nächsten Arbeitsschritt wieder genau diese Muster. Es wusste, was es vermeiden sollte, konnte erklären, warum diese Muster problematisch sind, und fiel trotzdem in sie zurück. Diese "bewusste Inkompetenz" zeigt die grundlegende Architektur von LLMs: Sie sind Analysesysteme und Produktionssysteme zugleich, aber diese beiden Funktionen sind nicht miteinander gekoppelt.

Die Dominanz der statistischen Architektur

Der Grund für dieses Paradox liegt in der Art, wie LLMs funktionieren. Jedes Wort, das ein System generiert, basiert auf statistischen Berechnungen: Jedes Token wird sequenziell durch das Transformer-Modell als wahrscheinlichste Fortsetzung der bisherigen Tokenfolge ausgewählt. Diese Berechnungen greifen auf die gesamten Trainingsdaten zurück – Millionen von Texten, in denen bestimmte Formulierungen häufig vorkommen.

Eine temporäre Stilanweisung in einem Chat kann diese massive statistische Basis nicht dauerhaft überschreiben. Sie wirkt wie ein schwaches Signal in einem starken Grundrauschen. Die ersten ein oder zwei Textabschnitte können noch von der Stilanweisung geprägt sein, weil sie im unmittelbaren Kontext steht. Je weiter der Text fortschreitet, desto mehr dominiert jedoch die statistische Wahrscheinlichkeit.

Das erklärt auch, warum die Regression zur statistischen Mitte so vorhersagbar verläuft. Es ist kein zufälliger Prozess, sondern eine systematische Rückkehr zu den häufigsten, "sichersten" Formulierungen in den Trainingsdaten. Das System macht dabei keinen Fehler – es funktioniert genau so, wie es entwickelt wurde.

Selbstreflexion als separate Funktion

Die Fähigkeit zur Selbstreflexion nutzt andere Mechanismen als die Textproduktion. Wenn ein LLM seinen eigenen Text analysiert, arbeitet es im Analysemodus: Es erkennt Muster, kategorisiert Strukturen und bewertet Formulierungen anhand der Kriterien, die in der Anweisung gegeben wurden. Diese Analyse kann sehr präzise sein, weil sie auf die gleichen Trainingsdaten zugreift, die auch die problematischen Muster enthalten. Diese Form der „Selbstreflexion“ ist kein mentales Geschehen, sondern das Ergebnis einer statistisch gestützten In-Context-Analyse, ausgelöst durch entsprechende Prompts.

Du kannst dir das vorstellen wie bei einem Spiegel, der dich perfekt erkennen lässt, was schief sitzt – ohne selbst etwas korrigieren zu können. Das LLM „sieht“, was falsch ist, aber es greift dabei nur auf gespeicherte Mustererkennung zurück – es verändert sich dabei nicht.

Die Textproduktion hingegen läuft im Generierungsmodus: Wort für Wort, basierend auf statistischen Wahrscheinlichkeiten. Während im Analysemodus diskriminative Aufgaben wie Musterklassifikation dominieren, arbeitet das Modell im Produktionsmodus generativ – auf Basis probabilistischer Sequenzfortschreibung. Dieser Modus hat keinen direkten Zugriff auf die Erkenntnisse des Analysemodus. Die beiden Funktionen laufen parallel, aber nicht integriert.

Stell dir einen Fahrer und einem Beifahrer vor: Der Beifahrer erkennt Gefahrenstellen, Baustellen oder Staus und beschreibt sie detailliert – aber das Steuer liegt beim Fahrer, der diesen Hinweisen nur folgt, wenn er gerade in der Stimmung dazu ist. Die Analyse läuft also mit, aber sie greift nicht aktiv in die Steuerung der Textproduktion ein.

Diese Trennung erklärt, warum ein LLM gleichzeitig sehr intelligent und sehr begrenzt wirken kann. Es kann brillante Analysen liefern und im nächsten Moment in die Muster zurückfallen, die es gerade kritisiert hat. Das ist kein Widerspruch, sondern die logische Konsequenz seiner Architektur.

Die Illusion des Lernens

Für die Menschen, die ich die in die Wunderwelt der KI einarbeite, entsteht ( am anfang) oft die Illusion, das System würde lernen. Wenn es präzise Analysen liefert und Verbesserungsvorschläge macht, scheint es zu verstehen und sich zu entwickeln. Diese Illusion wird durch die hohe Qualität der Selbstreflexion verstärkt: Das System kann seine Fehler so gut erklären, dass es kompetent und lernfähig wirkt.

Tatsächlich findet jedoch kein Lernen im menschlichen Sinne statt. Lernen findet ausschließlich während der Trainingsphase (Pretraining oder Fine-Tuning) statt – die spätere Texterzeugung in der Inferenzphase greift lediglich auf diese trainierten Wahrscheinlichkeitsmuster zurück. Das LLM speichert keine Erfahrungen, entwickelt keine Präferenzen und baut keine dauerhaften Fähigkeiten auf. Jeder neue Prompt wird auf Basis der ursprünglichen Trainingsdaten bearbeitet, ergänzt um den aktuellen Kontext. Die Selbstreflexion ist eine Momentaufnahme, keine dauerhafte Erkenntnis.

Konsequenzen für die Textarbeit

Diese Erkenntnisse haben praktische Konsequenzen für jeden, der mit LLMs individualisierte Texte erstellen möchte. Die wichtigste Erkenntnis: Du kannst nicht erwarten, dass ein System einmal belehrt und dann dauerhaft verändert ist. Jeder Arbeitsschritt erfordert neue Anweisungen, jeder Absatz kann neue Korrekturen nötig machen.

Das bedeutet nicht, dass die Zusammenarbeit mit LLMs sinnlos ist. Es bedeutet, dass du deine Erwartungen anpassen und deine Arbeitsweise entsprechend gestalten musst. Individualisierte Texte mit KI-Unterstützung sind möglich – aber sie erfordern kontinuierliche menschliche Steuerung.

Die Erkenntnis, dass Bewusstsein nicht gleich Kontrolle ist, gilt übrigens nicht nur für LLMs. Sie beschreibt ein grundlegendes Prinzip intelligenter Systeme: Die Fähigkeit zur Analyse ist etwas anderes als die Fähigkeit zur dauerhaften Verhaltensänderung. Diese Unterscheidung zu verstehen ist der erste Schritt zu einer realistischen und produktiven Zusammenarbeit mit KI-Systemen – und mit jedem System, das auf automatisierten Entscheidungsmechanismen basiert.

Abschnitt 5: Praktische Konsequenzen für deine Textarbeit

Was du realistisch erwarten kannst und wo du selbst aktiv werden musst

Die Erkenntnisse aus meinen Tests haben direkte Auswirkungen auf die Art, wie du mit Large Language Models arbeiten solltest. Statt unrealistischer Erwartungen an vollautomatisierte Individualisierung geht es darum, die Stärken und Schwächen der Systeme zu verstehen und deine Arbeitsweise entsprechend anzupassen.

Was du von LLMs erwarten kannst

Large Language Models sind hervorragende Analysewerkzeuge für Schreibstile. Diese Fähigkeit beruht auf statistischer Mustererkennung im Promptkontext – insbesondere durch tokenbasierte Wahrscheinlichkeitsverteilungen und das Transformer-Modell. Sie können deine Texte präzise untersuchen, sprachliche Muster identifizieren und strukturelle Eigenarten erkennen. Diese Analysefähigkeit ist oft detaillierter und systematischer, als du sie selbst leisten könntest. Das System erkennt Wiederholungen, die dir entgehen, identifiziert unbewusste Sprachmuster und kann sogar subtile Aspekte wie Rhythmus oder Tonalität beschreiben.

Ebenso können LLMs temporär einen analysierten Stil nachahmen. Die ersten Textabschnitte, die nach einer Stilanalyse entstehen, tragen oft erkennbare Züge des Originalstils. Das System kann komplexe Anweisungen verstehen und umsetzen, solange der Kontext noch frisch ist. Diese Fähigkeit macht LLMs zu wertvollen Partnern in der ersten Phase der Texterstellung.

Darüber hinaus sind LLMs ausgezeichnete Reflexionspartner. Sie können ihre eigenen Texte analysieren, problematische Muster erkennen und konkrete Verbesserungsvorschläge machen. Diese Form der Selbstreflexion basiert auf promptbasierter Textklassifikation – einer internen Mustererkennung. Sie kann dir helfen, deine eigenen blinden Flecken zu erkennen und deinen Schreibprozess zu verbessern.

Was du nicht erwarten solltest

Dauerhafte Stilkonsistenz gehört nicht zu den Stärken von LLMs. Jedenfalls bis zum August 2025 nicht. Du kannst nicht erwarten, dass ein System einmal instruiert und dann zuverlässig in deinem Stil schreibt. Große Sprachmodelle leiden nach aktuellem Forschungsstand tatsächlich unter begrenzter Stilkonsistenz, was auf das Phänomen des Mode Collapse zurückzuführen ist – die Tendenz, stilistische Vielfalt zugunsten dominanter Muster zu verlieren. Studien zeigen, dass neuere GPT-Modelle durch Alignment-Prozesse ihre Fähigkeit einbüßen, unterschiedliche Schreibstile glaubwürdig zu simulieren. Theoretisch ist zudem belegt, dass Sprachmodelle strukturell nicht in der Lage sind, gleichzeitig stilistische Breite und Konsistenz zu garantieren. Auch neuere Methoden zur Verbesserung der Stiltreue durch gezielte Datenselektion bestätigen diesen Zielkonflikt, indem sie Diversität einschränken, um Konsistenz zu erzielen.

Ebenso wenig solltest du erwarten, dass ein LLM aus Fehlern lernt. Auch wenn das System seine Muster erkennen und kritisieren kann, wird es sie beim nächsten Text wieder verwenden. Die Fähigkeit zur Selbstreflexion führt nicht automatisch zu dauerhafter Verhaltensänderung.

Authentische Individualität kann ein LLM nicht erzeugen. Es kann Stile nachahmen, aber nicht die persönlichen Erfahrungen, Überzeugungen und Denkweisen reproduzieren, die echte Individualität ausmachen. Was du erhältst, ist eine Approximation – manchmal sehr gut, aber immer eine Nachahmung.

Wo händische Nacharbeit unvermeidbar ist

Jeder längere Text erfordert kontinuierliche Überwachung und Korrektur. Du musst jeden Abschnitt darauf prüfen, ob er noch deinen Stil trägt oder bereits in Mainstream-Muster zurückgefallen ist. Diese Prüfung erfordert dein persönliches Urteil über das, was zu dir passt und natürlich was nicht.

Besonders kritisch sind Übergänge zwischen Abschnitten. Hier zeigt sich die Regression zur statistischen Mitte oft zuerst. Formulierungen wie "Darüber hinaus", "Außerdem" oder "Zusammenfassend" sind Warnsignale, dass das System zu seinen Standardmustern zurückkehrt.

Die Feinabstimmung von Tonalität und Nuancen bleibt ebenfalls deine Aufgabe. Ein LLM kann die groben Züge deines Stils erfassen, aber die subtilen Unterschiede in der Ansprache, die Wahl zwischen verschiedenen Synonymen oder die Entscheidung für oder gegen eine bestimmte Metapher erfordern dein persönliches Eingreifen.

Strategien für die praktische Arbeit

Eine erfolgreiche Zusammenarbeit mit LLMs erfordert angepasste Arbeitsstrategien. Statt lange Texte in einem Zug erstellen zu lassen, arbeitest du besser in kurzen Abschnitten. Jeder Abschnitt sollte einzeln instruiert, erstellt und überprüft werden, bevor du zum nächsten übergehst.

Entwickle ein System von Checkpoints: Definiere konkrete Kriterien, an denen du erkennst, ob ein Text noch deinen Stil trägt oder bereits zu generisch geworden ist. Diese Kriterien können sprachliche Merkmale sein (bestimmte Formulierungen, die du nie verwendest), strukturelle Aspekte (Absatzlängen, Gedankenführung) oder inhaltliche Schwerpunkte (Themen, die dir wichtig sind). Eine Negativliste bekannter LLM-Muster kann dir zusätzlich helfen.

Nutze die Analysefähigkeiten des LLM strategisch: Lass es beständig deine eigenen Texte analysieren. Diese Analysen können dir helfen, deinen Stil bewusster wahrzunehmen und präziser zu beschreiben. Je genauer du deinen Stil definieren kannst, desto gezielter kannst du Anweisungen geben – etwa über stilistische Filter oder systematisch benannte Textbausteine.

Die Rolle des menschlichen Editors

In der Zusammenarbeit mit LLMs wirst du zwangsläufig zum Editor deiner eigenen Texte. Diese Rolle erfordert neue Fähigkeiten: Du musst lernen, KI-generierte Texte schnell auf Authentizität zu prüfen, problematische Muster zu erkennen und gezielt zu korrigieren.

Dabei geht es um inhaltliche Authentizität. Du musst beurteilen können, ob ein Gedankengang zu dir passt, ob eine Argumentation deiner Überzeugung entspricht, ob die Ansprache zu deiner Persönlichkeit passt. Diese Beurteilungen kann dir kein System abnehmen – sie erfordern einen intentionalen Standpunkt, den LLMs nicht einnehmen können. Dieses Intentionalitätsdefizit ist grundlegend für die strukturelle Grenze maschineller Textproduktion.

Stell dir noch einmal einen Spiegel vor, der alles reflektiert, aber selbst keinen Blick zurückwirft. Ein LLM bildet sprachliche Muster ab – aber es hat keinen inneren Bezug dazu, keine Haltung, kein eigenes Verständnis. Genau deshalb bleibt die abschließende Beurteilung, was zu dir passt, in deiner Verantwortung.

Gleichzeitig eröffnet diese Editoren-Rolle neue Möglichkeiten: Du kannst mit verschiedenen Formulierungen experimentieren, alternative Argumentationswege erkunden und deinen Stil bewusster entwickeln. Die Zusammenarbeit mit einem LLM kann zu einem Reflexionsprozess über deine eigene Kommunikation werden.

Realistische Effizienzgewinne

Trotz der Einschränkungen sind deutliche Effizienzgewinne möglich. LLMs können dir die erste Rohfassung liefern, Strukturen vorschlagen und alternative Formulierungen anbieten. Sie können repetitive Aufgaben übernehmen und dir Zeit für die kreativen und strategischen Aspekte des Schreibens verschaffen.

Die größten Gewinne erzielst du wahrscheinlich nicht bei der Texterstellung selbst, sondern bei der Vorbereitung und Nachbearbeitung. LLMs können Recherchen unterstützen, Gliederungen erstellen, Argumente strukturieren und verschiedene Perspektiven auf ein Thema aufzeigen. Diese Unterstützung kann deinen Schreibprozess erheblich beschleunigen.

Die neue Realität der Textarbeit

Die Zusammenarbeit mit LLMs verändert die Natur des Schreibens. Du wirst weniger Zeit mit der Erstellung von Rohfassungen verbringen und mehr Zeit mit deren Verfeinerung. Du wirst bewusster über deinen Stil nachdenken und präziser definieren müssen, was dich als Autor ausmacht.

Diese Veränderung ist nicht nur eine technische Anpassung, sondern eine fundamentale Neuorientierung. Individualisierte Texte entstehen in Zukunft durch intelligente Kooperation zwischen deiner menschlichen Kreativität und maschineller Unterstützung. Systeme dieser Art lassen sich als Co-Creation-Plattformen verstehen – kollaborative Textumgebungen, in denen Mensch und Modell jeweils ihre Stärken einbringen.

Und natürlich kann es auch sein, dass du mit den ersten Ergebnissen der Texte, die ein LLM dir anbietet, auch selbst schon sehr zufrieden bist, weil es ausreicht, einen Mainstream-Text zu haben, der im Kern das zur Aussage bringt, was du aussagen willst. Dann kannst du dir die Arbeit mit KI-erstellten Texten besonders leicht machen. Vielen Dank für deine Aufmerksamkeit.