Die Einführung von KI ist ein sozialer Lernprozess, der nicht nur technische Aspekte, sondern auch menschliche, organisatorische und kulturelle Faktoren berücksichtigt. Viele KI-Projekte scheitern aufgrund unzureichender Integration in bestehende Prozesse und einer geringen Fehlertoleranz. Erfolgreiche Initiativen erfordern klare Ziele, Einbindung der Nutzer und eine Kultur, die Lernen aus Fehlern fördert. Führungskräfte sollten KI als Veränderungsprozess rahmen und Lernräume schaffen, um die Akzeptanz und Effektivität zu steigern.

Die Einführung von KI ist ein sozialer Lernprozess

Wenn ich mir die aktuellen Meldungen zur künstlichen Intelligenz anschaue, entsteht auf den ersten Blick ein sehr interessantes Bild.

  • Konzerne berichten von gewaltigen Kosteneinsparungen.
  • Prozesse werden drastisch beschleunigt.
  • Tausende Stellen fallen weg oder werden „freigesetzt“.

In bestimmten Branchen scheinen die Berufseinstiegschancen zu schrumpfen, weil Tätigkeiten, die früher Junior-Consultants oder Berufseinsteiger übernommen haben, heute von KI-Systemen erledigt werden.

Wenn du in wissensintensiven Bereichen wie Beratung, Analyse oder Kundenservice tätig bist, kannst du möglicherweise die folgende Botschaft bestätigen. Generative KI übernimmt viele der klassischen Einstiegsaufgaben effizienter, schneller und günstiger. Recherchen, erste Auswertungen, Standardangebote, Präsentationsentwürfe; vieles davon können inzwischen Plattformen erzeugen, für die früher ganze Teams aus Nachwuchskräften beschäftigt wurden.

Auf der Bühne der Pressemitteilungen präsentiert sich mir die Geschichte einer mächtigen, beinahe reibungslos funktionierenden Technologie, die ganze Tätigkeitsfelder in kurzer Zeit umflügt oder sogar schon umgeflügt hat. Das Akquiseversprechen beschreibt ein Hochleistungstool, das eingeführt wird, dann zuverlässig läuft und eine außergewöhnlich hohe Hebelwirkung erzeugt.

Welches Unternehmen ist dir bekannt, das an die Presse geht und offen erklärt, dass wochen- oder monatelang an Daten, Schnittstellen und Prozessen gearbeitet wurde, nur um festzustellen, dass die Zuverlässigkeit der Ergebnisse noch nicht zufriedenstellend ist? Das eine Lösung live geht und Fehler macht. Das der E-Mail-Eingang automatisiert werden sollte: Eingehende Nachrichten sortieren, Standardanfragen automatisch beantworten, einfache Rückfragen durch die KI vorqalifizieren lassen. Und ja, es kommt immer wieder zu Fehlern.

Fehlertoleranz bei Mensch und Maschine

Einen ersten Hinweis aus der Sozialforschung kann ich dir hier schon geben. Die Fehlertoleranz beim Vergleich zwischen Menschen und Algorithmen weist eine Kluft auf. Wenn ein Kollege, eine Kollegin, ein Vorgesetzter, ein Mitarbeitender, eine Mitarbeiterin einen Fehler macht, dann ist die Fehlertoleranz, die wir Menschen gegenüber zeigen, sehr viel höher als gegenüber einem Algorithmus. Wenn ein Computerprogramm, so möchte ich das hier nochmal bezeichnen, einen Fehler macht, dann wird sehr schnell insgesamt in Frage gestellt, ob das einsetzbar ist und es wird eher wieder abgestellt. Im Verlauf des Artikels gebe ich noch Beispiele dafür.

In einem Artikel bin ich auf eine aktuelle MIT-Studie gestoßen. Und die behauptet, dass 95 % der gestarteten und durchgeführten KI-Projekte gescheitert sind. Damit kann die Spannbreite zwischen zwei Welten kaum größer beschrieben werden. Auf der einen Seite haben wir große Erfolgsmeldungen, in denen KI mühelos Arbeit ersetzt und ganze Rollen infrage stellt. Auf der anderen Seite haben wir den Unternehmensalltag, in dem schon vergleichsweise einfache Projekte an ein paar Fehlern scheitern oder erst gar nicht über das Pilotstadium hinauskommen.

Als jemand, der jahrelang an unterschiedlichen Hochschulen gearbeitet hat, interessiert mich natürlich auch die Wahrnehmung, Beobachtung und Analyse von außen.

Wenn wir wissenschaftliche Maßstäbe anlegen,

  • wie viel Prozent der KI-Projekte, die begonnen werden oder wurden, derzeit am Laufen sind und möglicherweise am Laufen gehalten werden sollen, können dann als erfolgreich markiert werden?
  • Was bedeutet erfolgreich unter wissenschaftlichen Bedingungen eigentlich?

Weltweit beschäftigen sich sehr viele Forschungsinstitute mit diesem Phänomen. Deren Ergebnisse habe ich als Grundlage für diesen Artikel genommen und werde sie dir im Verlauf der nächsten Kapitel vorstellen.

Ich möchte mal der Frage nachgehen, wie das zusammenpasst. Wie kann es sein, dass KI an der einen Stelle Berufsbilder verdrängt, während an der anderen Stelle schon ein paar unpassende E-Mails, ein paar nicht so schöne Briefvorlagen das System zum Stillstand bringen oder sogar zur Stilllegung führen?

Der soziale und kulturelle Lernprozess mit KI

Auf der Positivseite werden Unternehmen wie Bosch, Siemens und die Telekom angeführt, die unterschiedliche Verfahren entwickelt haben, um es Mitarbeitenden einfach zu machen, sich mit dem Thema KI im Unternehmen zu beschäftigen. In Diskussionen, die ich führe, kommt jetzt das bekannte Argument: “Ja, in großen Unternehmen ist die Technik einfach besser.” Oder: “Wir Mittelständler sind technisch noch nicht so weit.” Wenn du KI-Projekte als technische Umsetzung, als Möglichkeit Prozesse zu verbessern, betrachtest, dann kann das sogar stimmen. Wenn du dir einen Moment lang erlaubst, KI nicht primär als technische Möglichkeit zu betrachten, sondern als sozio-kulturelles Phänomen, ergibt sich möglicherweise ein völlig anderes Bild.

Es könnte hilfreich sein, wenn du für den Augenblick mal den Begriff KI, künstliche Intelligenz, eher als aus dem Marketing stammenden Werbebegriff begreifst. Als nächstes nutzt du gedanklich nicht den Begriff künstliche Intelligenz, sondern Large Language Model, großes Sprachmodell. Sprache ist Kommunikation und Interaktion. Interaktion ist ein soziales und kulturelles Phänomen, weniger ein technisches. In diesem Sinne kannst du es dir möglicherweise mal erlauben, KI nicht zu nutzen, sondern mit einem Large Language Model zu interagieren

Es wird dann möglicherweise deutlicher, dass die aktuellen Untersuchungen vom MIT folgendes Bild zeichnen: Die überwiegende Mehrzahl der KI-Initiativen liefert keinen nachhaltigen Mehrwert. Die Ursachen dafür liegen selten in der Technologie selbst. Entscheidend ist der Umgang damit, die Erwartung und die Einbettung in Prozesse. Vor allem das Verhalten der Menschen, die mit dieser Technologie leben und arbeiten sollen, rückt in den Vordergrund.

Wenn du Lust hast, weiterzulesen, dann betrachte künstliche Intelligenz, konkret ein Large Language Model, für den Moment als einen sozialen Lernprozess.

Die Einführung von KI ist eine Führungsaufgabe

Die Einführung eines LLMs greift tief in Arbeitsweisen, Entscheidungsroutinen und Rollenbilder ein. Sie wirft Vertrauensfragen auf, berührt Machtverhältnisse und trifft auf bestehende Muster von Fehlerkultur und Perfektionsanspruch. Das Prompten, die Arbeitsanweisung an und in so ein LLM hinein, ist ein gutes Beispiel dafür. Nachdem die Technik eingerichtet ist, also die Anmeldung in Langdock, OpenAI usw. vollzogen, treten kommunikative, soziale, kulturelle Elemente in den Vordergrund. Das eigene Kommunikations- und Interaktionspotenzial wird gefordert. Kreatives, flexibles, vernetztes Denken und gemeinsames Lernen innerhalb der gesamten Organisation, gewinnen an Bedeutung.

Die Studien, Zahlen und Beispiele, auf die ich für dich zusammengetragen habe, beziehen sich auf internationale Befunde bis hin zu Beobachtungen aus deutschen Unternehmen.

Das Gallup-Institut untersucht seit Jahrzehnten mit dem Engagement-Index, welche Bedingungen erfüllt sein müssen, damit Mitarbeitende engagiert und motiviert “mitarbeiten”. Komplex, wie die Untersuchungen sind, kann ich sie immer wieder auf einen Punkt kondensieren und eine der wichtigsten Erkenntnisse extrahieren: Engagement und Motivation wird über die direkten Vorgesetzten mitbestimmt. Wenn wir das übertragen auf die Arbeit mit künstlicher Intelligenz und Large Language Models, dann ist das eine Führungsaufgabe. Eine soziale und kulturelle.

Was empirische Studien über KI-Initiativen aussagen.

In diesem Kapitel stelle ich dir einen Ausschnitt aus dieser Studienlandschaft zusammen. Ich möchte dir Hintergrundinformationen zu meiner Erfahrung geben, dass KI-Projekte vor allem an sozialen und organisatorischen Faktoren scheitern, oder mit den gleichen Faktoren erfolgreich umgesetzt wird.

Die Massachusetts Institute of Technology (MIT)-Perspektive

95 Prozent ohne nachhaltigen Mehrwert

Eine der deutlichsten Stimmen kommt aus dem Umfeld des Massachusetts Institute of Technology (MIT) In einer Untersuchung haben Forscherinnen und Forscher mehrere hundert Initiativen mit generativer KI in Unternehmen analysiert. Nur etwa fünf Prozent der untersuchten Initiativen liefern einen nachweisbaren, nachhaltigen wirtschaftlichen Mehrwert.

„Scheitern“ wird in dieser Studie nicht daran festgemacht, ob ein Modell technisch läuft oder ob es eine Demo geben kann. Eine Initiative gilt als gescheitert, wenn mindestens eines der folgenden Kriterien zutrifft:

  • Sie erzielt keinen erkennbaren Einfluss auf Ergebnis- oder Kostenrechnung.
  • Sie schafft den Sprung vom Pilot in die produktive Anwendung nicht.
  • Sie erweist sich als so unzuverlässig, schlecht eingeführt oder gesellschaftlich problematisch, dass sie wieder zurückgefahren wird.

Erfolgreich ist eine KI-Initiative nur dann, wenn sie in der realen Arbeitswelt Wert schafft. Wirtschaftlich, organisatorisch und indem sie die eigene Umgebung bereichert.

Die Autoren und Autorinnen der Studie betonen ausdrücklich, dass die Ursachen für das Scheitern selten in der Kerntechnologie liegen. Modelle und Plattformen sind heute in vielen Bereichen solide genug. Was fehlt, sind:

  • klare Ziele und passende Einsatzfelder,
  • tragfähige Prozesse rund um die Modelle,
  • Kompetenzen bei den Nutzenden,
  • und eine Kultur, die mit der notwendigen Unsicherheit umgehen kann.

Wer die Technik hinter einem Large Language Model versteht, stuft sie in der Regel relativ schnell als „gut genug“ ein. Was in den meisten Fällen besser zu werden hat, besser zu laufen hat, ist das soziale und kulturelle System.

Makro-Erfolg und Mikro-Scheitern

Auf der obersten Ebene, in den großen Berichten und Pressemitteilungen, sehen wir meistens die Erfolgsgeschichten. Plattformunternehmen und Konzerne melden:

  • drastische Kostensenkungen im Kundenservice,
  • massiv beschleunigte Entwicklungs- und Analyseprozesse,
  • und zum Teil erhebliche Stellenreduktionen.

Ein Beispiel, das in vielen Diskussionen, die ich führe, auftaucht, ist die Automatisierung von Kundenanfragen. Ein großes Unternehmen kann durch einen gut trainierten, KI-gestützten Chatbot hunderte oder tausende Mitarbeitende im Callcenter ersetzen oder versetzen. Ein anderer Player steigert seine Softwareentwicklungsgeschwindigkeit mithilfe von Code-Assistenzsystemen so deutlich, dass Teams plötzlich deutlich mehr Projekte stemmen können.

Diese Fälle sind real. Sie erklären, warum du immer wieder Meldungen siehst, in denen von „freigesetzten“ Arbeitsplätzen, von bedrohten Einstiegspositionen und von radikalen Produktivitätssprüngen die Rede ist. Es ist fast wie im Pareto-Prinzip, das besagt, dass 80% des Ergebnisses durch 20% des Einsatzes verursacht werden. Es ist das Gesetz der wenigen Wesentlichen, dass ich hier für einen Augenblick mal im Hinterkopf behalten möchte.

Wenn wir damit etwas tiefer hineinschauen, können wir ein Muster wahrnehmen, das ich für die Führungsarbeit spannend finde. Die spektakulären Erfolge entstehen oft aus einer kleinen Minderheit von Projekten. Der große Rest bleibt im Experimentierstadium hängen.

Der globale Einzelhändler: 200 Initiativen, 10 Durchbrüche

Ein Fall aus der Forschung illustriert das sehr anschaulich. In der Studie wird von einem globalen Einzelhändler berichtet, der ein umfangreiches KI-Programm aufgelegt hat. Insgesamt wurden rund 200 Initiativen gestartet, von Absatzprognosen über Personaleinsatzplanung bis hin zu Logistik- und Lieferkettenoptimierung.

Das Ergebnis:

Etwa 190 dieser Initiativen haben entweder keine messbaren Einsparungen gebracht oder wurden nach einiger Zeit wieder verworfen.

Zehn Initiativen dagegen waren so erfolgreich, dass sie die Kosten in zentralen Bereichen drastisch senken konnten – insbesondere in der Lagerlogistik und der Steuerung der Lieferketten.

Die wirtschaftliche Wirkung dieser zehn Projekte war so groß, dass insgesamt tausende Stellen eingespart wurden. Aus unternehmerischer Sicht hat sich das Programm gelohnt. Wenige, sehr wirksame Projekte haben ausgereicht, um die Gesamtbilanz deutlich positiv zu beeinflussen.

Stellen wir Learning und Earning gegenüber. Die Botschaft sieht dann in etwa wie folgt aus:

  • Eine hohe Fehlversuchsrate ist bei KI-Initiativen offenbar normal.
  • Es genügt, wenn wenige Projekte durchschlagen, um auf Makro-Ebene beeindruckende Effekte zu erzielen.

Viele Teams investieren Energie in Projekte, die nie richtig abheben. Wichtig sind sie trotzdem, weil sie Learning fördern und fordern.

Wenn du als Führungskraft tätig bist, dann kann das zu herausfordernden, möglicherweise sogar unbequemen Einsichten führen. Wenn ihr mit einem Large Language Model arbeiten wollt, dann ist es sehr wahrscheinlich, dass ein großer Teil eurer Initiativen nicht unmittelbar die erwünschte Wirkung hat. Das nicht als Zeichen von Inkompetenz und schlechter Technik zu vermitteln, sondern als Ausdruck von Unsicherheit, Entwicklung und Lernkurve, die im System liegt, könnte eine große Herausforderung für dich sein. Wenn du als Mitarbeiter oder Mitarbeiterinnen Teil von so einem Prozess bzw. Projekt bist, wie kannst du dir dann einen Lernprozess organisieren, in dem du aus vielen Versuchen klüger werden kannst und zum Teil wenige Treffer bewusst konstruktiv skalierst?

Deutschland: Viele Piloten, wenig verankerte Praxis

Schauen wir auf Deutschland, ergibt sich ein ähnliches Bild, wenn auch mit eigener Färbung. Je nach Studie nutzen aktuell (Stand November 2025) etwa 35 bis 40 Prozent der Unternehmen KI aktiv in ihren Prozessen. Rund 50% hat Pilotprojekte gestartet oder plant solche.

Das klingt auf den ersten Blick schon ganz gut: Ein großer Teil der Unternehmerinnen, Unternehmer und der Belegschaft beschäftigt sich ernsthaft mit dem Thema. In vielen Gesprächen zeigt sich allerdings, dass zahlreiche dieser Initiativen in einem Dauerpilot-Status verharren. Das zum Teil Wochen oder Monate vergehen, bis eine Annäherung an eine Entscheidung gefunden wird.

  • Es gibt eine Anzahl von typischen, musterhaften Herausforderungen, die wir dabei immer wieder wahrnehmen können.
  • Pilotprojekte laufen parallel zum Alltag und werden eher als Experiment wahrgenommen.
  • Klare Kriterien, wann ein Pilot in den produktiven Einsatz übergeht, werden gesucht.
  • Die Verantwortung für KI-Themen liegt diffus zwischen IT, Fachbereichen und einzelnen „Enthusiasten“.

Bei der Bestandsaufnahme, der ersten Ermittlung, was getan werden kann und getan werden muss, um erfolgreich mit einem Large-Language-Model zu arbeiten, ergeben sich Fragen.

  • Wie experimentierfreudig bist du zusammen mit deinem Team?
  • Woran kannst du erkennen, dass dein Pilotprojekt in den produktiven Einsatz übergehen kann?
  • Wer in deinem Unternehmen ist dein KI-Beauftragter?

Dann sind da noch die Bremsklötze, die wir lösen müssen.

  • Wie können wir uns Klarheit verschaffen über sinnvolle Einsatzfelder?
  • Wo fangen wir an und mit welchem Nutzen?
  • Welches Fachwissen ist im Unternehmen schon vorhanden, technisch und anwendungsbezogen?
  • Wie gehen wir mit einer möglicherweise schnell wachsenden internen Skepsis um?

Nach mehreren Jahrzehnten der Digitalisierung ist die Technik in den meisten Fällen vorhanden. Jetzt kommen noch Plattformen und fertige Produkte dazu, und in den meisten Fällen finden wir auch gut zugängliche Schnittstellen. An dieser Stelle geht es los mit der Frage, wie KI und LLM in die konkrete Arbeitswelt eingreifen und wie wir alle Menschen in der Organisation auf diesen Eingriff vorbereiten und während des Eingriffs begleiten.

Erfolg und Scheitern neu lesen

Die MIT-Studie zeigt auf, dass nicht die Größe des Unternehmens zu technischer Überlegenheit führt und zu erfolgreichem Automatisieren. Wenn große Unternehmen einen Vorteil haben, dann liegt er möglicherweise dort, wo die Zeitfenster, die zur Verfügung gestellt werden, um neue Technologie sozial und kulturell zu integrieren und zu implementieren, größer sind. Für mittelständische Unternehmen kann das bedeuten, bevor es überhaupt losgeht, die gesamte Arbeit so zu organisieren, dass die Zeiten, in denen Learning stattfindet, gut organisiert und mit hoher Priorität organisiert werden.

Erfolg ermittelt sich bei diesen Projekten, wenn soziale und organisatorische Umgebung mitentwickelt wird. Es könnte hilfreich sein, den Begriff „IT-Projekt“ durch „KI-Initiative“ zu ersetzen. Das macht es meiner Meinung nach deutlicher, einen sozialen Lernprozess zu beschreiben, in dem Menschen, Strukturen und Kultur sich eingebettet mitverändern.

Mir ist sehr wohl bewusst, dass eine empirische Studie nicht notwendigerweise genau deine Lebensrealität, deine Arbeitsrealität wiedergibt. Die Erkenntnis von 95% zu 5% kann dir aber helfen, dich besser auf einen so fundamentalen Veränderungsprozess vorzubereiten. Im nächsten Schritt möchte ich den Blick auf das richten, was KI in Unternehmen tatsächlich sein kann: ein soziales System, das sich nur dann entfalten kann, wenn du den Lernprozess darum herum bewusst gestaltest.

KI als soziales System

In den bisherigen Teilen habe ich skizziert, wie groß die Lücke zwischen den Erfolgsmeldungen und der empirischen Realität vieler KI-Initiativen ist. Gleichzeitig zeigt die Forschung, dass die Technik nur ein Teil der Erklärung ist. Beschäftigen wir uns also einmal damit, in welches Umfeld diese Technik hineinkommt.

Im Hinblick auf das Umfeld habe ich in den vergangenen Monaten folgende Erfahrungen gemacht:

Es gibt tatsächlich den Vorgesetzten, den Entscheider, der nach der Auswahl der Technik, der Plattform und der Modelle davon ausgeht, dass im Unternehmen nun die meisten oder sogar alle effizienter und produktiver arbeiten werden. Dieser Entscheidertypus ist übrigens auch der, der dann verwundert, irritiert oder sogar frustriert darüber ist, dass er plötzlich eine unglaubliche Anzahl KI-generierter Texte in seinem Posteingang findet. Auf die einfache Frage, die er glaubt gestellt zu haben, bekommt er jetzt seitenlange komplexe KI-generierte Antworten. Nach der ersten Einführungsphase befindet er sich nun in einer zweiten Phase, die sich für ihn wie ein fast unkontrollierbarer, anarchischer Zustand anfühlt. Auch die Überproduktion und Übernutzung von Large Language Models kann das mögliche Scheitern mitbegleiten.

Dann gibt es eine zunehmend größer werdende Gruppe, denen von Anfang an bewusst ist, dass es sich weniger um das Anschaffen einer neuen Software handelt, sondern dass es Eingriffe in die Teamdynamik gibt, die substanziell ist und die sich darauf intensiv vorbereiten wollen. Wenn ich einen Fragebogen zur Ermittlung der Einsatzmöglichkeiten von LLMs erstelle, erkenne ich daran, wie viele auch den Bereich der sozialen Effekte mitbewerten lassen wollen.

Hier wird KI im Unternehmen als soziales System verstanden. Sie ist immer Teil eines Geflechts aus Menschen, Entscheidungen, Routinen, Machtverhältnissen und Erwartungen. Das Ergebnis entsteht aus dieser Wechselwirkung. Und deshalb möchte ich mein Mantra an dieser Stelle noch einmal wiederholen:

KI ist kein klassisches IT-Projekt, sondern ein sozialer Lernprozess.

Vier Ebenen der KI als sozialem System

Nachfolgen möchte ich dir eine einfache Struktur anbieten, um dieses Geflecht zu sortieren.

Vier Ebenen, die miteinander verschränkt sind:

  • Die Technik
  • Das Individuum
  • Die Organisation
  • Die Kultur

Du kannst dir diese Ebenen wie Schichten vorstellen, die übereinander liegen. Jede Schicht hat ihre eigene Logik. Jede kann dazu beitragen, dass ein Projekt gelingt.

Ebene 1: Technik

Die technische Ebene ist die sichtbarste und oft diejenige, auf die zunächst die meiste Aufmerksamkeit gerichtet wird. Und an dieser Stelle nochmal mein Hinweis: Sie ist sehr, sehr wichtig! KI-Technik, ein Large Language Model, betrachten wir das für einen Augenblick mal als eine Blackbox, innerhalb dessen etwas stattfindet. Die Qualität dessen, was sich in der Blackbox befindet, bestimmt die Qualität des Outputs unmittelbar mit.

Hier geht es um:

  • Modelle und Algorithmen,
  • Datenqualität und -zugang,
  • Infrastruktur und Schnittstellen,
  • Sicherheit, Datenschutz und Robustheit.

In vielen Projekten fließt fast die gesamte Energie in diese Ebene. Es werden Tools evaluiert, Proofs of Concept aufgesetzt, Modellvarianten verglichen, Benchmarks gerechnet. Das ist wichtig. Ohne ein technisch solides Fundament musst du gar nicht erst anfangen.

Die Studienlage und auch meine Beobachtungen in Unternehmen zeigen, dass hier selten die Hauptgründe des Scheiterns liegen. Im Gegenteil, hier wird das Fundament für den Erfolg gelegt. Die meisten aktuellen KI-Plattformen sind leistungsfähig genug, um in vielen Anwendungsfeldern einen spürbaren Mehrwert zu liefern.

Die eigentlichen Probleme tauchen auf, sobald die Technik auf Menschen und reale Prozesse trifft. Und damit sind wir bei der zweiten Ebene.

Ebene 2: Individuum

Kompetenz, Emotion und Verantwortung

Auf der individuellen Ebene geht es um die Menschen, die mit KI arbeiten oder von ihr betroffen sind – Mitarbeitende, Führungskräfte, usw.

Wichtige Fragen auf dieser Ebene sind:

  • Verstehen die Menschen grob, wie die KI zu ihren Ergebnissen kommt?
  • Fühlen sie sich im Umgang mit dem System sicher oder eher überfordert?
  • Erleben sie KI als Unterstützung, als Bedrohung oder als etwas, das man besser ignoriert?
  • Wissen sie, welche Verantwortung sie bei der Nutzung tragen?

In einigen Unternehmen erlebe ich hier drei typische Muster:

  • Eine ausgeprägte Skepsis gegenüber Algorithmen („Black Box“).
  • Eine geringe Fehlertoleranz gegenüber KI-Fehlern.
  • Eine Unsicherheit, wie weit man den Ergebnissen trauen darf.

Hier ist eine gedankliche Neuausrichtung notwendig.

  • Menschen brauchen ein Verständnis für das, was ein Algorithmus ist und bewirkt.
  • Fehlerhafte Ausgaben müssen als Iterationsstufe begriffen werden, die es gilt, weiter fortzuführen.
  • Sie benötigen die Sicherheit, dass Ergebnisse zunächst immer kontrolliert werden müssen, dass die Kontrolle der Ausgabe systemimmanent ist, bis sie den Grad an Zufriedenheit erreicht, der als Zielsetzung vorgegeben ist.

In einer ähnlichen Art und Weise wie ein Fehler, der von einem Menschen gemacht wird, als “menschlich” bezeichnet wird, kann ein Large Language Model einen Fehler machen, der dann in ähnlicher Art und Weise als “modellbedingt” bezeichnet wird.

Du kannst das gut an einfachen Automatisierungsprojekten beobachten. Nimm ein Unternehmen, das seinen E-Mail-Eingang automatisieren will. Nach einer aufwändigen Einführung ordnete das System einige Nachrichten falsch zu und formulierte einzelne Antworten unpassend. Technisch betrachtet waren das Fehler, die sich über Zeit gut hätten reduzieren lassen. Psychologisch betrachtet war die Vertrauensbasis sofort beschädigt. Das System wurde wieder abgeschaltet. Oder besser noch, es landet auf dem KI-Dachboden.

Auf dieser Ebene entscheidet sich, ob die Menschen in deiner Umgebung bereit sind, mit einem lernenden System zu arbeiten, inklusive seiner Unschärfen, oder ob sie innerlich aussteigen.

Ebene 3: Organisation

Prozesse, Rollen und Governance

Die dritte Ebene ist die organisatorische. Hier geht es darum, wie KI konkret in die Abläufe eingebettet ist:

  • In welchen Prozessen spielt die KI eine Rolle?
  • An welcher Stelle des Prozesses greift sie ein?
    • Als Vorschlagsgeberin, als Prüfinstanz, als Automatisierungskomponente?
  • Wer ist wofür verantwortlich, wenn KI im Spiel ist?
  • Welche Feedback- und Korrekturschleifen gibt es?

Viele KI-Piloten scheitern , weil die Organisation um das Modell herum nicht mitgedacht wurde.

Typische Konstellationen sind:

  • KI als „Add-on“:
    • Ein Tool wird zusätzlich eingeführt, ohne dass der Prozess selbst angepasst wird. Die Folge: Mehraufwand, statt Entlastung.
  • Unklare Verantwortlichkeiten:
    • Niemand fühlt sich zuständig, wenn Ergebnisse nicht passen – oder alle hoffen darauf, dass „die IT“ es schon richten wird.
  • Fehlende Eskalationspfade:
    • Es ist nicht definiert, was passiert, wenn die KI sich erkennbar irrt.

Im Ergebnis werden KI-Systeme entweder gar nicht genutzt, nur formal bedient oder im ersten Störfall wieder abgeschaltet. Die Organisation bleibt im alten Muster, die „neue“ Technik hängt dekorativ daneben.

An dieser Stelle nehme ich noch die deutlichsten Hinweise wahr, dass das Akquiseversprechen, vermittelt über Medien und Anbieter, jetzt einen deutlichen Realitätsabgleich bekommt.

Wenn du KI als sozialen Lernprozess verstehst, dann ist diese Ebene zentral. Deine Organisation führt Tools ein, implementiert Tools und gestaltet die Abläufe so, dass aus Nutzung, Rückmeldung und Fehlern iterative Lernschleifen werden.

Ebene 4: Kultur

Fehler, Perfektion und Tempo

Die vierte Ebene ist die schwer greifbare, aber oft entscheidende kulturelle Ebene.

Hier geht es um Fragen wie:

  • Wie wird in deinem Unternehmen über Fehler gesprochen?
    • Insbesondere über Fehler von Systemen?
  • Wie hoch ist der unausgesprochene Anspruch an Perfektion und Fehlerfreiheit?
  • Wie leicht oder schwer fällt es, mit Unsicherheit und vorläufigen Ergebnissen zu leben?
  • Wie werden Entscheidungen getroffen?
    • Schnell und iterativ oder langsam und absichernd?

Wir haben in der deutschen Sprache ein unglückliches Mantra, das heißt: „Knapp daneben ist auch vorbei.“ Auch wenn wir uns auf dem Weg zum Ziel bewegen, muss die Genauigkeit so hoch sein, das im Grunde genommen eine hundertprozentige Trefferquote angestrebt wird.

Auf welche Kultur, auf welche Fehlerkultur, auf welche Feedbackkultur trifft ein lernendes KI-System in deinem Unternehmen?

  • Einen ausgeprägten Perfektionsanspruch?
  • Eine geringe Bereitschaft, Halbfertiges sichtbar zu machen?
  • Lange Abstimmungs- und Entscheidungswege?

Das ist nicht per se schlecht. Es hat viele Stärken, etwa bei Qualität und Zuverlässigkeit. Für KI-Projekte führt diese Kombination möglicherweise zu einem Spannungsverhältnis:

  • Lernende Systeme brauchen reale Nutzung, um besser zu werden.
  • Die Organisation möchte Fehler vermeiden, bevor sie entstehen.

Die MIT-Studie bezeichnet das als eine Art Dauerpilotierung. KI-Systeme werden lange im Labor getestet, statt im Alltag mit echten Daten zu reifen. Wenn sie dann doch live gehen und Fehler machen, ist die Enttäuschung groß und der Rückzug schnell.

Wenn du KI als sozialen Lernprozess betrachtest, dann gehört diese kulturelle Dimension ins Zentrum. Ihr braucht eine gewisse Fehlertoleranz, die Bereitschaft, aus Irrtümern zu lernen und den Lernprozess Schritt für Schritt weiterzuführen.

Wie die Ebenen zusammenwirken

Analytisch kannst du diese Ebenen trennen. In der Realität wirst du schon festgestellt haben oder feststellen, dass sie ineinander greifen. Ein Problem auf einer Ebene wirkt sich früher oder später auf die anderen aus. Das Gleiche gilt für Erfolge.

Ein paar Beispiele aus der Praxis:

  • Ein technisch starkes Modell (Ebene Technik) trifft auf eine Organisation, in der niemand genau weiß, wofür es genutzt werden soll (Ebene Organisation) und in der Mitarbeitende Angst haben, „sich von der KI ersetzen zu lassen“ (Ebene Individuum). Das Projekt versandet.
  • Ein Unternehmen hat einen klaren Use Case und eine motivierte Fachabteilung (Individuum, Organisation), scheitert aber an starren Abstimmungsprozessen und einer Null-Fehler-Erwartung im Top-Management (Ebene Kultur). Das System bleibt im Pilotmodus.
  • Ein KI-System liefert objektiv bessere Prognosen als bisherige Verfahren (Technik), wird aber nicht ernst genommen, weil Führungskräfte ihre eigenen Einschätzungen systematisch überschätzen (Kontrollillusion auf der individuellen Ebene) und es keine klare Vorgabe gibt, wie mit abweichenden Empfehlungen umzugehen ist (Organisation).

Ich hoffe, an dieser Stelle gelingt es mir, dich ein bisschen dafür zu gewinnen, dass hier nicht von einem technischen Projekt gesprochen werden kann. Der Engpass liegt nicht im Modell, sondern in der Art und Weise, wie Menschen und Strukturen mit dem Modell interagieren.

Neben den Auswahl- und Implementierungsfragen ist es hilfreich, diese als Eingriff in ein bestehendes soziales System zu verstehen, das sich gemeinsam neu sortieren muss.

Das Massachusetts Institute of Technology (MIT) und andere Forschungseinrichtungen haben in ihren Studien immer wieder betont, dass die häufigsten Gründe für das Scheitern von KI-Initiativen in Kategorien fallen wie:

  • Fehlende Klarheit über Ziele und Erfolgskriterien.
  • Mangelnde Einbindung der späteren Nutzer.
  • Unzureichende Veränderung der Prozesse.
  • Kulturelle Widerstände gegenüber Fehlern und Kontrollverlust.

Wenn du die vier Ebenen im Hinterkopf behältst, lassen sich diese Gründe präziser lokalisieren. Du kannst bewusster entscheiden, wo du zuerst ansetzen willst.

Vom IT-Projekt zur Lernarchitektur

Wenn KI ein soziales System berührt, dann braucht sie mehr als ein Projektplan mit Meilensteinen. Sie braucht eine Lernarchitektur.

  • Eine klare Vorstellung, was Menschen, Teams und Organisation im Umgang mit KI lernen sollen.
  • Räume und Formate, in denen dieses Lernen stattfinden kann.
  • Prozesse, die Rückmeldungen aus der Praxis wieder in die Weiterentwicklung der Systeme einspeisen.

Das kann sehr unterschiedlich aussehen.

In einem Unternehmen bedeutet es, kleine, klar abgegrenzte Use Cases zu wählen und sie gemeinsam mit den späteren Nutzern zu entwickeln.

In einem anderen Unternehmen stehen erst einmal Schulungsprogramme und Explorationsphasen im Vordergrund, in denen Mitarbeitende mit KI experimentieren, ohne dass sofort harte Kennzahlen im Raum stehen.

Gemeinsam ist allen erfolgreichen Beispielen, dass wir von Anfang an KI als Lernweg beschrieben haben.

Du kannst dir dazu ein paar Leitfragen stellen.

  • Was müssen wir, als Bereich, als Unternehmen, über KI lernen, bevor wir groß skalieren
  • Welche Fehler wollen wir bewusst „zulassen“, um daraus zu lernen?
  • Wo schaffen wir Räume, in denen Mitarbeitende mit KI arbeiten können, ohne dass jeder Irrtum sofort sanktioniert wird?
  • Wie holen wir systematisch Feedback ein – von denjenigen, die mit der Technologie täglich umgehen?

Die Technik bleibt wichtig. Aber ohne diese Lernarchitektur wird sie entweder nicht genutzt oder nicht ernst genommen.

Was das für deine Rolle als Führungskraft bedeutet

Wenn du KI-Initiativen verantwortest oder begleitest, bist du Gestalter eines sozialen Lernprozesses.

Das bedeutet unter anderem:

  • Du rahmst die Einführung von KI als gemeinsame Lernreise.
  • Du gibst Orientierung, wofür KI genutzt werden soll und wofür nicht.
  • Du machst transparent, welche Unsicherheiten es gibt und wie ihr damit umgehen wollt.
  • Du schützt Räume, in denen Fehler passieren dürfen, ohne dass sofort Schuldige gesucht werden.
  • Du unterstützt Menschen dabei, ihre Rolle im Zusammenspiel mit KI neu zu finden.

Genau dieser Perspektivwechsel, weg vom IT-Projekt, hin zum sozialen Lernprozess, ist aus meiner Sicht die Voraussetzung dafür, dass die technischen Möglichkeiten von KI in der Praxis wirklich wirksam werden.

Im nächsten Schritt wird es darum gehen, diese vier Ebenen mit verhaltenspsychologischen Mechanismen zu verbinden.

  • Wie entsteht Vertrauen in Systeme?
  • Warum sind wir gegenüber KI-Fehlern so empfindlich?
  • Was heißt das konkret für Kommunikation und Führung in deinen Projekten?

KI als sozialer Lernprozess

Im ersten Kapitel habe ich die Doppelrealität beschrieben, in der wir uns gerade bewegen. Auf der einen Seite stehen große Erfolgsmeldungen mit massiven Kosteneffekten, auf der anderen Seite finden sich Projekte, die bereits an vermeintlich einfachen Anwendungsfällen scheitern. Dann ging es um Studien, die zeigen, wie hoch die Scheiterquote bei KI-Initiativen tatsächlich ist. Danach habe ich KI als Teil eines sozialen Systems beschrieben, mit den vier Ebenen Technik, Individuum, Organisation und Kultur.

In diesem Kapitel möchte ich das zusammenführen.

  • Warum führt die Behandlung von KI als IT-Projekt so häufig in die Sackgasse?
  • Was ändert sich, wenn du KI bewusst als sozialen Lernprozess begreifst?

Ich erlebe in vielen Organisationen eine Art „Projektreflex“. Sobald das Stichwort KI fällt, greifen automatisch vertraute Muster. Es gibt ein Lastenheft, ein Pflichtenheft, eine Tool-Evaluation, ein Projektplan, ein Go-Live. Das sieht professionell aus, fühlt sich vertraut an und verfehlt oft genau das, was KI in der Praxis braucht.

Raum zum Lernen.

Die Illusion des abgeschlossenen IT-Projekts.

Klassische IT-Projekte folgen einer Logik, die du wahrscheinlich gut kennst:

  • Bedarf identifizieren.
  • Lösung auswählen.
  • Implementieren und testen.
  • Go-Live.
  • Stabilisieren und in den Regelbetrieb überführen.

Diese Logik funktioniert vergleichsweise gut, wenn es um eher deterministische, klar regelbasierte Systeme geht. Eine Buchhaltungssoftware bucht Transaktionen nach klaren Regeln. Ein ERP-System folgt definierten Prozessen. Natürlich gibt es auch dort Anpassungen, Fehler und Updates. Wenn es einmal „richtig“ implementiert ist, soll es möglichst verlässlich und vorhersehbar laufen.

Bei KI, insbesondere bei lernenden, probabilistischen Systemen, stößt diese Logik an ihre Grenzen.

  • Ein KI-Modell wird nicht „fertig“.
  • Die Qualität hängt stark von Daten, Nutzung und Feedback ab.
  • Fehlerbilder verändern sich, wenn sich die Umgebung verändert.
  • Der Nutzen zeigt sich oft erst in der realen Anwendung und nicht im Labor.

Wenn du ein solches System mit der Erwartung eines klassischen IT-Projekts einführst („Wir bringen das einmal sauber in Betrieb, dann läuft es“), gerätst du früher oder später in eine Enttäuschungsspirale:

  • Die ersten Fehler wirken wie ein Systemversagen statt wie Lernmaterial.
  • Der Druck, schnell „saubere“ Ergebnisse zu liefern, verhindert offene Kommunikation über Unsicherheiten.
  • Projektteams geraten in Rechtfertigungszwang, statt gemeinsam mit den Nutzenden zu lernen.

Viele Unternehmen reagieren dann mit dem, was ich als typischen „Rückzugsreflex“ erlebe. Man fährt das System zurück, verlässt sich wieder auf die alten Prozesse und bestätigt sich damit ungewollt selbst, dass „das mit der KI bei uns nicht funktioniert“.

Die zugrunde liegende Denkfigur ist dabei immer dieselbe. KI wird wie ein Produkt behandelt, das man fertig konfiguriert und dann ausrollt. Genau das ist aus meiner Sicht die falsche Metapher.

KI als sozialer Lernprozess

Ich hoffe, wir stimmen darin überein, dass sich KI in Organisationen eher mit einem neuen Teammitglied vergleichen lässt als mit einem weiteren IT-System. Also weniger mit einem neuen Server oder einer neuen Software. Vielleicht eher mit einem Praktikanten, einem Kollegen, einer Kollegin.

  • Dieses Teammitglied braucht Einarbeitung.
  • Es macht Fehler.
  • Es muss lernen, wie dein konkreter Kontext funktioniert.
  • Du musst lernen, wie du mit seinen Stärken und Schwächen umgehst.

Wenn du dir KI auf diese Weise anschaust, verschieben sich sofort ein paar zentrale Fragen:

Nicht: „Wie bringen wir das System schnell in den stabilen Betrieb?“,

sondern: „Wie organisieren wir das gemeinsame Lernen zwischen Menschen, Prozessen und System?“

Ein sozialer Lernprozess bedeutet:

  • Du akzeptierst, dass nicht alles von Anfang an funktionieren wird.
  • Du planst bewusst mit Fehlversuchen und Iterationen.
  • Du gestaltest Strukturen, in denen Rückmeldungen erwünscht und wirksam sind.
  • Du nimmst die Emotionen und Erwartungen der Menschen ernst, die mit der KI arbeiten sollen.

Damit verschiebt sich die Rolle von Führung:

  • Weg von „Implementierung steuern”.
  • Hin zu „Lernräume schaffen und Vertrauen gestalten“.

Diese Perspektive ist nicht weich oder „nur kulturell“. Sie ist hoch anschlussfähig an das, was empirische Untersuchungen zeigen. Wenn Projekte scheitern, dann selten an der Modellqualität allein, sondern daran, dass der soziale Lernprozess nicht bewusst gestaltet wurde.

Was sich konkret ändert, wenn du KI als Lernprozess führst

An dieser Stelle gehen wir in die praktische Ausrichtung. Wir diskutieren, was anders ist, wenn du die Einführung von KI-Systemen als Lernprozess verstehst.

Aus meinen Erfahrungen und aus der Studienlage lassen sich einige Muster ableiten.

Andere Erwartungen an den Start

Wenn du KI als IT-Projekt denkst, ist der Start oft mit einem starken Leistungsversprechen verbunden:

  • „Ab dem Go-Live sparen wir X Prozent Zeit.“
  • „Die Fehlerquote sinkt sofort um Y Prozent.“
  • „Wir automatisieren diesen Prozess zu Z Prozent.“

Solche Versprechen erzeugen Druck. Vor allem auf der technischen Ebene. Sie lassen wenig Raum für langsames Herantasten.

Wenn du KI als Lernprozess verstehst, formulierst du den Start anders:

  • Du definierst explizit eine Lernphase.
  • Du machst transparent, dass Fehler erwartet werden.
  • Du beschreibst, welche Hypothesen ihr testen wollt (z.B. „Wir vermuten, dass die KI uns 30 Prozent der manuellen E-Mail-Sortierung abnehmen kann – wir prüfen das in den nächsten drei Monaten.“).

Damit verschiebst du das Zielbild des ersten Abschnitts:

  • Weg von „nahezu fehlerfreie Automatisierung“.
  • Hin zu „fundierte Erkenntnisse darüber, was gut funktioniert und was nicht“.

Das klingt banal, macht aber einen gewaltigen Unterschied in der Art, wie Teams mit Problemen umgehen.

Andere Rolle von Fehlern

In einem klassischen IT-Projekt sind Fehler vor allem Abweichungen, die es zu vermeiden oder schnell zu beheben gilt. In einem Lernprozess sind Fehler Daten.

Beim mittelständischen Unternehmen, das die E-Mail-Verarbeitung automatisieren wollte, hätte das so aussehen können:

  • Die ersten Fehlzuordnungen werden nicht als Scheitern gewertet,
    • sondern systematisch gesammelt und analysiert:
  • Welche Arten von E-Mails werden falsch einsortiert?
  • Gibt es bestimmte Formulierungen oder Sprachen, mit denen das System nicht zurechtkommt?
  • Welche Informationen fehlen im Training?

Aus diesen Beobachtungen entstehen gezielte Anpassungen:

  • zusätzliche Trainingsdaten,
  • klare Regeln, welche Fälle immer an Menschen gehen,
  • verbesserte Vorlagen für Antworten.

Statt das System nach den ersten Problemen wieder abzuschalten, würde das Unternehmen so in Lernschleifen investieren. Genau dafür braucht es aber zwei Dinge: Zeit und eine Fehlerkultur, die dieses Vorgehen trägt.

Andere Einbindung der Menschen

In vielen KI-Projekten werden die späteren Nutzer erst relativ spät ins Boot geholt. Häufig, wenn das System technisch schon steht. Aus IT-Sicht ist das plausibel. Zuerst die Lösung stabil bekommen, dann in die Breite gehen.

Für einen sozialen Lernprozess ist diese Reihenfolge problematisch. Menschen lernen dann nur, mit einem vorgegebenen System umzugehen, statt an seiner Entstehung mitzuwirken.

Wenn du KI als Lernprozess führst, änderst du die Reihenfolge:

  • Du holst Schlüsselpersonen als Mitgestaltende früh hinein.
  • Du fragst nach typischen Fällen, Ausnahmen, Stolperstellen aus der Praxis.
  • Du machst transparent, welche Entscheidungen das System vorschlagen darf und welche nicht.
  • Du baust Feedbackkanäle ein, die wirklich genutzt werden können (z.B. einfache „Richtig/Falsch“-Markierungen, Kommentarfunktionen, kurze Rückmeldeformate).

Damit entsteht ein anderes Rollenbild. Nicht „Die IT bringt uns ein neues Tool“, sondern „Wir gestalten gemeinsam, wie wir mit KI arbeiten wollen“.

Andere Steuerung und Erfolgsmessung

Ein weiterer Unterschied liegt in der Art, wie du den Erfolg misst.

Wenn du KI als IT-Projekt führst, dann liegt der Fokus häufig auf:

  • Anzahl eingeführter Tools.
  • Termintreue beim Go-Live.
  • Technischen Stabilitätskennzahlen.
  • Kurzfristigen Einsparungszielen.

Wenn du KI als Lernprozess verstehst, kommen andere Größen hinzu:

Nutzungsgrad im Alltag:

  • Wie oft wird das System tatsächlich verwendet?
  • In welchen Situationen weichen Menschen bewusst davon ab?

Wahrgenommene Nützlichkeit:

  • Empfinden Teams das System als Unterstützung oder als Belastung?
  • Wo hilft es wirklich, wo ist es nur „zusätzliche Arbeit“?

Lernfortschritte:

  • Wie entwickelt sich die Fehlerquote über die Zeit?
  • Welche qualitativen Verbesserungen entstehen (z.B. bessere Entscheidungen, schnellere Reaktionszeiten)?

Natürlich bleiben ökonomische Kennzahlen wichtig. Aber sie sind nicht mehr der einzige Maßstab. Gerade in den frühen Phasen ist es sinnvoller zu fragen: „Was haben wir gelernt und wie nutzen wir dieses Lernen für die nächste Iteration?“

Was das für dich als Führungskraft bedeutet

Wenn du verantwortlich für Bereiche bist, in denen KI eine Rolle spielt oder spielen soll, dann bist du nicht nur Auftraggeber:in eines IT-Projekts. Du bist Gestalter:in eines Lernraums.

Das klingt abstrakt, lässt sich aber auf einige Kernaufgaben herunterbrechen:

Du rahmst das Vorhaben:

  • Du benennst KI nicht als reines Effizienzprojekt, sondern als Veränderung von Arbeitsweisen.
  • Du machst deutlich, dass Lernen und Justieren ausdrücklich erwünscht sind.

Du schützt die Lernphase:

  • Du sorgst dafür, dass erste Fehler nicht sofort zu Schuldzuweisungen führen.
  • Du verteidigst die Idee, Iterationsschleifen einzuplanen.

Du nimmst Emotionen ernst:

  • Du hörst zu, wenn Mitarbeitende Unsicherheit, Skepsis oder Sorge äußern.
  • Du gehst darauf ein, statt sie mit Technikargumenten zu überfahren.

Du verbindest Technik- mit Kulturfragen:

  • Du stellst nicht nur die Frage „Welches Tool?“, sondern auch „In welcher Kultur soll dieses Tool lernen?“

Aus dieser Perspektive wird verständlich, warum so viele KI-Initiativen trotz guter Technik scheitern. Warum jene Projekte, die bewusst als Lernprozesse geführt werden, deutlich mehr Wirkung entfalten können.

Es geht darum, es zu ergänzen. KI braucht saubere technische Umsetzung und zusätzlich einen bewusst gestalteten sozialen Lernprozess.

Genau an dieser Schnittstelle zwischen Technik und Lernen entscheidet sich, ob KI in deiner Organisation zu einem kurzlebigen Experiment bleibt oder zu einem Bestandteil eurer gemeinsamen Praxis wird.

Deutsche Besonderheiten: Wenn KI auf Perfektionismus trifft

Im Hinblick auf die Arbeit mit KI stehen uns in Deutschland einige Dinge bisweilen im Weg, die in anderen Kontexten die Qualität unserer Arbeit ausmachen. Die Art, wie wir hierzulande über Fehler, Sicherheit, Verantwortung und Qualität nachdenken, hat einen Einfluss darauf, ob und wie wir KI-Projekte durchlaufen.

Ich möchte dir deshalb einen Einblick in einige der deutschen Besonderheiten anbieten. Um besser zu verstehen, warum KI hierzulande häufig nicht am Algorithmus scheitert, sondern an unserer Art, mit Unsicherheit und Lernen umzugehen.

Wo Deutschland bei der KI-Nutzung steht

Zunächst werfen wir einen kurzen Blick auf den Status quo, grob skizziert:

  • Ein nennenswerter Teil der Unternehmen in Deutschland nutzt KI bereits aktiv.
    • Je nach Studie liegen die Angaben im Bereich von etwa 30 bis 40 Prozent.
  • Rund die Hälfte bis deutlich mehr als die Hälfte hat Pilotprojekte durchgeführt oder plant sie.

Wenn ich diese Zahlen mit dem vergleiche, was mir Führungskräfte erzählen, ergibt sich ein stimmiges Bild:

  • Deutschland ist nicht „komplett abgehängt“.
  • Viele Unternehmen sind in einer Art Dauer-Pilotphase.
    • Es wird viel getestet, evaluiert, ausprobiert.
    • Oft ohne konsequenten Übergang in den Alltag.

Genau an dieser Schwelle, zwischen „Wir haben da mal etwas ausprobiert“ und „Das ist ein dauerhafter Bestandteil unserer Arbeit“, werden kulturelle Muster sichtbar.

Technologieskepsis und Überforderung

Ein erstes Muster ist eine ausgeprägte Skepsis gegenüber Algorithmen und datengetriebenen Entscheidungen.

In vielen Gesprächen höre ich Sätze wie:

  • „Ich will schon verstehen, wie die KI zu ihrem Ergebnis kommt, sonst kann ich das nicht verantworten.“
  • „Wenn ich es nicht nachvollziehen kann, verlasse ich mich lieber auf meine Erfahrung.“

Dahinter steckt oft eine Mischung aus:

  • Verantwortungsbewusstsein
  • Sorge, „blind“ zu entscheiden.
  • Dem Gefühl, die technische Komplexität nicht wirklich zu überblicken.

Diese Kombination aus Verantwortungsgefühl und Überforderung kann dazu führen, dass KI-Systeme vorsorglich abgelehnt werden, bevor überhaupt echte Nutzungserfahrungen entstehen.

Im Alltag sieht das dann beispielsweise so aus:

  • Ein System wird eingeführt, aber nur von wenigen „Enthusiasten“ genutzt.
  • Ergebnisse der KI werden routinemäßig doppelt geprüft, bis jeder Zeitvorteil wieder verloren ist.
  • Fachbereiche signalisieren: „Interessant, aber wir bleiben lieber bei unseren etablierten Methoden.“

In dieser Umgebung geht es für dich in deiner Führungsposition um Vertrauens- und Kompetenzthemen. Damit ist es Teil eines sozialen Lernprozesses.

Fehlerkultur: Hoher Anspruch, geringe Fehlertoleranz

Das zweite Muster betrifft unsere Fehlerkultur. Deutschland ist bekannt für Präzision, Gründlichkeit und einen hohen Qualitätsanspruch. Das ist eine Stärke und im Kontext von KI gleichzeitig eine Quelle von Spannungen.

  • Lernende KI-Systeme haben ein anderes Fehlerprofil als klassische IT.
  • Sie sind am Anfang sichtbar fehlerhaft und verbessern sich mit der Nutzung.
  • Sie arbeiten probabilistisch, nicht deterministisch.
  • Sie werden nie vollkommen „perfekt“ sein, sondern in Wahrscheinlichkeiten.

Diese Logik steht quer zu einem kulturellen Anspruch, der stark auf Fehlervermeidung ausgerichtet ist. In vielen Organisationen ist die Grundhaltung:

  • „Wir bringen etwas erst dann raus, wenn es wirklich sitzt.“
  • „Lieber länger testen, als vor dem Kunden einen Fehler machen.“

In klassischen Projekten mag das sinnvoll sein. Bei KI führt es oft dazu, dass:

  • Lösungen lange in Testumgebungen bleiben, ohne echte Nutzung.
  • Fehler als Beweis gewertet werden, dass das System „nicht taugt“.
  • Frühe Learnings gar nicht erst entstehen, weil der Kontakt mit dem realen Alltag fehlt.

Ich habe eingangs das Beispiel eines Unternehmens beschrieben, das den E-Mail-Eingang automatisieren wollte. Die Technik war nicht perfekt, aber brauchbar. Es gab Fehler, falsche Zuordnungen, unpassende Antworten. Statt diese Fehler systematisch zu nutzen, um das System schrittweise zu verbessern, wurde das Projekt gestoppt.

Aus Sicht einer klassischen Fehlerlogik ist das verständlich. Man schützt Kunden und Kundinnen, man schützt das eigene Image. Aus Sicht eines Lernprozesses ist es fatal. Das System kommt nie in die Phase, in der es durch reale Nutzung reift.

Langsame Abstimmung trifft auf schnelle Lernzyklen

Ein drittes Muster hat mit unseren Entscheidungswegen zu tun.

Viele deutsche Organisationen sind so aufgebaut, dass wichtige Entscheidungen über mehrere Ebenen und Gremien laufen. Das hat gute Gründe:

  • Man will sorgfältig abwägen.
  • Man will Perspektiven einbeziehen.
  • Man will Risiken minimieren.

Im Kontext von KI führt diese Absicherungslogik jedoch zu Reibungen:

  • KI-Systeme entwickeln ihren Nutzen oft erst über viele Iterationen.
  • Anpassungen an Modellen, Prozessen oder Oberflächen sollten zügig umgesetzt werden.
  • Feedback aus der Nutzung muss schnell zurück in die Weiterentwicklung fließen.

Wenn jede kleine Anpassung an einem Use Case durch mehrere Gremien muss, verlangsamt sich der Lernzyklus massiv. Mitarbeitende erleben das so:

  • Sie melden Probleme oder Verbesserungsvorschläge.
  • Wochenlang passiert wenig oder nichts.
  • Irgendwann verlieren sie das Interesse und die KI verschwindet im Tagesgeschäft.

Wenn du in einer Entscheidungsposition bist, kannst du der Frage nachgehen, wie du Entscheidungswege so organisierst, dass Sicherheit und Geschwindigkeit in einem vernünftigen Verhältnis zueinander stehen. Wenn du im Sinne von Geschwindigkeit beim Lernen denkst, dann kannst du das Potenzial von KI auch ausschöpfen.

Positivbeispiele: Wenn Lernen Teil der Strategie wird

Zum Glück gibt es auch andere Bilder.

Einige große Unternehmen in Deutschland investieren bewusst in Programme, die KI nicht nur technisch einführen, sondern als Lernfeld gestalten. Typische Elemente solcher Programme sind:

  • Strukturierte Schulungen zu Grundlagen von Algorithmen und Daten.
  • Praktische Übungen mit konkreten Use Cases aus dem eigenen Bereich.
  • Formate, in denen Mitarbeitende Fragen, Skepsis und Bedenken offen einbringen können.
  • Erfahrungsräume, in denen man mit KI „spielen“ darf, ohne gleich bewertet zu werden.

In diesen Settings passiert etwas Entscheidendes:

  • Mitarbeitende erleben KI als Werkzeug, das sie ausprobieren und hinterfragen dürfen.
  • Führungskräfte senden das Signal: „Wir erwarten nicht, dass du sofort alles kannst. Wir geben dir Raum zu lernen.“
  • Fehler werden ausdrücklich zum Thema gemacht.

Aus meiner Sicht sind das keine „nice to have“-Programme, sondern bewusste Investitionen in die soziale Infrastruktur von KI. Sie schaffen die Voraussetzungen dafür, dass technische Möglichkeiten überhaupt in nachhaltige Praxis übersetzt werden können.

Was du aus diesen Mustern für dein eigenes Umfeld mitnehmen kannst

Wenn du dir dein Unternehmen anschaust, kannst du dir ein paar Fragen stellen, die direkt mit diesen deutschen Besonderheiten zu tun haben:

Technologieskepsis:

  • Wo begegnest du unausgesprochener Skepsis gegenüber KI und wie wird darüber gesprochen?
  • Wird Überforderung eingestanden, oder versteckt sie sich hinter technischer Kritik?

Fehlerkultur:

  • Welche Art von Fehlern werden toleriert und welche nicht?
  • Gibt es Raum, über KI-Fehler zu sprechen, ohne dass sofort die Frage „Wer ist schuld?“ im Raum steht?

Entscheidungswege:

  • Wie schnell kannst du von einem Feedback aus dem Alltag zu einer Anpassung am System kommen?
  • Wo bremsen Gremien und Abstimmungen nicht nur Risiken, sondern auch Lernen?

Diese Fragen sind ein Spiegel für die zentrale These dieses Textes. KI ist kein IT-Projekt, das du einmal einführst und dann „abhakst“. KI ist ein sozialer Lernprozess. Und dieser Prozess läuft durch die Kultur, die Strukturen und die Haltungen, die in deinem Umfeld ohnehin vorhanden sind.

Im nächsten Schritt geht es darum, diesen Lernprozess bewusst zu gestalten. Als Führungsaufgabe, die weit über die Auswahl eines Tools hinausgeht.

Was Führung konkret gestalten kann

KI als Lernprojekt führen

Wenn ich erste Gespräche mit Interessent:innen führe, frage ich relativ früh danach, ob für dich eher ein IT-Projekt oder ein Lernprojekt im Raum steht. Die meisten antworten spontan: „Beides.“ Wenn wir dann genauer hinschauen, zeigt sich oft: Gesteuert wird es wie ein IT-Projekt, gebraucht würde aber die Haltung eines Lernprojekts.

In diesem Kapitel geht es genau darum: Was kannst du als Führungskraft konkret tun, damit KI in deinem Verantwortungsbereich zu einem bewusst gestalteten Lernprozess wird? Für dich, dein Team und deine Organisation.

KI früh als Veränderungsprozess framen

Der erste Hebel liegt erstaunlich früh. In der Art, wie du über KI sprichst, bevor überhaupt ein System eingeführt ist.

In vielen Unternehmen höre ich Varianten von:

  • „Wir führen jetzt Tool X ein.“
  • „Ab nächstem Quartal nutzen wir KI für Prozess Y.“

Das klingt harmlos, setzt aber ein bestimmtes Bild:

  • Es geht um ein Werkzeug.
  • Jemand anderes hat es ausgesucht.
  • Du musst dich jetzt damit arrangieren.

Wenn du KI dagegen als Veränderungsprozess rahmst, verschiebt sich die Perspektive:

  • „Wir verändern, wie wir bestimmte Entscheidungen treffen.“
  • „Wir wollen ausprobieren, wie uns KI in diesem Bereich entlasten kann.“
  • „Wir starten einen Lernprozess, bei dem wir systematisch herausfinden, was funktioniert und was nicht.“

Damit sendest du mehrere Signale:

  • Es geht nicht nur um Technik, sondern um Arbeit und Zusammenarbeit.
  • Es geht nicht nur um Vorgaben von oben, sondern um gemeinsame Gestaltung.
  • Fehler und Unsicherheiten sind zu erwarten – und kein Grund zur Panik.

Du kannst dich fragen:

  • Wie habe ich in meinem Unternehmen bisher über KI gesprochen?
    • Eher im Modus „Wir rollen ein Tool aus“,
    • oder eher im Modus „Wir starten einen Lernprozess“?

Kleine, echte Use Cases statt perfekte Großprojekte

Ein zweiter Hebel liegt in der Art, wie du KI-Projekte zuschneidest.

Studien, unter anderem vom Massachusetts Institute of Technology (MIT), zeigen: Viele Unternehmen investieren in große, strategische KI-Vorhaben, während die praktische Erfahrung im Arbeitsalltag dünn bleibt. Viel Geld, viele Folien, wenig gelebte Nutzung.

In meiner Erfahrung sind es selten die großen Masterpläne, die den Unterschied machen, sondern kleine, gut gewählte Use Cases, an denen eine Organisation lernt.

Typische Herausforderungen, die ich sehe:

  • Der erste KI-Einsatz soll gleich ein hochkritischer Prozess sein.
  • Es werden zu viele Anwendungsfälle parallel gestartet.
  • Der Anspruch an Fehlerfreiheit ist von Beginn an extrem hoch.

Stattdessen kann es hilfreicher sein, bewusst reduzierte, aber echte Szenarien zu wählen:

  • Ein klar abgegrenzter Prozess mit überschaubarem Risiko.
  • Ein Use Case, der spürbaren Nutzen verspricht, aber nicht geschäftskritisch ist.
  • Ein Umfeld, in dem du ein Team hast, das bereit ist, auszuprobieren.

Die Kunst liegt darin, Use Cases zu finden, die „relevant genug“ sind, damit alle es ernst nehmen aber nicht so riskant, dass jeder Fehler zum Drama wird.

Eine Leitfrage, die dir helfen kann

„An welchem Punkt unserer Wertschöpfung können wir KI testweise einsetzen?”

Fehlerkultur konkret

Wie du mit den ersten Fehlern umgehst

Theoretisch ist vielen klar, lernende Systeme machen Fehler. Praktisch entscheidet sich der weitere Verlauf eines Projekts häufig an den ersten sichtbaren Fehlleistungen.

In der E-Mail-Automatisierung im Mittelstand, von der ich im Einstieg erzählt habe, lief es so:

  • Erste falsch zugeordnete oder unpassend beantwortete E-Mails.
  • Irritation im Team.
  • Vertrauensverlust.
  • Zurückrudern zur alten Arbeitsweise.

Wenn du KI als Lernprojekt führst, sind diese ersten Fehler Prüfsteine für deine Fehlerkultur.

Du kannst dir vor dem Go-Live sehr konkret überlegen:

  • Welche Arten von Fehlern sind akzeptabel und welche nicht?
  • Wie werden Fehler erfasst und ausgewertet?
  • Wer ist zuständig, um Muster zu erkennen und Anpassungen zu initiieren?
  • Wie sprechen wir intern darüber, wenn die KI danebenliegt?

Es macht einen Unterschied, ob du sagst:

  • „Das System darf sich keine Fehler leisten.“

oder ob du sagst:

  • „In den ersten Wochen rechnen wir bewusst mit Fehlern. Uns interessiert, welche Fehlertypen auftreten und wie wir daraus Verbesserungen ableiten.“

Du kannst diese Haltung auch offen mit deinem Team teilen:

  • „Unser Ziel ist nicht, dass die KI sofort perfekt ist. Unser Ziel ist, dass wir gemeinsam lernen, wie sie uns sinnvoll unterstützt – und wo ihre Grenzen liegen.“

Damit veränderst du die Bedeutung von Fehlern: von einem Anlass für Rückzug zu einem Anlass für gemeinsames Lernen.

Beteiligung - Aus Betroffenen Mitgestaltende machen

Ein weiterer Unterschied zwischen IT-Projekt und Lernprojekt liegt darin, wie du die Menschen einbeziehst, die später mit KI leben und arbeiten sollen.

In klassischen Rollouts werden Fachbereiche oft so eingebunden:

  • Anforderungen sammeln
  • Schulung
  • Übergabe

Aus Sicht eines sozialen Lernprozesses braucht es mehr:

  • Menschen, die früh mitdenken, welche Aufgaben sich für KI eignen.
  • Teams, die reale Beispiele liefern und gemeinsam mit der KI testen.
  • Räume, in denen Erfahrungen, Irritationen und Ideen offen geteilt werden können.

Wenn du willst, dass KI in deinem Bereich Akzeptanz findet, lohnt sich eine einfache, aber konsequente Frage:

  • „Wer sind die drei bis fünf Personen, die von dieser KI-Anwendung am stärksten betroffen sind?
  • “Wie binde ich sie von Anfang an in die Gestaltung ein?“

Es geht dabei vor allem darum, dass Menschen ihre Erfahrung einbringen können und spüren, das ihre Expertise bleibt gefragt ist.

Die Haltung dahinter ist eine andere als beim klassischen IT-Deployment:

  • nicht: „Wir liefern euch ein fertig gedachtes System und zeigen euch die Bedienung.“
  • sondern: „Wir brauchen eure Erfahrung, damit das System in der Praxis funktioniert.“

Kompetenzaufbau - KI-Verständnis als neue Führungsaufgabe

Ein lernendes System entfaltet seinen Wert nur, wenn die Menschen, die damit arbeiten, eine gewisse Souveränität im Umgang entwickeln. Das heißt nicht, dass alle zu Datenwissenschaftlern werden müssen. Es heißt aber, dass grundlegendes Verständnis und kritisches Denken gefördert werden sollten.

Aus meiner Sicht gehören dazu mindestens drei Kompetenzfelder:

Grundverständnis

  • Was kann diese KI und was nicht?
  • Woher kommen ihre Daten?
  • Welche Arten von Fehlern sind typisch?

Kritische Anwendung

  • Wie prüfe ich Ergebnisse auf Plausibilität?
  • In welchen Fällen verlasse ich mich auf die KI, in welchen nicht?
  • Wie dokumentiere ich Entscheidungen, bei denen KI eine Rolle gespielt hat?

Reflexion der eigenen Rolle

  • Welche Aufgaben übernehme ich weiterhin selbst?
  • Wo nutze ich KI als Sparringspartner?
  • Wo bleibe ich als verantwortliche Person sichtbar – auch wenn KI vorbereitet?

In einigen deutschen Unternehmen sehe ich gute Beispiele dafür, wie man diesen Kompetenzaufbau organisiert:

  • Interne Lernformate, in denen Mitarbeitende eigene Use Cases mitbringen.
  • Geschützte Räume zum Ausprobieren, ohne sofortige Leistungsbewertung.
  • Austauschformate, in denen Teams ihre Erfahrungen mit KI teilen.

Wenn du in einer Entscheidungsposition bist, kannst du dir insbesondere folgende Frage stellen:

  • „Wo haben Menschen in meinem Verantwortungsbereich Zeit und Raum, um mit KI zu experimentieren – ohne dass jeder Versuch sofort als Erfolg oder Misserfolg gewertet wird?“

Kommunikation als roter Faden: Erwartungen, Grenzen, Verantwortung

Viele der Probleme, die ich in KI-Projekten sehe, sind Kommunikationsprobleme.

  • Erwartungen werden nicht klar benannt.
  • Grenzen der Systeme werden nicht erklärt.
  • Verantwortlichkeiten bleiben unklar.

Wenn du KI als sozialen Lernprozess führst, wird Kommunikation zu einem dauerhaften Steuerungsinstrument.

Drei Punkte sind dabei besonders wirksam:

Erwartungen klären

  • Was soll die KI leisten gemessen woran?
  • Was versprechen wir explizit nicht?
  • Welche Annahmen überprüfen wir in der Pilotphase?

Grenzen transparent machen

  • In welchen Fällen ist menschliche Prüfung Pflicht?
  • Wo setzen wir bewusst klare Stopps (z.B. „Keine automatische Absage von Bewerbungen nur durch KI“)?
  • Welche Risiken kennen wir und wie gehen wir damit um?

Verantwortung benennen

  • Wer trägt die Verantwortung für Entscheidungen, bei denen KI beteiligt ist?
  • Wer entscheidet über Anpassungen, Abschaltungen oder Skalierung?
  • Wer ist Ansprechperson, wenn jemand Zweifel oder Bedenken hat?

Kommunikation heißt in diesem Zusammenhang nicht, jede Unsicherheit „wegzuerklären“. Es geht darum, Unsicherheit sichtbar und bearbeitbar zu machen.

Du kannst zum Beispiel sagen:

  • „Wir wissen heute noch nicht, ob dieser Use Case in der geplanten Form funktionieren wird. Unser Ziel ist, es herauszufinden, gemeinsam mit euch. Dafür brauchen wir eure Rückmeldungen, eure Kritik und eure Ideen.“

Damit definierst du KI nicht als fertiges Produkt, sondern als gemeinsame Suchbewegung. Und genau das entspricht ihrer Realität.

Vom Projekt zum kontinuierlichen Lernzyklus

Der letzte Punkt, der mir wichtig ist, betrifft den Zeithorizont. Viele KI-Initiativen werden immer noch in Projektlogik gedacht: Anfang, Ende, Abnahme, Abschlussbericht.

Wenn du KI als sozialen Lernprozess verstehst, brauchst du eher so etwas wie eine „Lernlinie“:

  • Ein Pilot, in dem ihr Hypothesen testet.
  • Eine Phase, in der ihr den Einsatz ausweitet und anpasst.
  • Regelmäßige Auswertungen: Was funktioniert, was nicht, was überrascht?
  • Entscheidungen, ob ihr vertieft, umbaut oder bewusst beendet.

Das heißt nicht, dass es keine klaren Meilensteine mehr gibt. Es heißt aber, dass das Lernen nicht mit dem Go-Live endet, sondern dort eigentlich beginnt.

Du kannst dich fragen:

  • „Wo in unserer Planung ist explizit Zeit für Lernen vorgesehen – jenseits von Abnahmetests?“
  • „Wie stellen wir sicher, dass Erfahrungen aus den ersten Monaten in die Weiterentwicklung einfließen – statt nur in einen Abschlussbericht?“

Zwischenfazit: Führung als Architektin des Lernraums

Wenn ich all diese Punkte zusammennehme, zeichnet sich eine klare Rolle für Führung ab:

  • Du bist nicht nur Auftraggeber eines IT-Projekts.
  • Du wirst zur Architektin oder zum Architekten eines Lernraums, in dem Menschen, Technik, Prozesse und Kultur neu zueinander finden.

Das klingt abstrakt, wird aber sehr konkret, wenn du dir drei Fragen stellst:

  • Wie rahme ich KI in meiner Kommunikation?
    • Als Tool oder als Veränderung?
  • Wo eröffne ich echte Lernräume?
    • In Use Cases, in der Fehlerkultur, in der Qualifizierung?
  • Wie kläre ich Verantwortung?
    • Für Entscheidungen, für Anpassungen, für Grenzen?

Wenn du diese Fragen für deinen gesamten Verantwortungsbereich stellst, ändert sich etwas Grundsätzliches: KI wird dann erlebt als Bestandteil einer Entwicklung, die du aktiv mitgestaltest.

Und genau darin liegt, bei aller Unsicherheit, eine große Chance. KI wird vom reinen Technologieprojekt zu einem Anlass, die Lernfähigkeit deiner Organisation zu stärken. Das bleibt auch dann wertvoll, wenn einzelne Use Cases scheitern. Denn gelernt wird in jedem Fall. Die Frage ist nur, ob bewusst und gestaltet, oder zufällig und schmerzhaft.

Erfolg neu denken: Wann ist ein KI-Projekt wirklich „erfolgreich“?

Wenn wir der bisherigen Reihenfolge folgen, stellt sich nun die Frage, woran erkennen wir, ob unser Projekt oder unsere Initiative erfolgreich ist?

Der Betriebswirtschaftler in dir wird sehr schnell und einfach antworten können: “Wenn die Kosten sinken, Prozesse schneller werden und die Technik stabil läuft, ist ein Projekt erfolgreich.” Diese Sicht passt ganz ausgezeichnet auf ein IT-Projekt. Für einen sozialen Lernprozess, also eine KI-Initiative, greift diese Sichtweise jedoch zu kurz.

In diesem Kapitel möchte ich dir eine andere Perspektive anbieten. Es geht darum, Erfolg bei KI-Initiativen so zu definieren, dass er der Realität von Organisationen, Menschen und Kultur gerecht wird. Ich bemühe mich dabei auch, die Logik deiner Kostenrechnung mit einzubeziehen.

Warum die klassische Erfolgslogik nicht mehr reicht

Viele Unternehmen nutzen für KI-Projekte dieselben Erfolgsmaßstäbe wie für andere Technologievorhaben:

  • Wurde das Projekt im Budgetrahmen abgeschlossen?
  • Läuft das System technisch stabil?
  • Wurden die geplanten Einsparungen erzielt?
  • Auf Folien sieht das oft beeindruckend aus:
  • „X Prozent Kostenreduktion im Kundenservice“,
  • „Y Stunden Zeiteinsparung pro Vorgang“,
  • „Z Tools erfolgreich eingeführt“.

Wenn du dich auf die Suche machst in Foren und Bewertungen, dann kannst du folgende Aussagen finden:

  • „Ja, das Tool ist da, aber ehrlich gesagt nutzt es kaum jemand.“
  • „Offiziell ist das Projekt abgeschlossen, praktisch arbeiten wir weiter wie vorher.“
  • „Im Bericht steht, dass wir automatisiert haben, aber in der Realität prüfen wir alles manuell nach.“

Der digitale Dachboden

Ein Projekt kann auf der PowerPoint-Ebene erfolgreich sein und im Alltag wirkungslos.

Ein System kann technisch stabil laufen und trotzdem kein Vertrauen, keine Akzeptanz und keinen echten Mehrwert haben.

Es gibt den treffenden Begriff des „digitalen Dachbodens“, auf dem viele Digitalprojekte am Ende landen. Nicht notwendigerweise KI-Projekte. Das Phänomen gibt es schon seit vielen, vielen Jahren. Falls dir das was sagt oder noch was sagt: Evernote, Asana, Slack. Das sind alles Oberflächen, die mit dem guten Ansatz begonnen haben, Arbeit zu organisieren. Der Hauptgrund, warum sie immer mal wieder abgelehnt werden, ist zunehmende Übersichtlichkeit und Pflegebedürftigkeit. Der Zeiteinsatz, um sich zu orientieren, um überhaupt zu wissen, worum es noch geht, nimmt so viel Raum ein, dass die eigentliche Arbeit nicht mehr gemacht werden kann.

Wenn du KI als sozialen Lernprozess verstehst, kannst du den Erfolg daran messen, wie viele Menschen mit dieser Technologie leben, dauerhaft mit ihr arbeiten und mithilfe von KI-Unterstützung gerne Entscheidungen treffen.

Was Studien unter „erfolgreich“ verstehen und was sie ausschließen

Empirische Forschung ist etwas anderes als betriebswirtschaftliche Betrachtung oder Bewertung. Empirische Forschung setzt gegebenenfalls mehr andere oder sogar strengere Betrachtungsregeln an, als die, die wir aus der Praxis gewohnt sind.

Am Beispiel des Massachusetts Institute of Technology (MIT): Eine KI-Initiative gilt dort nur dann als erfolgreich, wenn mehrere Bedingungen erfüllt sind:

  • Sie erzeugt einen klar nachweisbaren wirtschaftlichen Beitrag (z.B. auf Ergebnis- oder Kostenrechnung).
  • Sie wird über den Pilotstatus hinaus in den echten Betrieb überführt und auch tatsächlich genutzt.
  • Sie ist technisch ausreichend zuverlässig.
  • Sie wirkt nicht offensichtlich gesellschaftlich oder organisatorisch destruktiv (z.B. massiv unfair, ethisch problematisch oder deutlich qualitätsmindernd in der Arbeit).

Umgekehrt gilt:

Eine reine Kostenreduktion, etwa durch Stellenabbau, reicht nicht automatisch als Erfolgsnachweis, wenn die Einführung schlecht gemacht ist, die Systeme nicht verlässlich funktionieren oder die Akzeptanz so gering ist, dass Menschen Wege finden, das System zu umgehen.

Ich halte diese Perspektive für wichtig. Sie setzt eine Messlatte, die näher an deiner Realität als Entscheider ist:

Du musst auf den ROI schauen. ok.

Du musst dich aber vor allem fragen, ob das, was du da einführst, deine gesamte Organisation in sich und nach außen als Ganzes stärkt.

Der Unterschied zwischen Makro-Erfolg und Mikro-Scheitern

Ein Gedankenbild aus der Forschung hat mich besonders beschäftigt:

Auf der Makro-Ebene sehen wir einige wenige, sehr erfolgreiche KI-Projekte mit enormer Wirkung.

Auf der Mikro-Ebene erleben wir eine große Zahl von Initiativen, die nie richtig ins Laufen kommen.

Das Beispiel des globalen Einzelhändlers illustriert das gut:

  • 200 KI-Initiativen werden gestartet.
  • 190 davon liefern keine messbare Ersparnis oder werden wieder verworfen.
  • 10 sind so erfolgreich; etwa in Lagerlogistik oder Lieferkettenoptimierung, dass am Ende tausende Stellen eingespart werden.

Aus Sicht des Vorstands können diese 10 Projekte ausreichen, um das Gesamtprogramm als „Erfolg“ zu verbuchen. Aus Sicht der Organisation ist das Bild komplexer:

  • Viele Teams haben an Initiativen gearbeitet, die am Ende nicht weiterverfolgt wurden.
  • Erfahrungen mit Unsicherheit, Bruchstellen und Scheitern haben sich eingeprägt.
  • Vertrauen in „das nächste KI-Projekt“ kann gelitten haben, selbst wenn es ein paar spektakuläre Leuchttürme gibt.

Für dich als Entscheider kann das bedeuten:

  • Makro-Erfolg und Mikro-Scheitern sind zwei Seiten derselben Medaille.
  • Wenn du nur auf die großen Erfolgsgeschichten schaust, übersiehst du den Preis, den deine Organisation auf dem Weg dorthin zahlt.
  • Erfolg neu zu denken heißt auch, den Umgang mit den 190 „nicht erfolgreichen“ Initiativen bewusst zu gestalten. Als Lernchance.

Mehrdimensionale Erfolgskriterien

Wenn du KI als sozialen Lernprozess betrachtest, verändern sich deine Erfolgskriterien. betrachte die vier folgenden Dimensionen:

  • Ökonomische Wirkung
  • Organisatorische Qualität
  • Soziale und kulturelle Wirkung
  • Ethische und gesellschaftliche Dimension

Ich gehe kurz durch jede dieser Dimensionen.

Ökonomische Wirkung

Natürlich bleibt der wirtschaftliche Effekt wichtig. Typische Fragen sind:

  • Welche Kosten wurden real im Alltag eingespart?
  • Welche Zeitgewinne entstehen in konkreten Prozessen?
  • Verbessert sich die Qualität von Entscheidungen oder Ergebnissen messbar?

Wichtig kann hier sein: Ökonomischer Erfolg baut auf

  • langfristige Resilienz,
  • die Fähigkeit, neue Geschäftsmodelle zu erproben,
  • und die Chance, Mitarbeitende für höherwertige Aufgaben zu gewinnen.

Organisatorische Qualität

Diese Dimension wird oft unterschätzt. Fragen, die ich mir hier stelle:

  • Ist die KI sinnvoll in Prozesse eingebettet, oder hängt sie als Zusatztool daneben?
  • Sind Rollen und Verantwortlichkeiten klar definiert?
  • Gibt es strukturierte Feedback- und Verbesserungsschleifen?

Ein System, das technisch hervorragend ist, aber organisatorisch „in der Luft hängt“, wird selten nachhaltig genutzt. Organisatorischer Erfolg zeigt sich zum Beispiel darin, dass:

  • die Zusammenarbeit zwischen Fachbereichen, IT und Datenkompetenz funktioniert,
  • Entscheidungen reproduzierbar und nachvollziehbar sind,
  • und Verbesserungen systematisch in den Betrieb einfließen.

Soziale und kulturelle Wirkung

Hier wird es für den sozialen Lernprozess besonders spannend. Fragen könnten sein:

  • Wie stark wird das System im Alltag wirklich genutzt?
  • Wie hoch ist das Vertrauen der Mitarbeitenden in die Ergebnisse?
  • Fühlen sich Menschen im Umgang mit der KI souveräner oder unsicherer?

Positive Signale sind zum Beispiel:

  • Teams, die KI-Ergebnisse aktiv diskutieren.
  • Mitarbeitende, die Verbesserungsideen einbringen und sich einbezogen fühlen.
  • Führungskräfte, die offen über Fehler und Grenzen des Systems sprechen.

Negative Signale erkennst du unter anderem daran, dass:

  • die Nutzung auf wenige „Fans“ beschränkt bleibt,
  • Umgehungswege entstehen („Schattenprozesse“),
  • oder KI intern vor allem als Bedrohung erlebt wird.

Ethische und gesellschaftliche Dimension

Je tiefer KI in Entscheidungsprozesse eingreift, desto relevanter wird diese Dimension. Typische Fragen:

  • Werden bestimmte Gruppen systematisch benachteiligt oder ausgeschlossen?
  • Sind die Kriterien, nach denen Entscheidungen getroffen werden, nachvollziehbar?
  • Welche Signale sendet das System nach innen und außen über die Haltung des Unternehmens?

Ein Beispiel: Ein automatisiertes Bewerbungsscreening kann kurzfristig Kosten sparen. Wenn es aber intransparent ist, diskriminierende Muster verstärkt oder von Bewerbenden und Mitarbeitenden als unfair erlebt wird, ist der „Erfolg“ auf dem Papier teuer erkauft.

Aus der Perspektive eines sozialen Lernprozesses gehört es zur Führungsaufgabe, solche Effekte mitzudenken.

Praktische Messpunkte, woran du dich orientieren kannst

Theoretische Dimensionen sind hilfreich, aber im Alltag brauchst du Anhaltspunkte, an denen du erkennen kannst, wo dein KI-Projekt steht.

Ein paar Messpunkte, die ich in der Praxis nutze:

Nutzungsrate:

  • Wie viele der vorgesehenen Nutzer:innen verwenden das System regelmäßig?
  • Gibt es Bereiche, in denen das Tool bewusst gemieden wird?

Entscheidungseinfluss:

  • In wie vielen Fällen fließen KI-Empfehlungen sichtbar in Entscheidungen ein?
  • Werden sie eher als Empfehlung oder als Pflicht verstanden?

Feedback und Lernen:

  • Wie viele Rückmeldungen zu Fehlern oder Verbesserungsideen werden erfasst?
  • Gibt es regelmäßige Auswertungen und Anpassungen?

Kompetenz und Souveränität:

  • Wie schätzen sich Mitarbeitende im Umgang mit dem System ein?
  • Werden Schulungsangebote genutzt und als hilfreich erlebt?

Vertrauensniveau:

  • Wie wird über das System gesprochen?
    • Eher anerkennend, abwehrend oder ironisch?
  • Trauen sich Menschen, auf KI-Ergebnisse zu verweisen, wenn sie eine Entscheidung begründen?

Diese Punkte musst du nicht in ein perfektes Kennzahlensystem gießen. Sie können aber gute Gesprächsanlässe sein, um mit deinen Teams ehrlich zu schauen: Wo stehen wir eigentlich? Und was sagt das über unseren Lernprozess aus?

Erfolg als Lernfähigkeit - Die vielleicht wichtigste Kennzahl

Je länger ich mit KI-Projekten arbeite, desto mehr verschiebt sich für mich eine zentrale Frage:

  • Weg von: „Wie perfekt ist dieses System?“
  • Hin zu: „Wie lernfähig ist unsere Organisation im Umgang damit?“

In einer Welt, in der sich Modelle, Daten und Rahmenbedingungen schnell verändern, ist die Fähigkeit zum Lernen oft wichtiger als der Zustand zu einem bestimmten Zeitpunkt.

Für KI-Initiativen heißt das:

  • Ein Projekt, das formal „gescheitert“ ist, kann sehr wertvoll sein, wenn du daraus bewusst lernst.
  • Ein Projekt, das auf dem Papier „erfolgreich“ ist, kann gefährlich sein, wenn es intern Widerstand erzeugt oder blinde Flecken verstärkt.

Erfolg neu zu denken bedeutet deshalb:

  • Du bewertest KI-Projekte nicht nur nach dem, was sie kurzfristig einsparen,
  • sondern danach, wie sie zur Lernfähigkeit deiner Organisation beitragen.

Wenn du es schaffst, diese Perspektive zu verankern, verändert sich auch die Art, wie du KI-Initiativen steuerst:

  • Du planst Raum für Iteration und Korrektur ein.
  • Du nimmst die Erfahrungen aus Piloten ernst, auch wenn sie unbequem sind.
  • Du machst Kultur, Vertrauen und Kommunikation ausdrücklich zum Teil der Erfolgslogik.

Genau an dieser Stelle knüpft das nächste Kapitel an. Dort geht es darum, wie du diesen Blick auf Erfolg in konkrete Reflexionsfragen und später in eine Checkliste übersetzen kannst, mit der du deine eigenen KI-Projekte systematisch betrachten kannst. Als sozialen Lernprozess, den du aktiv gestaltest.

Reflexion und Ausblick

Was aus KI-Projekten gelernt werden kann

Wenn ich auf die verschiedenen Beispiele, Studien und Gespräche zurückschaue, die in diesen Artikel eingeflossen sind, komme ich immer wieder auf meinen ursprünglichen Leitgedanken zurück: Der Reifegrad von KI in einer Organisation ist eine kulturelle und soziale Dimension.

Du kannst modernste Modelle, leistungsfähige Plattformen und eine hervorragende IT-Abteilung haben. Trotzdem kannst du daran scheitern, KI sinnvoll in deinen Alltag zu integrieren. Und du kannst mit vergleichsweise einfachen Mitteln beginnen und trotzdem sehr viel gewinnen, wenn du den Lernprozess klug gestaltest.

In diesem letzten Kapitel möchte ich den Blick noch einmal weiten. Weg von einzelnen Projekten, hin zu der Frage, was du als Entscheider langfristig aus der Einführung von KI mitnehmen kannst.

Was bleibt, wenn man die Schlagzeilen weglässt?

Wenn ich die Erfolgsmeldungen und Alarmrufe rund um KI gedanklich ausblende, dann bleiben ein paar nüchterne Feststellungen:

  • Die meisten KI-Initiativen scheitern nicht, weil die Technik völlig unbrauchbar wäre.
  • Sie scheitern, weil sie nicht gut in Prozesse, Rollen und Verantwortung eingebettet sind.
  • Sie scheitern, weil Erwartungen nicht geklärt sind und Fehler nicht als Teil des Lernprozesses akzeptiert werden.
  • Sie scheitern, weil Führung und Kommunikation KI als Tool behandeln und nicht als Veränderung im sozialen Gefüge.

Umgekehrt gilt:

  • Dort, wo über Ziele, Grenzen und Verantwortlichkeiten klar gesprochen wird, steigt die Akzeptanz.
  • Dort, wo Mitarbeitende Zeit und Raum bekommen, KI zu verstehen, auszuprobieren und mitzugestalten, wächst die Souveränität.
  • Dort, wo Fehler besprechbar sind und nicht sofort zu Schuldzuweisungen führen, reifen Systeme und Menschen gemeinsam.

Das klingt einfach? In der Realität ist es anspruchsvoll, weil es an Grundüberzeugungen rührt.

  • Wie sehen wir unsere eigene Expertise?
  • Wieviel Unsicherheit halten wir gemeinsam aus?
  • Was bedeutet Verantwortung, wenn Entscheidungen teilweise von Systemen mitgetroffen werden?

KI als Spiegel der eigenen Organisation

KI-Projekte zeigen zunehmend, wie eine Organisation mit Lernen, Macht, Vertrauen und Fehlern umgeht. An dieser Stelle ist es möglicherweise nochmal sinnvoll, den Begriff Large Language Model hier einzubringen. Language, also Sprache, Sprechen, Kommunikation. In immer mehr Mitteilungen, Veröffentlichungen, Foren und Beiträgen taucht auf, dass Flexibilität, Kreativität und Kommunikationsfähigkeiten wichtige Fähigkeiten sind, um mit KI erfolgreich zu arbeiten. Möglicherweise ist es hilfreich, sich daran zu erinnern, dass es mit KI oft ist wie mit dem Sprichwort: “So wie du in den Wald hineinrufst, so schallt es heraus.”

Ein paar typische Muster:

  • In Organisationen mit stark hierarchischer Prägung und wenig gelebter Fehlerkultur werden KI-Fehler schnell zu politischen Themen. Es geht dann nicht mehr um Verbesserung, sondern um Zuständigkeiten.
  • In Organisationen mit hoher Perfektionsnorm wird die Einführung so lange getestet, verfeinert und abgesichert, dass der eigentliche Lernmoment, der reale Einsatz, kaum stattfindet.
  • In Organisationen, in denen Verantwortung unklar verteilt ist, werden KI-Systeme entweder über- oder unterverantwortet: Entweder sie „sollen alles entscheiden“ oder niemand fühlt sich zuständig, die Ergebnisse sinnvoll zu nutzen.

Du kannst KI-Initiativen also auch als Diagnoseinstrument sehen:

  • Wie schnell kommen wir vom Pilot in den Alltag?
  • Wie wird über Fehler gesprochen, die durch KI sichtbar werden?
  • Wer fühlt sich für das Lernen mit der Technologie verantwortlich?
    • Nur die IT oder auch die Fachbereiche und die Führung?

Die Antworten auf diese Fragen sagen oft mehr über den Zustand deiner Organisation aus als über die Qualität des eingesetzten Modells.

Was du als Entscheider realistischerweise erwarten kannst

Ich halte es für hilfreich, die eigenen Erwartungen bewusst zu justieren. Aus meiner Sicht kannst du von KI in deinem Verantwortungsbereich drei Dinge realistischerweise erwarten, wenn du bereit bist, sie als Lernprozess zu führen:

  • Entlastung, nicht Erlösung.
  • Strukturierung, nicht Allwissenheit.
  • neue Perspektiven, nicht fertige Wahrheiten.

Entlastung heißt:

  • Routineaufgaben werden leichter.
  • Informationen sind schneller verfügbar.
  • Erste Entwürfe entstehen in Minuten.

Strukturierung heißt:

  • Komplexe Themen lassen sich vorsortieren.
  • Optionen werden sichtbarer.
  • Muster und Ausreißer treten klarer hervor.

Neue Perspektiven heißt:

  • Du bekommst Vorschläge, auf die du so nicht gekommen wärst.
  • Du kannst Annahmen testen, Szenarien durchspielen, Varianten vergleichen.

Was KI nicht leisten kann:

Verantwortung abnehmen.

  • Kontextwissen und Beziehungskompetenz ersetzen.
  • Die kulturellen Spannungen in einer Organisation „wegautomatisieren“.

Wenn du mit diesen Erwartungen arbeitest, wird KI zu einem Werkzeug in einem größeren Lernprozess.

Drei Reflexionsachsen für deinen weiteren Weg

Zum Abschluss möchte ich dir drei Achsen anbieten, entlang derer du deinen eigenen Umgang mit KI weiterdenken kannst. Sie sind bewusst offen formuliert; als Einladung zur Reflexion, nicht als Checkliste.

  • Technik vs. Sozialer Kontext
  • Kontrolle vs. Vertrauen
  • Effizienz vs. Qualität des Arbeitens
  • Technik vs. Sozialer Kontext

Technik vs. sozialer Kontext

  • Wo investierst du derzeit mehr Energie?
    • In Tool-Auswahl und Implementierung oder in die Gestaltung von Rollen, Prozessen und Kommunikation?
  • Welche Fragen stellst du zuerst, wenn ein KI-Projekt diskutiert wird?
    • „Welche Plattform?“ oder „Wer soll damit wie arbeiten?“

Kontrolle vs. Vertrauen

  • Wie gehst du damit um, dass lernende Systeme Fehler machen werden?
  • Wie reagierst du, wenn eine KI-Entscheidung im Team infrage gestellt wird?
  • Welche Signale sendest du, wenn du selbst KI-gestützte Ergebnisse nutzt oder ablehnst?

Effizienz vs. Qualität des Arbeitens

  • Woran misst du in deinem Alltag tatsächlich den Erfolg von KI-Einsatz?
  • Wo entstehen durch KI Freiräume, die du bewusst für bessere Gespräche, mehr Nachdenken oder sorgfältigere Entscheidungen nutzen könntest?
  • Wo droht der Effizienzdruck dazu zu führen, dass Qualität, Fairness oder Lernmöglichkeiten leiden?

Diese Fragen haben keine einfachen Antworten. Sie sind aber ein guter Startpunkt, wenn du KI nicht nur „einführen“, sondern bewusst in deine Führungs- und Kommunikationspraxis integrieren möchtest.

Ausblick: Von Projekten zu Routinen – und weiter

Viele Unternehmen denken heute noch in KI-Projekten. Ich halte das für einen sinnvollen Einstieg und zugleich für ein Zwischenstadium.

Langfristig wird es weniger darum gehen, einzelne KI-Projekte erfolgreich abzuschließen, sondern darum, KI als selbstverständlichen Teil des Arbeitsalltags zu etablieren. Das bedeutet:

  • Projekte werden zu Routinen.
    • Was heute Pilot ist, wird morgen Standardprozess.
  • Lernen wird kontinuierlich.
    • Modelle, Menschen und Organisation entwickeln sich gemeinsam weiter.
  • Verantwortung wandert in die Linie.
    • Nicht mehr nur Projektteams oder die IT, sondern Fachbereiche und Führungskräfte tragen die Verantwortung für einen guten, reflektierten Einsatz.

In dieser Perspektive ist KI ein weiterer Bestandteil einer sich verändernden Arbeitswelt. Der eigentliche Unterschied liegt dann darin, wie reif eine Organisation im Umgang mit Unsicherheit, Lernen und Verantwortung ist.

Genau hier schließt sich der Kreis zu meiner Ausgangsthese:

  • KI in Unternehmen ist kein IT-Projekt. KI ist ein sozialer Lernprozess.

Wenn du diesen Gedanken ernst nimmst, verschieben sich deine Fragen:

  • weg von „Welches Tool ist das beste?“
  • hin zu „Wie wollen wir gemeinsam mit dieser Technologie leben, arbeiten und entscheiden?“

Die Antwort darauf entsteht Schritt für Schritt. In deinen Entscheidungen, in euren Gesprächen und in der Art, wie ihr mit den ersten, zweiten und dritten Fehlern umgeht.

Genau dort beginnt der eigentliche Erfolg im gelebten Alltag deiner Organisation.