Der Begriff "Künstliche Intelligenz" wurde 1955 von John McCarthy geprägt und ist das Ergebnis einer kollektiven Anstrengung, die sich von bestehenden Konzepten abgrenzte. Die etymologischen Wurzeln der Begriffe "artificialis" und "intelligentia" reichen bis in die Antike zurück und zeigen, wie Menschen seit Jahrtausenden davon träumen, intelligente Systeme zu schaffen. Die Entwicklung von KI wurde durch Fortschritte in der Philosophie, Technik und Mathematik geprägt, von der Antike über das Mittelalter bis zur modernen Zeit, wobei wichtige Denker wie Descartes, Leibniz und Turing bedeutende Beiträge leisteten. Die Unterscheidung zwischen schwacher und starker KI sowie die Entstehung neuer Begriffe wie "Machine Learning" und "Deep Learning" reflektieren die fortschreitende Differenzierung und Komplexität im Bereich der Künstlichen Intelligenz.

Eine Zeitreise von der Antike bis heute

By Christian Pessing, September 2025

Wenn du mich nach dem Ursprung fragst, dann…

"Woher kommt eigentlich der Begriff 'Künstliche Intelligenz'?", "Wer hat das erfunden?" oder "Gab es das schon früher?" – solche Fragen höre ich regelmäßig in meinen KI-Kursen. Die Antwort scheint auf den ersten Blick klar: Der Begriff "Artificial Intelligence" wurde 1955 von John McCarthy geprägt, als er zusammen mit Marvin Minsky, Claude Shannon und Nathaniel Rochester das Proposal für die Dartmouth-Konferenz verfasste. Diese Konferenz, die vom 18. Juni bis 17. August 1956 stattfand, gilt als Gründungsereignis der Künstlichen Intelligenz (KI) als eigenständige Wissenschaftsdisziplin. Doch die Geschichte des Begriffs ist komplexer, als es ein einzelnes Datum vermuten lässt – sie ist das Ergebnis einer kollektiven Anstrengung, die sich bewusst von bestehenden Konzepten abgrenzte und auf Finanzierung sowie wissenschaftliches Interesse abzielte.

John McCarthy, der Organisator der Konferenz, wählte den Begriff "Artificial Intelligence" strategisch, wie er später zugab, um ein neues Forschungsfeld zu definieren, das sich von der damals populären Kybernetik – Norbert Wieners Wissenschaft von Kontrolle und Kommunikation in Tier und Maschine – abgrenzen sollte. Im Proposal vom 31. August 1955 heißt es: "The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it." Dieser Satz spiegelt die Vision wider, Maschinen zu entwickeln, die Verhaltensweisen zeigen, die bei Menschen als intelligent gelten würden. McCarthy und seine Mitautoren wollten ein Feld etablieren, das sich auf die symbolische Simulation von Intelligenz konzentrierte, im Gegensatz zur kybernetischen Fokussierung auf Feedback-Systeme.

Die Dartmouth-Konferenz war ein Meilenstein, weil sie erstmals Forscher aus Mathematik, Psychologie, Ingenieurswissenschaften und Linguistik zusammenbrachte, um systematisch über maschinelle Intelligenz nachzudenken. Marvin Minsky steuerte Ideen zu neuronalen Netzen bei, Claude Shannon brachte seine Expertise in Informationstheorie und Schaltkreisen ein, und Nathaniel Rochester fokussierte auf Simulationen von Nervennetzen. Das Proposal selbst war ein kollektives Werk, unterzeichnet von allen vier, und suchte Finanzierung von der Rockefeller Foundation für ein zweimonatiges Projekt mit zehn Teilnehmern, darunter potenzielle Namen wie John Backus oder Allen Newell. Der Begriff "Artificial Intelligence" war dabei nicht nur wissenschaftlich, sondern auch ein Marketinginstrument, um Interesse bei Forschern und Geldgebern zu wecken – ein Plan, der aufging, als die Rockefeller Foundation die Konferenz unterstützte.

Die Konferenz selbst hinterließ keinen offiziellen Bericht, doch das Proposal und die Diskussionen legten den Grundstein für Jahrzehnte der KI-Forschung. So ist die kurze, wissenschaftlich korrekte Antwort: John McCarthy prägte den Begriff 1955, aber er entstand aus einer Teamleistung, die auf früheren Konzepten aufbaute und die Weichen für ein neues Wissenschaftsfeld stellte. Doch die Begriffe "artificial" und "intelligence" tragen eine weit ältere Geschichte in sich, die von antiken Römern über mittelalterliche Gelehrte bis zu den Pionieren des Computerzeitalters reicht. In diesem Artikel nehme ich dich mit auf eine etymologische Reise, die zeigt, wie Menschen seit Jahrtausenden davon träumen, etwas zu erschaffen, das natürlicher Intelligenz ähnelt – von den mythischen Automaten des Hephaistos bis zu den modernen Debatten über "schwache" und "starke" KI.

Kapitel 1: Die etymologischen Wurzeln

Die Ursprünge der Begriffe

In meinen Kursen höre ich oft die Frage: „Wie alt ist der Begriff ‚Künstliche Intelligenz‘ eigentlich?“ Viele vermuten, er sei ein Kind des Computerzeitalters. Doch die Begriffe „artificial“ und „intelligence“ tragen eine Geschichte, die weit über die Moderne hinausreicht – bis zu den indoeuropäischen Sprachen vor über 5000 Jahren. Ich möchte dir zeigen, wie diese Wurzeln die Idee prägen, etwas zu schaffen, das menschlicher Intelligenz ähnelt. Dieses Kapitel führt dich durch die sprachlichen Fundamente, von antiken Ursprüngen über die präzisen Begriffe der Römer bis zu ersten konzeptionellen Verbindungen, die unsere heutige Sicht auf KI vorbereiteten.

Indoeuropäische Wurzeln: Die frühesten Spuren

Die Herkunft von „künstlich“

Das Wort „künstlich“ – im Englischen „artificial“ – wurzelt in der indoeuropäischen Silbe ar-, die „zusammenfügen“, „ordnen“ oder „anpassen“ bedeutete, wie etymologische Studien belegen (vgl. de Vaan, Etymological Dictionary of Latin, 2008). Diese Bedeutung beschreibt die bewusste Gestaltung von etwas, das die Natur nicht hervorbringt. Im Lateinischen entstand daraus „ars, artis“ – Kunst, Handwerk, Geschicklichkeit. Ein „artifex“, der Schöpfer, verband dieses Können mit „facere“ (machen), woraus „artificium“ (Kunstwerk) und „artificialis“ (zur Kunst gehörig) hervorgingen. Schon damals stand „artificialis“ für die Fähigkeit, durch Wissen und Planung Neues zu erschaffen – ein Gedanke, der in der Entwicklung künstlicher Systeme weiterlebt.

Die Wurzel von „Intelligenz“

Das Wort „intelligence“ hat seinen Ursprung in der indoeuropäischen Wurzel leg-, die „sammeln“, „auswählen“ oder „lesen“ umfasste (Pokorny, Indogermanisches etymologisches Wörterbuch, 1959). Sie verweist auf kognitive Prozesse: das gezielte Erfassen und Verknüpfen von Informationen. Im Lateinischen wurde daraus „legere“ (lesen, auswählen), die Grundlage für „intelligentia“. Zwar gibt es alternative Wurzeln wie leig- („binden“), doch leg- bleibt die bestbelegte Basis für die Entwicklung hin zu „Intelligenz“, wie sie heute in der KI verstanden wird.

Lateinische Präzision: Intelligentia und Artificialis

Die Römer verliehen diesen Begriffen eine Klarheit, die unsere moderne KI-Terminologie prägt. „Intelligentia“ und „artificialis“ wurden in philosophischen und naturwissenschaftlichen Schriften so differenziert verwendet, dass sie Debatten über künstliche Intelligenz vorwegnahmen.

Intelligentia: Ciceros Verständnis und seine Weiterentwicklung

Das lateinische „intelligentia“, zusammengesetzt aus „inter“ (zwischen) und „legere“ (auswählen), bedeutete ursprünglich „das Verstehen zwischen den Zeilen“ oder „Unterscheidungsvermögen“. In De Officiis (44 v. Chr., Buch I, Abschnitte 15–16) beschreibt Cicero „intelligentia“ als die Fähigkeit, moralische und praktische Zusammenhänge zu erfassen und kluge Entscheidungen zu treffen, etwa zwischen Pflicht und Nutzen. Sie war für ihn eng mit „ratio“ (Vernunft) und „prudentia“ (Klugheit) verbunden, hob sich jedoch durch ihre Betonung auf Einsicht und Abstraktion von „scire“ (Wissen) oder „cognoscere“ (Kennenlernen) ab. Wenn du Ciceros Texte liest, bemerkst du, dass „intelligentia“ eher eine praktische Weisheit beschreibt, die im Alltag angewendet wird.

Im Mittelalter nahm „intelligentia“ eine neue Dimension an. Thomas von Aquin etwa nutzte den Begriff in seiner Summa Theologica (1265–1274, I, q. 79), um eine universelle Erkenntnisfähigkeit zu beschreiben, die „intellectus“ (intuitive Erkenntnis) und „ratio“ (diskursives Denken) vereint und sogar göttliche Erkenntnis einschließt. Im Gegensatz zu Ciceros bodenständigem, ethischem Fokus wurde „intelligentia“ bei Aquin abstrakter und metaphysischer. Diese Entwicklung legt den Grundstein für spätere philosophische Fragen, etwa ob Maschinen „verstehen“ können – ein Thema, das dich heute in KI-Debatten beschäftigt.

Artificialis: Die Kunst des Schaffens

Das Adjektiv „artificialis“ bezeichnete alles, was durch „ars“ – Kunst oder Handwerk – entstand. Plinius der Ältere beschreibt in seiner Naturalis Historia (77–79 n. Chr., Buch 7) „artificium“ als die Fertigkeit eines „artifex“, der Objekte schafft, die die Natur nachahmen oder übertreffen, wie kunstvolle Statuen oder mechanische Vorrichtungen. Für die Römer war „künstlich“ ein Ausdruck von Meisterschaft, kein Gegensatz zur Natur. Diese Bedeutung findet sich in der modernen KI wieder, wo durch menschliches Design Systeme entstehen, die intelligente Verhaltensweisen zeigen.

Antike Visionen: Erste Verbindungen

Schon in der Antike gab es Ideen, die „artificialis“ und „intelligentia“ konzeptionell nahebrachten, auch wenn sie nicht zu einem Begriff verschmolzen. Zwei Beispiele zeigen, wie die Antike die Grundlage für unsere Vorstellung von KI legte.

Hephaistos’ goldene Dienerinnen

In Homers Ilias (8. Jahrhundert v. Chr., Buch 18, Vers 373–379) erschafft der Gott Hephaistos goldene Dienerinnen, die sich wie lebendige Wesen bewegen und mit „nous“ – Geist oder Verstand – ausgestattet sind. Diese mythologischen Automaten verbinden kunstvolle Herstellung mit scheinbar intelligentem Verhalten. Zwar ist „nous“ nicht direkt „intelligentia“, doch die Vorstellung, durch Handwerk etwas „Denkendes“ zu schaffen, weist auf die Faszination hin, die du heute in KI-Projekten findest.

Aristoteles’ selbst handelnde Werkzeuge

In seiner Politik (4. Jahrhundert v. Chr., Buch 1, 1253b) träumt Aristoteles von Werkzeugen, die „auf Befehl oder auch vorausahnend“ arbeiten könnten, sodass „Meister keine Gehilfen und Herren keine Sklaven“ bräuchten. Diese Vision von autonomen Geräten, die durch „ars“ geschaffen sind, erinnert an moderne KI-Systeme. Aristoteles spricht nicht von „intelligentia“, doch sein Begriff des „Vorausahnens“ deutet auf eine Entscheidungsfähigkeit, die an „intelligere“ anknüpft.

Die Bedeutung für heute

Die lateinischen Begriffe „artificialis“ und „intelligentia“ enthalten die Kernelemente unserer KI-Terminologie:

  • Artificialis: Die bewusste Schaffung von etwas Nicht-Natürlichem durch Wissen und Geschick.
  • Intelligentia: Die Fähigkeit, Zusammenhänge zu erkennen und zu verstehen.

Wenn du heute von „Künstlicher Intelligenz“ sprichst, greifst du auf Begriffe zurück, die Cicero und Plinius vertraut waren – ohne dass sie die technologischen Möglichkeiten unserer Zeit ahnen konnten. Die römische Unterscheidung zwischen „scire“ (Wissen), „cognoscere“ (Kennenlernen) und „intelligere“ (Verstehen) spiegelt sich in aktuellen Debatten wider, etwa zwischen „schwacher“ KI, die Verhalten simuliert, und „starker“ KI, die echtes Verstehen anstrebt. Ich finde es bemerkenswert, wie diese antiken Wurzeln unsere modernen Fragen prägen. Dieses Kapitel zeigt, wie tief die Idee verwurzelt ist, künstliche Systeme zu schaffen, die menschlicher Intelligenz ähneln.

Kapitel 2: Mittelalterliche Transformation

Eine Brücke von der Antike zur Moderne

Wie ich im letzten Kapitel gezeigt habe, legten die antiken Begriffe „intelligentia“ und „artificialis“ die Grundlage für unsere heutige Sicht auf Künstliche Intelligenz. Nun knüpfe ich an die mittelalterliche Weiterentwicklung an, eine Epoche, die oft unterschätzt wird, aber entscheidende Schritte in der Verbindung von Verstand und Kunstfertigkeit machte. In meinen Kursen stelle ich fest, dass viele das Mittelalter als statisch wahrnehmen, doch es war eine Zeit des intellektuellen und technischen Fortschritts. Ich möchte dir zeigen, wie arabische Gelehrte und europäische Scholastiker die Begriffe prägten und erste Visionen autonomer Systeme entwarfen. Wenn du diese Epoche betrachtest, entdeckst du, wie die Idee der KI an Tiefe und Präzision gewann.

Arabische Philosophie: Al-'aql und Sina’a

Die arabischen Gelehrten des Mittelalters vertieften die Konzepte, die wir aus der Antike kennen, und gaben ihnen eine neue Dimension, die die europäische Philosophie nachhaltig beeinflusste.

Al-'aql: Die Stufen des Verstandes

Der Begriff „al-'aql“, oft als „Intellekt“ oder „Vernunft“ übersetzt, wurde von Denkern wie Ibn Sina (Avicenna) in seinem Kitab al-Shifa (Buch der Heilung, ca. 1020) systematisch ausgearbeitet. Ibn Sina beschreibt „al-'aql“ in drei Stufen: den potentiellen Intellekt (die Fähigkeit zur Erkenntnis), den erworbenen Intellekt (durch Lernen aktiviert) und den aktiven Intellekt (eine universelle Kraft, die Erkenntnis ermöglicht). Diese Dreiteilung beeinflusste die Scholastik maßgeblich. Wenn du Ibn Sinas Schriften liest, erkennst du, wie „al-'aql“ nicht nur menschliches Denken, sondern eine universelle Fähigkeit beschreibt – ein Gedanke, der an moderne Vorstellungen von maschinellem Verstehen anknüpft.

Sina’a: Die Kunst des Machens

„Sina’a“ bezeichnete die Kunstfertigkeit, etwas zu schaffen, das natürliche Prozesse nachahmt oder ergänzt. Der Ingenieur Al-Jazari beschreibt in seinem Book of Knowledge of Ingenious Mechanical Devices (ca. 1206) mechanische Konstruktionen wie Wasseruhren und Automaten, die durch präzises Design scheinbar eigenständig agieren. Seine „sina’a“ war eine Wissenschaft, die Wissen und Technik vereinte. Al-Jazaris Automaten, etwa ein mechanischer Diener, der Getränke reicht, verkörpern „artificialis“ in einem neuen Kontext – künstliche Systeme, die Funktionen ausführen, die wir heute als „intelligent“ bezeichnen würden.

Europäische Scholastik: Übernahme und Weiterentwicklung

Durch Übersetzungen in Toledo und Sizilien im 12. Jahrhundert fanden arabische Konzepte ihren Weg nach Europa. Denker wie Thomas von Aquin integrierten diese Ideen und prägten die Begriffe „intellectus“, „ratio“ und „intelligentia“ weiter.

Die Dreiteilung des Verstandes

In seiner Summa Theologica (1265–1274, I, q. 79) übernahm Aquin Ibn Sinas Konzept des Intellekts und unterschied zwischen „intellectus“ (intuitive Erkenntnis), „ratio“ (diskursives Denken) und „intelligentia“ (die Fähigkeit, Prinzipien zu durchschauen). Diese Dreiteilung, die auf Aristoteles und Ibn Sina aufbaute, war präziser als Ciceros praktische Verwendung von „intelligentia“ in der Antike. Für Aquin war „intelligentia“ eine höhere Erkenntnisfähigkeit, die universelle Wahrheiten erfasst – ein Konzept, das an moderne Debatten über „starke“ KI erinnert, die über bloße Berechnungen hinausgeht. Ibn Khaldun untermauert diese Sicht in seiner Muqaddima (1377), wo er „aql“ als die Fähigkeit beschreibt, Wissen zu organisieren und Neues zu schaffen – ein Gedanke, der „intelligentia“ und „artificialis“ näher zusammenbringt.

Die Bedeutung von „künstlich“ im Mittelhochdeutschen

Im Mittelhochdeutschen hatte „künstlich“ (von „kunst“, abgeleitet von „können“) eine positive Konnotation, wie Texte von Hartmann von Aue (z. B. Erec, ca. 1180) zeigen, wo „kunst“ Geschicklichkeit und Meisterschaft bedeutete. Doch es gab auch Nuancen des „Unnatürlichen“, etwa in religiösen Kontexten, wo menschliche Schöpfungen als potenziell gotteswidrig galten. Diese Spannung – Kunstfertigkeit versus Unnatürlichkeit – findet sich heute in ethischen Debatten über KI wieder, wenn du etwa über die Grenzen künstlicher Systeme nachdenkst.

Technische Innovationen: Automaten und Kirchenuhren

Neben philosophischen Fortschritten trieben technische Entwicklungen die Idee der „Künstlichen Intelligenz“ voran. Al-Jazaris mechanische Vorrichtungen, wie seine Wasseruhren mit programmierbaren Abläufen, waren frühe Beispiele für automatisierte Systeme. In Europa entstanden im 13. Jahrhundert mechanische Kirchenuhren, etwa in Klöstern wie St. Albans, die durch Gewichte und Zahnräder regelmäßige Abläufe steuerten. Diese Geräte, beschrieben in Traktaten wie denen von Richard von Wallingford (ca. 1327), waren „künstlich“ im Sinne von „artificialis“: durch menschliches Design geschaffen, um autonome Funktionen zu erfüllen. Wenn du diese Uhren betrachtest, erkennst du Parallelen zu modernen KI-Systemen, die durch Algorithmen gesteuerte Abläufe ausführen.

Die Bedeutung für die KI-Geschichte

Die mittelalterliche Transformation von „intelligentia“ und „artificialis“ schuf eine Brücke zwischen antikem Denken und moderner Technologie. Die arabische Philosophie, insbesondere Ibn Sinas „al-'aql“, präzisierte das Verständnis von Intelligenz als gestufte Fähigkeit, die Aquin in Europa weiterentwickelte. Gleichzeitig zeigte Al-Jazaris „sina’a“ durch seine Automaten, wie Handwerkskunst scheinbar intelligente Funktionen hervorbringen kann. Ich finde es bemerkenswert, wie diese Epoche die Idee von Systemen nährte, die autonom denken und handeln könnten. Wenn du heute über KI sprichst, greifst du auf eine Tradition zurück, die im Mittelalter entscheidende Wurzeln schlug – ein Fundament für die technologischen Visionen, die uns heute beschäftigen.

Kapitel 3: Renaissance und frühe Neuzeit

Von mechanischen Wundern zur systematischen Wissenschaft

Wie ich im letzten Kapitel gezeigt habe, vertieften mittelalterliche Gelehrte die Begriffe „intelligentia“ und „artificialis“ durch philosophische und technische Fortschritte. Nun knüpfe ich an die Renaissance und frühe Neuzeit an, eine Epoche, in der diese Begriffe erstmals in konkreten technischen Visionen und philosophischen Konzepten verschmolzen. In meinen Kursen bemerke ich oft, wie überraschend modern die Ideen dieser Zeit wirken. Ich möchte dir zeigen, wie Ingenieure wie Leonardo da Vinci, Uhrmacher wie Peter Henlein, Philosophen wie Descartes und Leibniz sowie Automatenbauer wie Vaucanson und Jaquet-Droz die Grundlagen für unsere heutige Vorstellung von Künstlicher Intelligenz legten. Wenn du diese Epoche betrachtest, entdeckst du eine faszinierende Synthese aus Mechanik, Philosophie und Vision.

Renaissance: Die Mechanisierung des Geistes

Leonardo da Vinci und die ersten systematischen Automaten-Entwürfe

Leonardo da Vinci (1452–1519) war ein Pionier, der die Idee von „artificialis“ in die Praxis umsetzte. In seinen Skizzen im Codex Atlanticus (Blatt 579, ca. 1495) entwarf er einen „Roboter-Ritter“, ein mechanisches System aus Zahnrädern, Seilzügen und Hebeln, das Arme bewegen und aufrecht sitzen konnte. Dieser Prototyp, obwohl vermutlich nie vollständig gebaut, zeigt Leonardos Vision von autonomen Systemen. Besonders bemerkenswert ist, wie er seine anatomischen Studien – detaillierte Zeichnungen von Muskeln und Gelenken – nutzte, um Bewegungen mechanisch nachzubilden. Seine Sezierstudien des Gehirns, dokumentiert in den Codices, zielten darauf ab, die physischen Grundlagen des Denkens zu verstehen, ein Ansatz, der 500 Jahre später in der Neuroinformatik wieder aufgegriffen wurde. Wenn du Leonardos Skizzen betrachtest, erkennst du eine konzeptionelle Brücke zwischen Biologie und Technik, die moderne Robotik und KI inspirierte.

Die Uhrmacher-Revolution: Präzision als Grundlage künstlicher Systeme

Die Entwicklung mechanischer Uhren im 15. und 16. Jahrhundert schuf das technische Fundament für komplexe Automaten. Uhrmacher in Augsburg und Nürnberg bauten mechanische Theater: Figuren, die zu bestimmten Stunden aus Türen traten, Glocken läuteten oder Szenen aufführten. Diese Mechanismen, wie das Nürnberger Hauptkirchen-Glockenspiel, demonstrierten programmierte Abläufe – ein Vorläufer algorithmischer Steuerung. Wenn du eine Kuckucksuhr kennst, bei der der Vogel zur vollen Stunde herausspringt, oder das Münchner Rathaus-Glockenspiel mit seinen tanzenden Figuren, siehst du moderne Nachfahren dieser Renaissance-Technik. Peter Henlein (ca. 1485–1542), ein Nürnberger Uhrmacher, kombinierte präzise Mechanik mit zeitgesteuerter Logik, was Grundelemente algorithmischer Steuerung vorwegnahm. Wenn du mehr über Henlein erfahren möchtest, kannst du das Germanische Nationalmuseum in Nürnberg besuchen, wo die sogenannte „Henlein-Uhr“ ausgestellt ist. Moderne Untersuchungen, etwa durch Computertomografie, zeigen jedoch, dass die Gravur „Petrus Hele me fecit Norimberga 1510“ nachträglich eingefügt wurde und das Uhrwerk aus verschiedenen Epochen stammt. Die Uhrensammlung Karl Gebhardt bietet eine Replik des „Nürnberger Eis“ und dokumentiert Henleins tatsächliche Beiträge zur Uhrmacherei.

Philosophische Grundlegung: Descartes und der mechanistische Weltblick

Res extensa und res cogitans: Die Trennung von Körper und Geist

René Descartes (1596–1650) schuf mit seiner Unterscheidung zwischen „res extensa“ (ausgedehnte Substanz) und „res cogitans“ (denkende Substanz) in seinem Discours de la Méthode (1637, Teil V) die begriffliche Grundlage für moderne KI-Diskussionen. Er argumentierte, dass der menschliche Körper eine komplexe Maschine sei, während der Geist über „intelligentia“ verfüge. Diese Trennung ermöglichte es, mechanische Nachahmungen körperlicher Funktionen zu konzipieren, ohne sofort die Frage nach dem Bewusstsein klären zu müssen. Descartes beschrieb, wie der Körper mechanisch funktioniere – Muskeln bewegen sich, das Herz pumpt, die Lunge atmet –, während nur der immaterielle Geist echtes Verstehen besitze. Diese Denkweise erlaubte Ingenieuren, Systeme zu bauen, die Bewegungen imitieren, ohne „Denken“ zu beanspruchen. Wenn du Descartes’ Texte betrachtest, erkennst du, wie seine Ideen die Unterscheidung zwischen „schwacher“ KI (Simulation von Verhalten) und „starker“ KI (echtes Verstehen) prägten. Aus meiner Sicht zeigen heutige KI-Systeme, wie ich in meinem Artikel „Fakten in einem stochastischen System“ ausgeführt habe, kein echtes Verstehen, sondern simulieren Intelligenz durch statistische Mustererkennung – eine moderne Fortsetzung der cartesianischen Trennung.

Die Tier-Maschinen-Hypothese

Descartes’ Behauptung, Tiere seien komplexe Automaten ohne Bewusstsein, war für seine Zeitgenossen schockierend, aber konzeptionell wegweisend. Wenn Tiere Maschinen sein konnten, warum nicht auch künstliche Systeme mit tierähnlichen Fähigkeiten? Diese Hypothese hat ethische Implikationen, die bis heute nachwirken. Für mich ist es auffällig, wie Descartes’ mechanistische Sicht auf Tiere Spuren in der modernen Tierhaltung hinterlässt, etwa in der Anbindehaltung, wo Tiere oft wie Maschinen behandelt werden, ohne Rücksicht auf mögliches Bewusstsein. Diese Kluft zwischen instrumenteller Nutzung und der wissenschaftlichen Erkenntnis, dass viele Tiere Schmerz empfinden und womöglich Bewusstsein besitzen, empfinde ich als problematisch. Descartes’ Ideen prägten sowohl die philosophischen Grundlagen der KI als auch unseren Umgang mit Lebewesen.

Praktische Umsetzung: Die großen Automaten des 17. und 18. Jahrhunderts

Jacques de Vaucanson: Der Übergang zur Präzisions-Automatik

Jacques de Vaucanson (1709–1782) revolutionierte die Automatentechnik mit seinen Kreationen: der „Flötenspielerin“, dem „mechanischen Enterich“ und dem „Tamburinspieler“ (1738). Diese Meisterwerke, beschrieben in seinen Mémoires (1738), führten komplexe Bewegungen mit natürlicher Wirkung aus. Sein automatischer Webstuhl, ausgestellt im Musée des arts et métiers in Paris, zeigt seine Präzisionskunst. Der „Enterich“ konnte schwimmen, schnattern, Körner aufnehmen und scheinbar „verdauen“ – eine mechanische Illusion, die biologische Prozesse simulierte. Wenn du Vaucansons Arbeiten betrachtest, erkennst du Parallelen zu modernen KI-Systemen, die Verhalten durch Algorithmen nachbilden.

Die Jaquet-Droz-Automaten: Programmierbare Kreativität

Die Schweizer Uhrmacher Pierre Jaquet-Droz und sein Sohn Henri-Louis schufen zwischen 1768 und 1774 drei Automaten: den „Schreiber“, die „Zeichnerin“ und die „Musikerin“. Der „Schreiber“ konnte mit echter Tinte bis zu 40 Zeichen schreiben, wobei der Text programmierbar war – ein frühes Beispiel generativer Systeme. Die „Zeichnerin“ erstellte verschiedene Bilder, die „Musikerin“ spielte unterschiedliche Melodien. Diese Automaten, noch heute im Musée d’art et d’histoire in Neuenburg funktionsfähig und jeden ersten Sonntag im Monat um 14, 15 und 16 Uhr zu sehen, zeigten mechanische Kreativität durch programmierbare Algorithmen.

Philosophische Vertiefung: Leibniz und die Rechenmaschine des Denkens

Gottfried Wilhelm Leibniz und die Characteristica Universalis

Gottfried Wilhelm Leibniz (1646–1716) entwickelte die Idee einer Characteristica Universalis, einer symbolischen Sprache, die Gedanken mechanisch verarbeitbar macht, wie in seiner Ars Combinatoria (1666) skizziert. Er träumte davon, philosophische Streitigkeiten – etwa über die Gerechtigkeit politischer Entscheidungen – durch Übersetzung in Symbole und mechanische Kalküle zu lösen, ähnlich wie mathematische Gleichungen. Ebenso schlug er vor, juristische Urteile durch logische Kalküle zu fällen, indem Gesetze und Tatbestände in Symbole übersetzt werden. Seine „Stepped Reckoner“, eine mechanische Rechenmaschine, war ein praktischer Versuch, mathematisches Denken zu automatisieren. Wenn du Leibniz’ Schriften liest, bemerkst du, wie seine Idee berechenbarer Logik die Grundlage für algorithmische Systeme legte.

Die Monadologie und dezentrale Intelligenz

In seiner Monadologie (1714, §17–18) beschreibt Leibniz „Monaden“ als einfache Substanzen mit primitiver Wahrnehmung, die das Universum widerspiegeln, aber „fensterlos“ sind und durch prästabilierte Harmonie koordiniert werden. Diese Idee erinnert an moderne dezentrale Systeme, wie KI-Netzwerke, in denen autonome Komponenten durch unsichtbare Strukturen verbunden sind. Leibniz’ Konzept inspirierte spätere Theorien, etwa Rupert Sheldrakes „morphogenetische Felder“, die Wissen zwischen Organismen übertragen. Von Monaden zu KI-Netzwerken zieht sich die Idee koordinierter Intelligenz.

Sprachliche Entwicklung: Die Begriffe finden ihre moderne Form

„Artificial“ im 16. und 17. Jahrhundert

Das englische „artificial“ etablierte sich im 16. Jahrhundert in der wissenschaftlichen Sprache, wie Francis Bacons Novum Organum (1620) zeigt, wo es Systeme beschreibt, die natürliche Prozesse nachahmen oder verbessern. Der Begriff verlor seine mittelalterliche Verbindung zu „ars“ und wurde technisch geprägt.

„Intelligence“ wird messbar

Parallel dazu entwickelte sich „intelligence“ durch die empiristische Philosophie von John Locke und David Hume zu einer beobachtbaren, messbaren Fähigkeit – eine Grundlage für moderne IQ-Tests und KI-Benchmarks.

Die Synthese: Erste Visionen künstlicher Intelligenz

Mechanische Vernunft bei Thomas Hobbes

Thomas Hobbes formulierte in seinem Leviathan (1651) die Idee, dass Denken ein mechanischer Prozess sei: „Rechnen ist nichts anderes als Addieren und Subtrahieren.“ Diese Sicht, dass Vernunft durch mechanische Operationen nachahmbar ist, wurde zur Kernthese der KI-Forschung.

Die Universalmaschine-Vision

Die Philosophen und Ingenieure der frühen Neuzeit entwickelten Visionen universeller Maschinen, die menschliche Fähigkeiten nachahmen. Leibniz’ Traum einer denkenden Maschine, Descartes’ mechanistische Anthropologie und die Erfolge der Automatenbauer verschmolzen zu einer neuen Idee: der Künstlichen Intelligenz als realisierbarem Projekt. Ich finde es bemerkenswert, wie diese Epoche die Begriffe „intelligentia“ und „artificialis“ in eine mechanische und philosophische Richtung lenkte. Wenn du heute mit einem Large Language Model interagierst, das kreative Texte generiert, greifst du auf eine Tradition zurück, die von Leonardos Skizzen über Vaucansons Musiker bis zu Leibniz’ Universalsprache reicht – ein Fundament, das unsere modernen Technologien prägt.

Kapitel 4: Aufklärung und industrielle Revolution

Die Mechanisierung des Denkens

Wie ich im letzten Kapitel gezeigt habe, verschmolzen in der Renaissance und frühen Neuzeit technische und philosophische Visionen zu ersten Konzepten künstlicher Intelligenz. Nun knüpfe ich an die Aufklärung und industrielle Revolution an, eine Zeit, in der der Glaube an die Vernunft und mechanische Innovationen die Idee der „Künstlichen Intelligenz“ in die Praxis umsetzten. In meinen Kursen frage ich oft, wer Ideen hat, wie Begriffe wie „Künstliche Intelligenz“ entstanden sind – ähnlich wie man fragt, wann das erste Telefon, der erste Anruf oder gar ein Anrufbeantworter auf Wachsrollenbasis erfunden wurde. Die meisten sind erstaunt, wie „alt“ diese Konzepte sind, genau wie die Wurzeln moderner Technologien. Ich möchte dir zeigen, wie die Enzyklopädisten, frühe Rechenmaschinen, materialistische Philosophen und industrielle Automaten die Begriffe „intelligentia“ und „artificialis“ prägten. Wenn du die Ursprünge dieser Ideen betrachtest, entdeckst du die Wurzeln moderner KI.

Die Enzyklopädisten: Systematisierung des Wissens

Denis Diderot und Jean le Rond d’Alembert starteten 1751 die Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, ein Projekt, das menschliches Wissen systematisch erfasste. Sie zerlegten Themen in Grundbausteine, ordneten sie logisch und verknüpften sie durch Querverweise – etwa von „Uhrmacherei“ zu „Mechanik“ oder „Handwerk“. Jeder Eintrag folgte einem Schema aus Definition, Erklärung und Beispielen. Dieses Prinzip der Wissensorganisation, beschrieben in Diderots Vorwort (1750), erinnert an moderne Wissensdatenbanken wie Wikipedia oder KI-Trainingsdaten. Aus meiner Sicht schufen die Enzyklopädisten eine Methode, die Wissen mechanisierbar machte – ein Grundstein für informationsbasierte KI.

Mechanische Rechner: Von Pascal zu Babbage

Die Pascaline und ihre Nachfolger

Blaise Pascal entwickelte 1642 die Pascaline, eine mechanische Additionsmaschine mit Zahnrädern, die Zehnerüberträge automatisiert, wie in seinen Pensées (posthum 1670) angedeutet. Sie half bei Steuerberechnungen, war aber anfällig für Verschleiß. Im 18. Jahrhundert verbesserten Giovanni Poleni (1709) und Antonius Braun (1727) diese Konzepte, indem sie Multiplikationen durch wiederholte Additionen ermöglichten, basierend auf Leibniz’ Rechenmaschine. Diese Entwicklungen, dokumentiert in zeitgenössischen Schriften, legten den Grundstein für komplexere Rechner.

Charles Babbage und Ada Lovelace

Charles Babbage (1791–1871) entwarf mit der Analytical Engine (1837) die erste programmierbare Rechenmaschine, beschrieben in On the Economy of Machinery (1832). Sie hatte eine Recheneinheit, Speicher und Lochkarten zur Programmierung – die Basis moderner Computer. Ada Lovelace (1815–1852) erkannte in ihren Notes (1843) zur Analytical Engine, dass die Maschine über Zahlen hinaus Symbole verarbeiten konnte, etwa für Musik. Sie schrieb das erste Programm (Bernoulli-Zahlen) und antizipierte generative KI, indem sie vorschlug, Melodien durch mathematische Regeln zu erzeugen. Wenn du Lovelaces Notizen liest, bemerkst du, wie sie die Idee kreativer Maschinen vorwegnahm.

Sprachliche Entwicklung: Präzision und Messbarkeit

„Artificial“ wird technisch

Im 18. Jahrhundert wurde „artificial“ ein technischer Begriff für maschinelle Produkte, wie in der industriellen Revolution üblich. Francis Bacons Einfluss (Novum Organum, 1620) wirkte fort, als „artificial“ von „ars“ zu maschineller Herstellung überging.

„Intelligence“ wird messbar

Die Aufklärung machte „intelligence“ zu einer messbaren Größe. John Locke (Essay Concerning Human Understanding, 1690) sah den Geist als „tabula rasa“, geformt durch Erfahrung, während David Hume (A Treatise of Human Nature, 1739) Kausalität auf Beobachtungen reduzierte. Diese empiristische Wende führte zu frühen Intelligenztests und KI-Benchmarks, die Intelligenz als Leistung definieren.

Materialismus: Denken als physischer Prozess

Julien Offray de La Mettrie (L’Homme Machine, 1748) und Paul Henri Thiry d’Holbach (Système de la Nature, 1770) argumentierten, dass Denken ein physischer Prozess sei, vergleichbar mit chemischen Reaktionen. La Mettrie sah Erinnerungen und Entscheidungen als mechanische Reaktionen, d’Holbach Gefühle als Ergebnis neuronaler Impulse. Diese Sicht, dass Geistprozesse mechanisierbar sind, legte den Grundstein für die Idee künstlicher Intelligenz.

Industrielle Automatisierung: Der Jacquard-Webstuhl

Joseph-Marie Jacquards Webstuhl (1804) nutzte Lochkarten, um komplexe Webmuster automatisch zu erstellen, wie in zeitgenössischen Berichten beschrieben. Dieses Prinzip programmierbarer Steuerung beeinflusste Babbages Analytical Engine und zeigt, wie industrielle Systeme „intelligente“ Aufgaben ausführten. Wenn du den Jacquard-Webstuhl betrachtest, erkennst du einen Vorläufer moderner algorithmischer Systeme.

Philosophische Reflexionen: Mensch und Maschine

La Mettrie und die mechanische Seele

La Mettrie (L’Homme Machine, 1748) behauptete, dass Menschen und Maschinen gleichermaßen auf Reize reagieren – ein Schmerzreiz beim Menschen entspricht dem Auslösen eines Uhrwerks. Seine These, dass Denken mechanisch sei, machte künstliche Intelligenz denkbar. Aus meiner Sicht wirft dies ethische Fragen auf: Wenn Denken mechanisierbar ist, wie unterscheiden wir menschliche von maschineller Intelligenz?

Thomas Hobbes: Mechanische Vernunft

Thomas Hobbes (Leviathan, 1651) sah Denken als mechanischen Prozess: „Rechnen ist nichts anderes als Addieren und Subtrahieren.“ Er beschrieb Erkennung, wie das Identifizieren eines Freundes, als logischen Vergleich – ein Prinzip, das moderne Mustererkennung in KI antizipiert.

Alan Turing: Die maschinelle Intelligenz

Alan Turing (1912–1954) brachte die Idee der KI in die Moderne. In On Computable Numbers (1936) beschrieb er die Turing-Maschine, die jede berechenbare Funktion ausführen konnte, und knüpfte an Leibniz’ Logik an. Sein Turing-Test (Computing Machinery and Intelligence, 1950) fragte, ob Maschinen menschliches Verhalten so nachahmen können, dass sie ununterscheidbar werden. Turings Arbeit prägt moderne KI-Debatten über „schwache“ und „starke“ KI.

Die Synthese: Die Geburt der modernen KI

Die Aufklärung und industrielle Revolution schufen die Grundlagen moderner KI. Die Enzyklopädisten systematierten Wissen, Pascal und Babbage entwickelten Rechner, Lovelace antizipierte generative Systeme, und materialistische Philosophen wie La Mettrie und d’Holbach machten Denken mechanisierbar. Industrielle Automaten wie Jacquards Webstuhl und philosophische Konzepte von Hobbes und Turing führten zu einer neuen Vision: Maschinen, die „intelligente“ Aufgaben ausführen. Ich finde es bemerkenswert, wie diese Epoche die Begriffe „intelligentia“ und „artificialis“ in die digitale Ära überführte. Wenn du heute mit einer KI interagierst, die Texte generiert oder Muster erkennt, greifst du auf eine Tradition zurück, die von Diderots Wissensnetzen über Babbages Maschinen bis zu Turings Logik reicht – ein Fundament, das unsere moderne KI prägt.

Kapitel 5: Das 19. Jahrhundert und der Übergang zur Moderne

Von der Logik zur Berechenbarkeit

Wie ich im letzten Kapitel gezeigt habe, führten die Aufklärung und industrielle Revolution die Begriffe „intelligentia“ und „artificialis“ in die Praxis, durch systematisiertes Wissen, programmierbare Maschinen und materialistische Philosophien. Nun knüpfe ich an das 19. Jahrhundert an, eine Epoche, in der philosophische Spekulationen zu präzisen logischen Systemen wurden und die formale Grundlage für „Artificial Intelligence“ gelegt wurde. In meinen Kursen frage ich oft, wer Ideen hat, wie Begriffe wie „Künstliche Intelligenz“ entstanden sind – ähnlich wie man fragt, wann das erste Telefon, der erste Anruf oder ein Anrufbeantworter auf Wachsrollenbasis erfunden wurde. Die meisten sind erstaunt, wie „alt“ diese Konzepte sind, genau wie die Wurzeln moderner Technologien. Ich möchte dir zeigen, wie George Boole, Charles Babbage, Ada Lovelace, Gottlob Frege, Hermann Hollerith und andere die Begriffe „intelligentia“ und „artificialis“ mathematisierten und den Weg für die moderne Informatik ebneten. Wenn du diese Zeit betrachtest, entdeckst du die Wurzeln unserer digitalen Ära.

Die Boole’sche Revolution: Denken wird mathematisch

George Boole (1815–1864) veröffentlichte 1854 An Investigation of the Laws of Thought und schuf die mathematische Logik. Seine Idee war radikal: Logisches Denken lässt sich durch mathematische Operationen ausdrücken. Während Gottfried Wilhelm Leibniz das Binärsystem (0 und 1) philosophisch skizzierte, verknüpfte Boole diese Zahlen mit logischen Operationen (UND, ODER, NICHT). Seine Boole’sche Algebra, beschrieben in The Laws of Thought, bildet die Grundlage digitaler Schaltkreise. Stell dir vor: Der Satz „Es regnet UND ich habe einen Schirm“ wird zu Regen ∧ Schirm = 1 (wahr), wenn beide Bedingungen erfüllt sind, sonst 0 (falsch). Komplexe Aussagen lassen sich durch Kombinationen dieser Operationen darstellen. Aus meiner Sicht legte Boole das Fundament für jeden modernen Prozessor, der Boole’sche Operationen ausführt. Wenn du einen Computer benutzt, nutzt du Boole’s Logik.

Mechanische Berechenbarkeit: Babbage und Lovelace

Charles Babbages Analytical Engine

Wie ich in Kapitel 4 erwähnte, entwarf Charles Babbage (1791–1871) die Analytical Engine (1837), die erste programmierbare Rechenmaschine. Im 19. Jahrhundert verfeinerte er, wie in On the Economy of Machinery (1832) angedeutet, seine Pläne: Die Maschine sollte 1000 Zahlen mit 40 Dezimalstellen speichern und Schleifen oder Bedingungen ausführen. Stell dir vor, die Maschine berechnet eine Quadratwurzel: Sie startet mit einem Schätzwert, verbessert ihn, prüft die Genauigkeit und wiederholt, bis das Ergebnis passt. Dieses Konzept der „Unterprogramme“ ist die Basis moderner Programmierung, etwa im Chain of Thought Prompting, das ich in meinem Blogartikel auf dialoglabor.solutions beschreibe.

Ada Lovelace und das Resonanzprinzip

Ada Lovelace (1815–1852) erkannte in ihren Notes (1843), dass die Analytical Engine Symbole wie Musik verarbeiten konnte. Sie schrieb das erste Programm (Bernoulli-Zahlen) und formulierte das Lovelace-Paradoxon: Maschinen tun nur, was wir ihnen vorgeben – ihre „Intelligenz“ ist ein Echo unserer Anweisungen. Dieses Prinzip, das ich „Resonating Echoes“ nenne, ist zentral für KI-Dialoge. Wie ich in meinem Artikel „Der Promptresonanz-Check“ auf dialoglabor.solutions erkläre, beeinflusst die Formulierung deiner Eingabe – Sprache, Satzbau, Grammatik – das Ergebnis. Wenn du mit einer KI interagierst, spiegelt sie deine Impulse wider, genau wie Lovelace es vorhersah.

Mathematische Logik wird systematisch

Augustus De Morgan: Relationslogik

Augustus De Morgan (1806–1871) entwickelte die De-Morgan’schen Gesetze, die logische Ausdrücke umformen. Zum Beispiel: Das Gegenteil von „A und B“ ist „nicht A oder nicht B“. Stell dir vor, du programmierst: „Aktion nur, wenn es NICHT kalt UND NICHT regnet“ wird zu „NICHT (kalt ODER regnet)“. Diese Regeln, beschrieben in Formal Logic (1847), machen Programme effizienter. Wenn du Code schreibst, nutzt du De Morgans Logik, um Bedingungen klar zu formulieren.

Gottlob Frege: Begriffsschrift

Gottlob Frege (1848–1925) schuf 1879 mit der Begriffsschrift die erste vollständige formale Logik. Er wollte die Mathematik auf logische Grundlagen stellen und entwickelte eine Symbolsprache, die Bedeutungen präzise darstellt. Seine Unterscheidung zwischen „Sinn“ und „Bedeutung“ beeinflusste Noam Chomskys Transformationsgrammatik, wie ich in meinem Blogartikel auf dialoglabor.solutions erkläre. Zum Beispiel: „Der Hund beißt den Mann“ und „Den Mann beißt der Hund“ haben die gleiche Tiefenstruktur (ein Beißereignis), aber unterschiedliche Oberflächenstrukturen. Freges System machte logisches Schließen mechanisierbar – ein Schlüssel für Sprachverarbeitung in KI.

Industrialisierung der Berechnung

Mechanische Rechenhilfen

Thomas de Colmar produzierte ab 1820 den Arithmometer, die erste kommerziell erfolgreiche Rechenmaschine, wie in zeitgenössischen Berichten dokumentiert. Sie machte mechanische Berechnung alltagsfähig und zeigte, dass Rechenmaschinen keine Kuriosität waren.

Hermann Hollerith: Lochkarten-Systeme

Hermann Hollerith (1860–1929) entwickelte für die US-Volkszählung 1890 ein Lochkarten-System, das Daten automatisch auswertete. Informationen wurden durch Löcher kodiert, Maschinen lasen sie mechanisch und führten Operationen wie Sortieren aus. Hollerits Firma wurde zu IBM, und sein System zeigte, dass Datenverarbeitung maschinell skalierbar war – ein Vorläufer moderner Datenbanken.

Sprachliche Entwicklung: Präzision durch Formalisierung

„Algorithmus“: Von al-Khwarizmi zur Maschine

Der Begriff „Algorithmus“ stammt von Muhammad ibn Musa al-Khwarizmi, dessen Werk Algorithmi de numero Indorum (ca. 825) systematische Rechenverfahren beschrieb. Im 19. Jahrhundert, mit Boole und Babbage, wurde „Algorithmus“ eine präzise Schritt-für-Schritt-Anweisung für Maschinen, wie in Babbages Schriften dokumentiert. Wenn du heute eine App nutzt, folgt sie Algorithmen, die auf al-Khwarizmis Idee basieren.

„Intelligence“: Messbar und problematisch

Francis Galton (1822–1911) begann in den 1880er-Jahren Intelligenzmessungen, wie in Hereditary Genius (1869) angedeutet, und testete Reaktionszeiten oder Gedächtnisspannen. Seine Tests erfassten Sinnesschärfe, nicht komplexes Denken, und seine Eugenik-Ideen waren problematisch. Dennoch machte er „Intelligence“ messbar, was zu IQ-Tests und KI-Benchmarks führte. Aus meiner Sicht ist Galtons Vermächtnis zwiespältig: Er begründete quantitative Intelligenzforschung, aber seine Reduktion von Intelligenz mahnt zur Vorsicht. Vielleicht hast du dich gefragt, wie Kreativität gemessen wird – etwa in PISA-Studien. Tatsächlich wird Malen nicht getestet, ein Hinweis, dass manche Qualitäten schwer quantifizierbar sind.

Philosophische Reflexionen: Geist und Maschine

Hermann von Helmholtz: Denken als physikalischer Prozess

Hermann von Helmholtz (1821–1894) untersuchte in Handbuch der physiologischen Optik (1867) die Physiologie der Wahrnehmung. Er maß Nervensignalgeschwindigkeiten (ca. 30 m/s) und entwickelte die Dreifarbentheorie, die zeigt, wie Augen Farben durch Rot-, Grün- und Blau-Rezeptoren verarbeiten – ein Prinzip in heutigen Bildschirmen. Versuch es selbst: Starre 30 Sekunden auf einen roten Punkt, dann auf eine weiße Wand – du siehst einen grünen Nachbildeffekt. Helmholtz zerlegte Wahrnehmung in messbare Prozesse, was die Idee nährte, dass Maschinen Sinneswahrnehmung nachbilden könnten.

Die mechanistische Weltanschauung

Naturwissenschaftler wie Helmholtz, Gustav Kirchhoff und Justus von Liebig sahen alles, einschließlich Denken, als mechanisch erklärbar. Diese Sicht, dokumentiert in Helmholtz’ Schriften, machte die Idee maschineller Intelligenz plausibel.

Alan Turing: Die Brücke zur Moderne

Alan Turing (1912–1954) knüpfte an die Logik von Boole und Frege an. In On Computable Numbers (1936) beschrieb er die Turing-Maschine, die jede berechenbare Funktion ausführen kann. Sein Turing-Test (Computing Machinery and Intelligence, 1950) fragte, ob Maschinen menschliches Verhalten nachahmen können. Turings Arbeit formalisierte „Intelligence“ als algorithmische Fähigkeit, ein Schritt von Galtons Messungen zur modernen KI.

McCulloch-Pitts: Neuronale Logik

Warren McCulloch und Walter Pitts (A Logical Calculus, 1943) modellierten neuronale Netze, inspiriert von Boole’scher Logik. Ihre binären Schaltkreise, die Nervenzellen nachahmten, waren Vorläufer moderner neuronaler Netze. Wenn du KI-Modelle wie GPT betrachtest, siehst du die Wurzeln in ihrer Arbeit.

Die Synthese: Formale Grundlagen der KI

Das 19. Jahrhundert und der Übergang zur Moderne schufen die formale Basis für „Artificial Intelligence“. Boole mathematisierte Denken, Babbage und Lovelace machten es programmierbar, Frege und De Morgan formalisierten Logik, Hollerith skalierte Datenverarbeitung, und Helmholtz zeigte, dass Wahrnehmung mechanisch ist. Turing und McCulloch-Pitts führten diese Ideen in die digitale Ära. Ich finde es bemerkenswert, wie diese Epoche „intelligentia“ und „artificialis“ präzisierte. Wenn du heute mit einer KI interagierst, die Muster erkennt oder Texte generiert, greifst du auf eine Tradition zurück, die von Boole’s Algebra über Freges Symbolsprache bis zu Turings Logik reicht – ein Fundament, das die moderne KI prägt.

Kapitel 6: Die moderne Ausdifferenzierung der KI-Terminologie

Als John McCarthy 1955 vorschlug, das entstehende Forschungsfeld „Artificial Intelligence" zu nennen, entstand mehr als nur ein neuer Begriff. In den vorherigen Kapiteln habe ich hergeleitet, wie weit die Vorstellungen von künstlicher Intelligenz historisch zurückreichen. Dabei wurde möglicherweise deutlich, wie stark Begriffe das Denken prägen können und wie bewusst die Sprachauswahl in der Wissenschaft manchmal eingesetzt wird.

Du kannst bei Melanie Mitchell in ihrer Einführung "Artificial Intelligence: A Guide for Thinking Humans" nachlesen, wie McCarthy den Begriff bewusst wählte. McCarthy gab später zu, dass eigentlich niemand den Namen mochte – schließlich war das Ziel echte, nicht künstliche Intelligenz –, aber "ich musste es irgendwie nennen, also nannte ich es 'Artificial Intelligence'". Mitchell beschreibt auch, wie McCarthy sich von der damals dominierenden "Kybernetik" abgrenzen wollte. Ähnliche Details findest du auch in anderen Standardwerken zur KI-Geschichte wie Karen Haos "Empire of AI".

Begriffe wie "Kybernetik" oder "Automatentheorie" waren bereits mit spezifischen Methoden und Traditionen verknüpft. "Artificial Intelligence" dagegen war noch unbeschrieben und ließ der neuen Disziplin Raum, sich zu entwickeln.

Besonders aufschlussreich finde ich die Rolle der Rockefeller Foundation in diesem Prozess. McCarthy und seine Kollegen arbeiteten gezielt darauf hin, eine Fördersumme für eine Sommerkonferenz zu erhalten. Der frisch gewählte Begriff „Artificial Intelligence" sollte Interesse wecken – nicht nur bei anderen Forschenden, sondern auch bei potenziellen Geldgebern.

Stell dir vor, du solltest etwas kaufen, was „künstliche Zufallsmaschine" oder „künstliches Zufallsprogramm" heißt. „Künstliche Intelligenz" lässt sich dagegen sehr viel leichter verkaufen – wie wir auch heute wieder sehen. Das war schon 1955 gutes Marketing.

Dass dieser Plan tatsächlich aufging und die Rockefeller Foundation das Projekt unterstützte, zeigt für mich, wie eng die Entwicklung von Ideen und institutioneller Unterstützung miteinander verwoben sind.

„Artificial Intelligence" wurde zu jener Klammer, die über Jahrzehnte hinweg unterschiedlichste Ansätze miteinander verband.

Weak AI und Strong AI: Searles entscheidende Unterscheidung

John Searle führte 1980 in seinem Aufsatz "Minds, Brains, and Programs" eine Unterscheidung ein, die bis heute die KI-Diskussion prägt. Seine Begriffe "weak AI" und "strong AI" gehen auf die philosophischen Debatten der 1970er Jahre zurück.

Weak AI (Schwache KI) Searle definierte weak AI als Systeme, die intelligente Aufgaben ausführen können, ohne wirklich zu verstehen oder bewusst zu sein. Der Begriff "weak" stammt vom lateinischen "debilis" (schwach, kraftlos), impliziert hier aber keine Wertung der Leistungsfähigkeit, sondern bezieht sich auf die philosophischen Ansprüche des Systems.

Moderne Beispiele für weak AI sind Schachprogramme, Spracherkennungssysteme oder Bildklassifikatoren. Sie lösen spezifische Probleme hocheffizient, ohne ein allgemeines Verständnis zu entwickeln.

Strong AI (Starke KI) Strong AI beschreibt Systeme, die nicht nur intelligente Aufgaben ausführen, sondern tatsächlich verstehen, denken und möglicherweise bewusst sind. Das Adjektiv "strong" leitet sich vom lateinischen "fortis" (stark, fest) ab und bezieht sich auf den philosophischen Anspruch vollständiger Intelligenz.

Diese Unterscheidung erwies sich als so präzise, dass sie auch heute noch verwendet wird, obwohl Searle selbst argumentierte, dass true strong AI unmöglich sei.

Artificial General Intelligence: Die Rückkehr zur ursprünglichen Vision

In den 1990er Jahren entstand der Begriff „Artificial General Intelligence" (AGI), um erneut an McCarthys ursprüngliche Vision einer umfassenden künstlichen Intelligenz anzuknüpfen. Das Wort „general" geht auf das lateinische „generalis" – „zur Gattung gehörig, allgemein" – zurück und beschreibt in der KI jene Systeme, die nicht nur auf bestimmte Domänen spezialisiert sind, sondern verschiedenste intellektuelle Aufgaben bewältigen können, ähnlich wie Menschen.

Gerade in dieser Zeit begannen Forscher wie Ben Goertzel und Marcus Hutter, die Abgrenzung zur immer spezifischeren, „narrow" gewordenen KI-Forschung pointiert herauszuarbeiten. Der Begriff AGI markierte eine andere Richtung: eine Form von Intelligenz, die nicht in engen Anwendungsgrenzen denkt, sondern Generalisierung und flexible Problemlösung anstrebt.

Die 1990er Jahre zeigten eine bemerkenswerte Vielfalt an Positionen: Während Goertzel und Hutter systematisch am AGI-Konzept arbeiteten, warnten andere Forscher wie Hubert Dreyfus und Joseph Weizenbaum vor Überschätzung und der Verwechslung von Simulation mit echter Intelligenz.

In dieser Vielstimmigkeit liegt bis heute die Stärke des AGI-Begriffs. Er signalisiert nicht nur die Hoffnung auf eine umfassende, menschenähnliche Intelligenz, sondern zwingt auch zur immer neuen, selbstkritischen Reflexion darüber, was „allgemeine" Intelligenz im Kern eigentlich ausmacht – und wo die Grenzen des Machbaren liegen. Auf der Blogseite im Dialoglabor weise ich auf einige Bücher hin, die in diesem Zusammenhang interessant sein können für dich zu lesen. Einen umfassenden und tendenziell kritischen Blick wirft Harari mit "Nexus" auf dieses Thema, ebenso die beiden Autoren von "AI Snake Oil". Eine eher optimistischere Sicht gibt Suleyman mit "The Next Wave".

Superintelligence: Über die menschliche Intelligenz hinaus

Der schwedische Philosoph Nick Bostrom popularisierte 2014 den Begriff "Superintelligence" in seinem gleichnamigen Buch. Bostrom, der von 2005 bis 2024 das Future of Humanity Institute an der Oxford University leitete, hat einen interdisziplinären Hintergrund in theoretischer Physik, Computerneurowissenschaften und Philosophie. Mit "Superintelligence" ging er über die bisherigen Kategorien von weak und strong AI hinaus und beschrieb eine Form der Intelligenz, die menschliche Fähigkeiten in allen relevanten Bereichen übertrifft.

Super- Das Präfix "super-" stammt vom lateinischen "super" (über, oberhalb) und beschreibt Intelligenz, die menschliche Fähigkeiten in allen relevanten Bereichen übertrifft. Bostrom unterscheidet drei Formen:

  • Speed superintelligence: Denkt wie Menschen, aber schneller
  • Collective superintelligence: Kombination vieler Intelligenzen
  • Quality superintelligence: Qualitativ überlegene Denkfähigkeiten

Machine Learning und Deep Learning: Neue methodische Begriffe

Parallel zur philosophischen Kategorisierung entwickelte sich eine methodische Terminologie.

Machine Learning Arthur Samuel prägte 1959 den Begriff "Machine Learning". Das Wort "learning" geht auf das altenglische "leornian" (lernen, studieren) zurück, das wiederum germanische Wurzeln hat. In der KI bezeichnet es Systeme, die ihre Leistung durch Erfahrung verbessern, ohne explizit programmiert zu werden.

Deep Learning Der Begriff "Deep Learning" entstand in den 2000er Jahren und bezieht sich auf neuronale Netzwerke mit vielen Schichten. "Deep" kommt vom altenglischen "deop" (tief, gründlich) und beschreibt die Architektur dieser Systeme.

Geoffrey Hinton, einer der Pioniere, wählte diesen Begriff bewusst, um die Komplexität und Tiefe der Informationsverarbeitung zu betonen.

Natural Language Processing: Eine terminologische Doppeldeutigkeit

Wer sich mit Sprache beschäftigt, begegnet früher oder später der Abkürzung „NLP" – und stolpert dabei oft über eine doppelte Bedeutung. Meist stellt sich dann die Frage, ob von Natural Language Processing im technischen Sinn die Rede ist – also von Verfahren, die es Computern ermöglichen, natürliche Sprache zu analysieren und zu verarbeiten – oder ob es um das Neuro-Linguistische Programmieren geht, ein Modell, das ursprünglich mit Blick auf menschliche Kommunikation und Veränderung entwickelt wurde.

In beiden Bereichen, so scheint es mir, spielt Sprache eine zentrale Rolle – gleichwohl mit unterschiedlichen Zielsetzungen und Methoden. Während das Natural Language Processing darauf abzielt, Sprache für Maschinen bearbeitbar zu machen, etwa für maschinelle Übersetzungen, Texterkennung oder Sprachdialogsysteme, steht beim Neuro-Linguistischen Programmieren vor allem die Frage im Raum, wie sich Wahrnehmung und Verhalten durch bestimmte Sprachmuster beeinflussen lassen könnten. Im NLP-Coaching etwa werden konkrete Methoden wie „Reframing" oder „Ankern" genutzt, um Denk- und Handlungsspielräume beim Menschen zu erweitern; im technischen NLP hingegen sind es Analysetechniken und KI-Modelle, die versuchen, Bedeutungsstrukturen oder Muster maschinell zu erkennen.

Meine persönliche Begegnung mit beiden NLP-Welten

Mich persönlich hat diese Doppelspurigkeit von Anfang an fasziniert. Mein erster Kontakt mit NLP war eine Ausbildung nach Bandler, also sehr stark aus der Perspektive menschlicher Kommunikation und Veränderung. Später kam das Interesse für Natural Language Processing hinzu, das sich mit den Möglichkeiten und Grenzen der maschinellen Sprachverarbeitung beschäftigt. Besonders eindrücklich war für mich der Moment, als ich erstmals einen Text in ein großes Sprachmodell eingab und dessen Antwort analysierte – in diesem Augenblick wurde für mich greifbar, wie sehr sich beide Welten berühren, aber auch unterscheiden.

Vielleicht, so meine Erfahrung, lohnt es sich, diese beiden Blickrichtungen nicht gegeneinander auszuspielen, sondern sie als mögliche Ergänzungen zu betrachten: Die Methoden und Erkenntnisse aus dem einen Feld bieten Optionen und Anregungen, das jeweils andere besser zu verstehen. Ob und inwieweit sich diese Verbindung für die eigene Praxis lohnt, mag jede:r selbst prüfen. Für mich als Trainer und Coach jedenfalls hat sich darin eine Perspektive eröffnet, in der Kommunikation als Schnittstelle zwischen Mensch und Maschine ebenso spannend bleibt wie im zwischenmenschlichen Miteinander.

Die terminologische Zukunft

Die KI-Terminologie entwickelt sich weiterhin rapid. Neue Begriffe wie "Foundation Models", "Large Language Models" oder "Multimodal AI" entstehen fast monatlich. Jeder neue Begriff trägt spezifische konzeptionelle Bedeutungen und zeigt, wie sich das Feld ausdifferenziert.

Diese terminologische Vielfalt spiegelt die Komplexität der modernen KI-Forschung wider. Von McCarthys einfachem "Artificial Intelligence" ist ein ganzes Begriffsuniversum entstanden, das verschiedene Aspekte, Methoden und Philosophien der künstlichen Intelligenz präzise benennt.

Die etymologischen Wurzeln bleiben dabei bestehen: Alle modernen KI-Begriffe gehen letztendlich auf die lateinischen Konzepte von "artificialis" und "intelligentia" zurück – jene präzisen Begriffe, die römische Gelehrte vor über 2000 Jahren entwickelten.