Einstieg: Die Frage nach europäischer KI
In vielen meiner Workshops taucht früher oder später eine ganz bestimmte Frage auf. Ob vorsichtig formuliert oder ganz direkt ausgesprochen – sie kommt immer wieder: "Gibt’s denn eigentlich auch mal was aus Europa?" Gemeint ist natürlich KI. Sprachmodelle, Assistenzsysteme, Anwendungen, die nicht aus Kalifornien oder von irgendeinem US-Start-up stammen. Sondern von hier. Und mit einem anderen Anspruch: nachvollziehbar, datenschutzkonform, offen.
Bis vor Kurzem musste ich da noch ein wenig ausweichen. Ich konnte Mistral nennen – das französische Open-Source-Team, das mit einem schnellen, effizienten Modell von sich reden macht. Oder Aleph Alpha aus Heidelberg. Aber oft blieb ein leises Gefühl zurück, dass Europa zwar mitreden möchte, aber selten wirklich mitgestaltet.
Das ändert sich gerade. Und zwar nicht irgendwo im stillen Kämmerlein, sondern ganz offen, nachvollziehbar und gut dokumentiert. Was an der ETH Zürich, gemeinsam mit der EPFL Lausanne und dem Supercomputing Centre CSCS entsteht, ist ein Sprachmodell, das sich nicht verstecken muss. Es ist leistungsfähig, transparent, datenschutzkonform – und offen für die Öffentlichkeit. Genau darum geht es in diesem Artikel.
Ich möchte dir zeigen, was da gerade in der Schweiz passiert. Und ich will mit dir überlegen, welche Bedeutung das für uns hier in Deutschland hat – für Unternehmen, Führungskräfte, Entscheiderinnen und alle, die sich ernsthaft mit KI auseinandersetzen.
Was passiert gerade in Zürich?
Wenn du dir die Fakten anschaust, wird deutlich: Hier wird nicht einfach ein weiteres Sprachmodell gebaut. Die ETH Zürich hat gemeinsam mit der EPFL und dem Schweizer National Supercomputing Centre (CSCS) ein sogenanntes Large Language Model (LLM) trainiert – ein großes Sprachmodell, das auf der Grundlage riesiger Textmengen lernt, Texte zu verstehen und zu erzeugen. Wenn du dich mit dem Begriff LLM oder mit den technischen Hintergründen näher beschäftigen möchtest, findest du auf meiner Blog-Seite eine ganze Reihe von Artikeln und Beispielen dazu.
Zwei Varianten sind entstanden: mit 8 Milliarden und mit 70 Milliarden Parametern. Zur Einordnung: Während einfache Sprachmodelle nur wenige Millionen dieser Parameter verwenden, bewegen wir uns hier auf einem Niveau, das mit den großen internationalen Modellen wie LLaMA oder Gemini vergleichbar ist. Diese enorme Zahl an Parametern erlaubt es dem Modell, komplexe Sprachmuster zu erkennen, Zusammenhänge herzustellen und in verschiedenen Sprachen präzise zu arbeiten. Du kannst dir diese Parameter wie kleine Stellschrauben vorstellen, mit denen das Modell aus dem Gelernten ableitet, welches Wort – oder welcher nächste Sprachbaustein – wahrscheinlich folgen wird.
Das allein ist technisch beachtlich. Aber was das Projekt besonders macht, ist die Art und Weise, wie es gedacht und umgesetzt wurde:
- Das Training fand auf dem CO₂-neutral betriebenen "Alps"-Supercomputer statt – über 10.000 Grafikprozessoren (GPUs) waren im Einsatz.
- Die Trainingsdaten umfassen über 15 Billionen sogenannte Token – das sind kleinste Texteinheiten, die das Modell verarbeitet, ähnlich wie Silben oder Wortbestandteile.
- Die Veröffentlichung erfolgt vollständig offen: Code, Gewichte (also die gelernten Stellschrauben), Trainingsdaten und Dokumentation – alles unter der sehr offenen Apache-2.0-Lizenz. Diese Lizenz erlaubt es dir, die Inhalte frei zu nutzen, zu verändern und weiterzugeben – auch kommerziell. Wichtig ist dabei nur, dass du die ursprünglichen Urheber nennst und deutlich machst, wenn du etwas verändert hast.
- Die Daten wurden so ausgewählt und vorbereitet, dass sie den europäischen Datenschutz- und Urheberrechtsvorgaben entsprechen – inklusive der Achtung von Webseiten, die das maschinelle Auslesen ausdrücklich untersagen.
- Und: Das Modell ist extrem mehrsprachig. Trainiert auf über 1.500 Sprachen, spricht es mehr als 1.000 davon fließend – darunter auch viele kleine oder bedrohte Sprachen.
Für mich ist das mehr als eine technische Entwicklung. Bei Sonaris und im Dialoglabor sprechen wir häufig darüber, welche Ergänzungen solche Projekte zu bestehenden Plattformen wie JetGBT, Gemini, Perplexity und anderen bieten können. Es könnte sich für dich lohnen, dich einmal mit Lukas oder Lorenz auszutauschen, wenn du herausfinden möchtest, welche plattformübergreifenden Möglichkeiten der KI-Arbeit für dich in Frage kommen.
Das Projekt zeigt, dass eine europäische Herangehensweise an KI möglich ist – eine, die Transparenz, Verantwortung und Zusammenarbeit ernst nimmt. Und die in ihrer Umsetzung so nachvollziehbar ist, dass auch du als Anwenderin oder Anwender Vertrauen aufbauen kannst – ganz gleich, ob du KI einführst, darüber sprichst oder sie einfach erst einmal verstehen möchtest.
Geopolitischer Kontext: KI als Standortfrage
Wenn du auf die aktuelle Verteilung von KI-Kompetenz und -Infrastruktur schaust, fällt schnell auf: Die großen Modelle stammen bisher fast ausschließlich aus den USA oder – in kleinerem Umfang – aus China. Damit gehen Abhängigkeiten einher, die nicht nur wirtschaftlicher, sondern auch politischer Natur sind.
Das Projekt aus Zürich setzt hier ein klares Zeichen. Es geht nicht nur um Technologie, sondern auch um Gestaltungsspielraum. Wenn ein Land – oder ein ganzer Kontinent – eigene Modelle entwickelt, trainiert und offen verfügbar macht, dann bedeutet das mehr als nur einen zusätzlichen Wettbewerber. Es bedeutet: Wir können eigene Standards setzen, eigene Prioritäten verfolgen und die Entwicklung von KI aktiv mitgestalten – auf Grundlage unserer Werte.
Dazu gehört auch die Idee der öffentlichen digitalen Infrastruktur. Der CO₂-neutral betriebene Supercomputer, die langfristige Finanzierung, die Einhaltung europäischer Gesetzgebung – all das signalisiert: Hier wird nicht kurzfristig gedacht, sondern strategisch.
Für dich als Führungskraft oder Entscheiderin heißt das nicht, dass du sofort umsteigen musst – aber es lohnt sich, bereits jetzt genauer hinzuschauen. Bisher setzen viele Unternehmen auf große, leistungsfähige Modelle aus den USA, weil sie gut verfügbar, gut dokumentiert und in vielen Bereichen erprobt sind. Gleichzeitig sind diese Modelle oft schwer durchschaubar, was Herkunft der Trainingsdaten, Entscheidungslogik oder Weiterverwendung von Eingaben betrifft.
Wir im Dialoglabor und bei Sonaris beschäftigen uns schon eine ganze Weile mit universellen, datenschutzsicheren Plattformen und stellen dir demnächst auch einige dieser Lösungen hier vor. Wenn du also gerade über Alternativen nachdenkst oder dir ein Bild machen willst, welche europäischen Angebote in Zukunft tatsächlich arbeitsfähig sein könnten, lohnt es sich, dranzubleiben.
Mit Projekten wie dem in Zürich entsteht eine neue Möglichkeit – nicht als Konkurrenz zu bestehenden Modellen wie ChatGBT, Gemini oder Perplexity, sondern als ergänzender Baustein in einem wachsenden europäischen Ökosystem von KI-Lösungen: ein Modell, das nachvollziehbar, europarechtskonform und offen ist – ohne dabei leistungsmäßig den Anschluss zu verlieren. Vielleicht ist das noch nicht in jedem Fall die erste Wahl. Aber es ist eine realistische Option, die du in deine Überlegungen mit einbeziehen kannst. Gerade wenn du langfristig denkst, unabhängig bleiben möchtest oder im öffentlichen Bereich arbeitest, könnten sich hier ganz neue Perspektiven eröffnen.
Lizenz & reale Verfügbarkeit: Wann kannst du loslegen?
Neben der Lizenzfrage ist es für dich entscheidend zu wissen: Wann und in welcher Form wird das Modell tatsächlich nutzbar?
Verfügbarkeit:
Laut offiziellen Ankündigungen der beteiligten Institutionen (ETH Zürich, EPFL und CSCS) wird das Sprachmodell voraussichtlich Ende Sommer 2025 veröffentlicht. Damit kannst du im Zeitraum September oder Oktober 2025damit rechnen, das Modell samt Code, Dokumentation und Gewichten öffentlich herunterladen zu können.
Wer darf es nutzen?
Die Freigabe erfolgt unter der Apache-2.0-Lizenz, was bedeutet: Du darfst das Modell kostenfrei nutzen, verändern und weiterentwickeln – auch in kommerziellen Anwendungen. Du musst lediglich die ursprünglichen Urheber nennen und eventuelle Änderungen kennzeichnen. Damit bekommst du ein Höchstmaß an Freiheit bei gleichzeitig klaren Regeln für Transparenz und Fairness.
Was bedeutet das für dich konkret?
- Technische Vorbereitung: Du kannst bereits heute interne Testumgebungen skizzieren und überlegen, wie ein solches Modell für dich relevant sein könnte – sei es im Rahmen von Kundenkommunikation, Wissensmanagement oder Prozessautomatisierung. Vielleicht kannst du das gar nicht allein beurteilen – und genau deshalb lohnt es sich, im Dialoglabor oder bei Sonaris mit Oliver, Lukas oder Lorenz ins Gespräch zu kommen. Sie zeigen dir, welche plattformübergreifenden Möglichkeiten in deinem Fall in Frage kommen.
- Rechtssicherheit: Gerade wenn du im öffentlichen Bereich oder mit sensiblen Daten arbeitest, gibt dir die Lizenz eine stabile rechtliche Grundlage.
- Plattform-Kompatibilität: Durch die offene Struktur lässt sich das Modell auf unterschiedlichen Infrastrukturen betreiben – lokal, in Rechenzentren oder auf spezialisierten Plattformen.
Im Dialoglabor und bei Sonaris sprechen wir häufig darüber, wie sich neue Sprachmodelle wie das aus Zürich sinnvoll in die bereits etablierten KI-Landschaften integrieren lassen. Es geht dabei nicht darum, bestehende Systeme wie ChatGPT, Gemini oder Perplexity zu ersetzen, sondern gezielt zu ergänzen – insbesondere dort, wo europäische Werte, Datenschutz und Nachvollziehbarkeit im Vordergrund stehen. Für viele Unternehmen, die auf langfristige Unabhängigkeit setzen oder in besonders regulierten Bereichen tätig sind, eröffnen sich hier echte Alternativen.
Und ja, vielleicht kannst du nicht alles allein überblicken – genau deshalb ist es so hilfreich, mit Oliver ins Gespräch zu kommen, wenn du wissen willst, welche plattformübergreifenden Lösungen für dich in Frage kommen. Unsere Beiträge im Dialoglabor liefern dir regelmäßig praxisnahe Einblicke, und bei Sonaris sind es vor allem Lukas und Lorenz, die sich tief in die technischen und architektonischen Fragen solcher Systeme hineindenken. Gemeinsam behalten wir für dich den Überblick – und helfen dir dabei, eine gut informierte Entscheidung zu treffen.
Europäischer Vergleich: Zwischen Forschung, Industrie und Spezialanwendungen
Auch wenn der Fokus oft auf die großen US-Modelle gerichtet ist – in Europa passiert einiges im Bereich KI. Allerdings zeigt sich eine besondere Ausrichtung: Viele europäische Entwicklungen sind sehr fachspezifisch. Das liegt unter anderem daran, dass politische Rahmenbedingungen und Förderstrukturen hierzulande stärker auf industrielle Anwendungen, Forschungseinrichtungen und sicherheitskritische Bereiche zugeschnitten sind – weniger auf breite Consumer-Plattformen.
Ein Beispiel ist Aleph Alpha aus Heidelberg. Dort wird an sogenannten erklärbaren KI-Systemen gearbeitet – also Modellen, deren innere Entscheidungsprozesse für Menschen nachvollziehbar sind. Das ist vor allem in sicherheitskritischen und öffentlichen Bereichen relevant.
In Deutschland läuft außerdem das Projekt OpenGPT-X, das im Rahmen der Gaia-X-Initiative gefördert wird. Ziel ist es, ein leistungsfähiges europäisches Sprachmodell zu entwickeln, das sich insbesondere für industrielle Anwendungen eignet. Beteiligt sind unter anderem das DFKI, Fraunhofer-Institute sowie Unternehmen wie ZF und Bosch.
Ein weiteres Beispiel ist BLOOM, ein offen lizenziertes, kollaborativ entwickeltes Sprachmodell, das aus der französischen Initiative „BigScience“ hervorgegangen ist. Auch hier spielt europäische Forschungsinfrastruktur eine zentrale Rolle.
Du siehst: Es tut sich was. Und es wird ernsthaft daran gearbeitet, europäische KI nicht nur auf politischer Ebene, sondern auch in Form konkreter Modelle nutzbar zu machen. Oft geschieht das allerdings eher im Hintergrund – in spezialisierten Kontexten, mit Fokus auf bestimmte Branchen. Dass Europa diesen Weg geht, hat auch mit der Ausrichtung seiner Innovationspolitik zu tun: Datenschutz, Nachvollziehbarkeit und Branchennähe spielen eine größere Rolle als öffentliche Sichtbarkeit oder Geschwindigkeit.
Wenn du in einem technischen, produzierenden oder forschungsnahen Umfeld unterwegs bist, kann es sich lohnen, gezielt nach solchen europäischen Lösungen Ausschau zu halten. Sie sind vielleicht weniger sichtbar als GPT oder Gemini – aber dafür in manchen Bereichen sehr viel näher an der Praxis.
Use Cases: Was du konkret davon hast
Was bedeuten diese Entwicklungen konkret für deinen Arbeitsalltag? Vielleicht fragst du dich, wie du ein solches Modell wie das aus Zürich oder andere europäische Lösungen in deinem beruflichen Umfeld einsetzen könntest. Hier ein paar Szenarien, über die wir bei Sonaris und im Dialoglabor regelmäßig sprechen – und bei denen ein offenes, datenschutzkonformes Sprachmodell aus Europa echten Mehrwert bringen kann:
- Mitarbeiterkommunikation und HR: Automatisierte Assistenten, die bei der Erstellung oder Prüfung von internen Mitteilungen helfen – ohne dass Daten dein Unternehmen verlassen müssen.
- Vertrieb und Kundenkommunikation: Erstellung von E-Mails, Textbausteinen oder Präsentationen, die individuell angepasst, aber durch ein zentrales Modell unterstützt werden.
- Qualitätsmanagement und Dokumentation: Unterstützung bei der Erstellung von technischen Dokumentationen, Prüfprotokollen oder Anleitungen.
- Bildung und Schulung: Interaktive Lernassistenten für interne Weiterbildungen – etwa im Umgang mit Software, Sicherheitsvorgaben oder Kundenprozessen.
- Forschung und Entwicklung: Texterstellung und Datenaufbereitung in F&E-Abteilungen – besonders dann, wenn du verschiedene Sprachen bedienen musst oder mit sensiblen Inhalten arbeitest.
Was all diese Beispiele gemeinsam haben: Sie profitieren davon, wenn du Kontrolle über das Modell, die Daten und die Infrastruktur behältst. Und genau das ist bei einem offenen Modell, das auf europäische Regeln und Anforderungen hin entwickelt wurde, deutlich leichter umzusetzen.
In vielen Unternehmen beobachten wir ein wachsendes Interesse an eigenen KI-Lösungen – häufig aber verbunden mit Unsicherheit über die Umsetzung. Das Modell aus Zürich kann hier eine gute Gelegenheit sein, sich diesem Thema unter klaren rechtlichen Rahmenbedingungen und mit nachvollziehbarer Technik – etwa durch transparente Trainingsdaten oder offen dokumentierte Modellarchitekturen – zu nähern. Es ergänzt bestehende Lösungen wie ChatGPT, Gemini oder Claude um eine Perspektive, die besonders auf europäische Standards Rücksicht nimmt. Und es erweitert die Möglichkeiten für Teams, bei denen der Wunsch nach Automatisierung von Routineprozessen nicht im Widerspruch zu Datensouveränität stehen darf.
Im Dialoglabor und bei Sonaris sprechen wir oft genau über diese Punkte – auch weil wir sehen, wie sich KI-Modelle von reinen Assistenten hin zu echten Kollegen entwickeln. In der Arbeitsumgebung sind sie zunehmend gleichberechtigte Partner. Für viele Teams ist das ein Paradigmenwechsel – und zugleich eine Chance, Prozesse neu zu denken.
Was bedeutet das für deutsche Unternehmen konkret?
Vielleicht hast du dir nach dem letzten Abschnitt die Frage gestellt: Was bedeutet all das jetzt eigentlich für deinen konkreten Arbeitsalltag? Wenn du heute als Unternehmerin oder Führungskraft mit KI arbeitest, hast du wahrscheinlich schon erste Erfahrungen mit Plattformen wie ChatGPT, Gemini oder Perplexity gesammelt. Diese Tools bieten starke Funktionen – etwa beim schnellen Verfassen von Textentwürfen, dem Extrahieren von Informationen aus Dokumenten oder dem Strukturieren von Gesprächsinhalten – und sind in vielen Unternehmen längst in der Erprobung oder sogar im Einsatz.
Das Modell aus Zürich ist kein Ersatz für diese Systeme – aber eine hochinteressante Ergänzung. Vor allem, wenn du Wert legst auf Datenschutz, nachvollziehbare Technik und eine klare rechtliche Einordnung. In einer Zeit, in der viele Unternehmen beginnen, eigene KI-Anwendungen zu entwickeln oder bestehende Workflows mit KI zu unterstützen, kann ein europäisches Modell zusätzliche Spielräume eröffnen – insbesondere in Hinblick auf Compliance-Fragen, offene Lizenzen und langfristige Abhängigkeiten.
Es geht hier nicht darum, dich auf ein einzelnes System festzulegen. Im Gegenteil: Wer in Zukunft souverän mit KI arbeiten will, wird Plattformunabhängigkeit und Interoperabilität zu schätzen wissen. Deshalb lohnt sich ein genauer Blick – ähnlich wie beim Vergleich eines Schweizer Taschenmessers mit einem spezialisierten Werkzeug. Neben den großen internationalen Modellen könnten auch europäische Entwicklungen wie jene aus Zürich oder das deutsche KI-Modell Aleph Alpha künftig interessante Bausteine sein.
Bei Sonaris und im Dialoglabor sprechen wir häufig genau darüber – etwa darüber, wann sich spezialisierte Modelle lohnen, wie sich bestehende Systeme kombinieren lassen oder wo der Einsatz eines allgemeinen Tools genügt. Wir sehen, dass die aktuelle Diskussion längst nicht mehr nur um einzelne Programme kreist. Es geht um die Frage: Wie arbeiten Menschen und KI künftig sinnvoll zusammen? Welche Modelle passen zu deinem Arbeitsfeld – sei es Verwaltung, Vertrieb, Technik oder Kommunikation? Und wie lässt sich der Übergang von KI-Tools zu KI-Kollegen gestalten?
Wenn du solche Überlegungen spannend findest, dann bleib gern mit uns im Austausch. Wir bleiben an dem Thema dran und veröffentlichen regelmäßig neue Impulse.