Die physische Dimension moderner KI erfordert erhebliche Ressourcen wie Kupfer und Lithium, die oft aus Ländern wie Chile stammen, wo deren Abbau ökologische und soziale Probleme verursacht. Der Wasserverbrauch für Kühlung und Energieerzeugung ist enorm, was Fragen zur Nachhaltigkeit und zur Verantwortung der digitalen Souveränität aufwirft. Die ungleiche Verteilung der Kosten und Nutzen der KI-Technologie zwischen dem Globalen Norden und Süden wird kritisch betrachtet, während die Notwendigkeit für Transparenz und verantwortungsvolle Ressourcennutzung betont wird.

Die materielle Rückseite künstlicher Intelligenz

Kupfer, Lithium, und Wasser

Bevor ich mir mit Dir die globalen Ressourcenströmen für KI zuwende, lohnt sich für uns möglicherwiese ein Blick auf die Grundlagen hierzulande: In Deutschland ist die Versorgungssicherheit bei Strom beeindruckend hoch: Im Jahr 2023 lag die durchschnittliche Unterbrechungsdauer pro Haushalt bei nur etwa 13 Minuten. Die Bundesnetzagentur bewertet das Risiko eines flächendeckenden, langanhaltenden Blackouts als äußerst gering, da das Stromnetz technisch redundant aufgebaut ist und Ausfälle einzelner Komponenten in der Regel abgefangen werden. Größere Stromausfälle der Vergangenheit waren lokal begrenzt und meist durch extreme Wetterereignisse verursacht. Kannst Du Dich daran erinnern, wann Du das letzte Mal – und unter welchen Bedingungen – selbst einen Stromausfall erlebt hast?

Auch die Trinkwasserversorgung gilt hierzulande als äußerst zuverlässig, großflächige oder langfristige Ausfälle sind die Ausnahme. Einschränkungen treten in der Regel nur lokal auf – vielleicht erinnerst Du Dich an Meldungen über kurzfristige Abkochgebote – und dauern meist nur wenige Tage. Statistisch betrachtet ist es äußerst unwahrscheinlich, dass Du persönlich einmal betroffen bist: oft liegt die Quote bei weniger als 1 von 10 000 Menschen pro Jahr. Wann musstest Du – und unter welchen Bedingungen – zuletzt Dein Trinkwasser abkochen?

Mit diesem Artikel komme ich zu dem Teil der KI, der für die Zukunft schwere, substanzielle Entscheidungen von uns allen erwartet. Wer macht sich schon Gedanken darüber, welche Bedingungen erfüllt sein müssen, damit wir sauberes Trinkwasser aus dem Wasserhahn haben? Wer denkt darüber nach, wie ein Stromnetz aufgebaut sein muss und welche Ressourcen es braucht, damit zuverlässig der Strom aus der Steckdose kommt? Diese Stabilität kritischer Infrastrukturen ist die stille Grundlage, auf der moderne Hochtechnologien ruhen.

Damit Hochleistungs-KI wie GPT‑5 oder künftige Modelle funktionieren kann, besteht ein direkter Zusammenhang zwischen ihrer Leistungsfähigkeit und der Verfügbarkeit weltweiter Ressourcen. Ein stabiles Stromnetz ist dabei nur ein Teil der Voraussetzung. Die physische Grundlage dieser Systeme ist global verteilt und häufig in Regionen verankert, die in großem Umfang Rohstoffe exportieren.

Ein Beispiel ist Chile, das als Paradebeispiel für Ressourcenextraktivismus – also die systematische, oft im großen Maßstab betriebene Entnahme und Ausbeutung natürlicher Rohstoffe aus einer Region, meist zur Ausfuhr und Weiterverarbeitung anderswo gilt.

Rund 60 % der chilenischen Exporte sind Mineralien, vor allem Kupfer für elektronische Leitungen und Rechenzentren sowie Lithium für Batterien und Energiespeicher. Das Lithium stammt fast ausschließlich aus der extrem trockenen Atacama-Wüste, wo die hohen Verdunstungsraten den Abbau begünstigen. Das bedeutet, dass das Wasser, das zur Gewinnung aus den Solebecken gepumpt wird, in diesem Klima besonders schnell verdunstet, wodurch sich die Lithiumsalze im verbleibenden Wasser schneller anreichern – ein physikalischer Effekt, der den Extraktionsprozess beschleunigt, zugleich aber den Wasserhaushalt der Region stark belastet.

Die chilenische Regierung plant, die Produktion bis 2030 um 70 % zu steigern – eine Entwicklung, die direkt mit dem wachsenden Bedarf der globalen Digital- und KI-Infrastruktur verknüpft ist.

Die Entwicklungslogik generativer KI: mehr Daten, mehr Parameter, mehr Rechenzeit.

Dieses Skalierungsdogma wird nicht nur durch technische Beobachtungen gestützt, sondern auch von starken ökonomischen und politischen Anreizen vorangetrieben. Während meiner KI-Trainings tauchen bei manchen Teilnehmenden genau an diesem Punkt Fragen auf: Wenn wir uns ernsthaft mit dem Einsatz von KI beschäftigen, müssen wir auch diese kritischen Fragen stellen. Es geht um Investitionsprojekte in einer Größenordnung, die selbst Tech-Giganten herausfordert – und um die dahinterstehenden Ressourcen, Strukturen und Entscheidungen, die oft unsichtbar bleiben.

Wenn Du zum Beispiel mit ChatGPT arbeitest, steht im Hintergrund eine Infrastruktur, die in ihrer Dimension leicht unterschätzt wird. OpenAI verfolgte von Beginn an eine (aggressive?) Mehrphasenstrategie

Phase 1 für GPT‑3. Rund 10 000 Nvidia V100‑Grafikprozessoren in einem Rechenzentrum in Iowa.

Phase 2 für GPT‑4. Etwa 25 000 A100‑Grafikprozessoren ein – eine Anordnung von Hochleistungsrechnern („Cluster“), deren Bau und Betrieb auf rund eine halbe Milliarde US‑Dollar geschätzt wurde.

Für Phase 3. In Arizona ist der Einsatz von Hunderttausenden H100‑Grafikprozessoren geplant, mit Gesamtkosten in Milliardenhöhe.

Phase 4 in Wisconsin ist mit 10 Milliarden US‑Dollar veranschlagt.

Phase 5 schließlich mit 100 Milliarden US‑Dollar.

Jede dieser Stufen bedeutet eine massive Ausweitung der benötigten Geräte, Flächen, Energie und Materialien.

Die physischen Dimensionen solcher Projekte sind enorm: Moderne Hyperscale-Rechenzentren werden als „Megacampus“ bezeichnet, deren Fläche mit den größten Ivy-League-Universitäten konkurriert. Mél Hogan von der Queen’s University beschreibt es so: Bis zu einem bestimmten Zeitpunkt wurden amerikanische Footballfelder als Vergleichsmaßstab genutzt, um die Dimensionen neuer Rechenzentren zu veranschaulichen. Hogan hat jedoch davon Abstand genommen, weil selbst dieser Maßstab nicht mehr ausreicht, um die gigantischen Flächen zu beschreiben: „Now football fields don’t even come close to the imaginaries of the required size.“

Das geplante „Stargate“-Projekt von Microsoft und OpenAI gilt als eine der ambitioniertesten und teuersten Rechenzentrumsinitiativen der Branche. Es soll sowohl technologische Führungsansprüche sichern als auch Marktvorteile im globalen KI-Wettlauf ausbauen und hat zum Ziel, bis Ende 2025 über eine Million GPUs in Betrieb zu nehmen.

Jede Ausbaustufe steigert den Verbrauch von Kupfer, Lithium, Strom und Wasser. Rechenzentren dieser Klasse verbrauchen jährlich mehrere Terawattstunden Strom – Größenordnungen, die dem Jahresverbrauch ganzer Länder entsprechen. Wer sich eine „Mega-Data-City“ der Zukunft vorstellen will, könnte an die Maschinenstadt aus Matrix Revolutions denken: ein bis zum Horizont reichendes Gewirr aus Türmen, Leitungen und pulsierenden Lichtern, in dem digitale und materielle Megastrukturen die Landschaft dominieren – überwältigend, funktional und gänzlich auf den Betrieb der Maschinen ausgerichtet.

An diesem Punkt möchte ich folgenden kleinen Spalt zwischen dem Sichtbaren und dem Verborgenen öffnen: Die Fortschritte dieser Modelle sind nur die glänzende Spitze eines sorgfältig geschichteten Eisbergs aus politischen Entscheidungen, wirtschaftlichen Interessen und technischen Zielsetzungen. Wenn Du magst, halte für einen Augenblick inne, und wir blicken gemeinsam darauf, wie sich diese Strukturen nicht nur beschreiben, sondern auch in eine konstruktive, zukunftsfähige Richtung lenken lassen. Und ganz offen gesagt: Eine wirklich fertige Lösung habe ich selbst nicht – im Moment kann ich vor allem wahrnehmen und zusammentragen, was an Zahlen, Daten und Fakten in diesem Zusammenhang zu finden ist.

Die physische Signatur – also die sichtbaren Spuren, die die Entwicklung dieser Technologie in Form von Gebäuden, Maschinen und Ressourcen hinterlässt – ist die direkte Folge der gewählten Entwicklungsstrategie. Die oft zitierte These „OpenAI’s Law“ bedeutet vereinfacht, dass der Rechenaufwand für leistungsstärkere Modelle immer schneller wächst. Das ist eine bewusste Festlegung, die wir durchaus hinterfragen und so weiterentwickeln können, dass sie langfristig nachhaltiger und ressourcenschonender wird. Wenn wir das denn überhaupt wollen und können.

Diese doppelte Rahmung – technisch begründet, politisch motiviert – erklärt, warum die materielle Dimension der KI-Entwicklung bislang selten im Mittelpunkt öffentlicher Debatten steht. Es lohnt sich, in den Medien genauer hinzuschauen und zu fragen, in welchem Verhältnis die Vorzüge und Vorteile des KI-Einsatzes zu dem damit verbundenen Ressourcenverbrauch stehen.

Mal ehrlich: Wer möchte sich – und wer erkennt den Wert darin – schon gerne damit beschäftigen, wie viel Ressourcen auf dem Weg in den Urlaub, ins Schwimmbad oder beim Überarbeiten der nächsten E‑Mail durch eine KI verbraucht werden? Während ich diesen Artikel im August 2025 schreibe, wird das Internet schon allein von privater Seite überschwemmt mit kleinen Videos, digitalen Ausschnitten und Versatzstücken, die stetig mehr von diesen Ressourcen beanspruchen. Was Du zu sehen bekommst, sind Software und Textausgaben; was wir auch betrachten sollten, sind Beton, Kupfer, Silizium – und eine stetig steigende Stromrechnung. Wer über Skalierung spricht, sollte also immer auch ihre materielle Seite mitdenken. Oder? Genau dort möchte ich Dich in den kommenden Abschnitten mit hinnehmen.

Energie, Netze, Standorte

Vom Klick bis zur Kraftwerksfrage

Lass mich dir gleich zu Beginn eine möglicherweise unbequeme Frage zur Energieinfrastruktur für KI stellen: Du nutzt täglich ChatGPT, fragst Google AI um Rat oder lässt dir von anderen KI-Diensten helfen? Bist du dir bewusst, welchen Energiehunger diese digitalen Helfer haben? Rechenzentren und KI-Anwendungen verschlingen bereits heute mehrere Prozent des weltweiten Stromverbrauchs, Tendenz exponentiell steigend.

Die Frage, die sich mir aufdrängt: Wie konsequent bist du? Würdest du Windkraftanlagen vor deiner Haustür akzeptieren, wenn sie direkt jene grüne Energie liefern, die deine täglichen digitalen Gewohnheiten erst nachhaltig möglich macht?

Windkraft: Zustimmung in der Theorie, Widerstand in der Praxis

Was ich in den Zahlen zur deutschen Windenergie entdecke, offenbart ein faszinierendes gesellschaftliches Paradox: Während sich 70 bis 80 Prozent von uns für den Windkraftausbau aussprechen und ihn als unverzichtbar für die Energiewende betrachten, schrumpft diese Begeisterung dramatisch zusammen, sobald die Rotoren in Sichtweite unseres eigenen Zuhauses auftauchen. Plötzlich stimmen nur noch 40 bis 50 Prozent zu – ein klassischer Fall des "NIMBY-Syndroms", bei dem wir Veränderungen grundsätzlich begrüßen, nur bitte nicht in unserem Hinterhof. Besonders aufschlussreich wird es bei den Abständen: Bei 500 Metern Entfernung sackt die Zustimmung auf magere 30 bis 40 Prozent ab, bei einem Kilometer erholt sie sich auf 50 bis 60 Prozent, und erst ab zwei Kilometern erreicht sie wieder die 70-Prozent-Marke.

Der Hauptschuldige für diese Ablehnung? Der Lärm – und zwar in überraschend vielfältigen Facetten. Da wären die mechanischen Symphonien aus Getriebe und Generator, das aerodynamische Rauschen der Rotorblätter, aber auch subtilere Phänomene wie der rhythmische "Whoosh-Effekt", der im Takt der Drehung an- und abschwillt, oder der mysteriöse Infraschall unter 20 Hertz, den manche als Druckgefühl wahrnehmen.

Obwohl moderne Anlagen die nächtlichen Grenzwerte von 35 bis 45 Dezibel meist einhalten, spielen Windrichtung, die Stille der Nacht und unsere höchst individuelle Lärmempfindlichkeit den Anlagen einen Streich. Interessant ist dabei, dass Transparente Bürgerbeteiligung, finanzielle Vorteile für die Gemeinde und ein offener Planungsprozess, wahre Wunder für die Akzeptanz bewirken könen – während die Angst vor Landschaftsveränderungen und sinkenden Immobilienpreisen sie wieder zunichtemacht. Diese Erkenntnisse verdanke ich den sorgfältigen Studien der Fachagentur Windenergie, des Bundesverbands WindEnergie und verschiedener Universitätsforschungen.

Die Lärmbelastung der digitalen Welt

Während wir uns über das rhythmische "Whoosh" von Windkraftanlagen aufregen, übersehen wir eine weitaus penetrantere Lärmquelle: Die Datenzentren, die unsere digitale Welt am Laufen halten. Diese technischen Festungen erzeugen durch ihre massive Kühlinfrastruktur eine kontinuierliche Geräuschkulisse von 55 bis 70 Dezibel in 100 Metern Entfernung – das entspricht einer belebten Straße oder lauter Unterhaltung. Der entscheidende Unterschied zu Windkraftanlagen: Diese digitalen Kraftwerke laufen 8.760 Stunden pro Jahr ohne Pause, da sie eine 99,9-prozentige Verfügbarkeit garantieren müssen.

Konkrete Beispiele zeigen das Ausmaß: Microsofts Datenzentrum in Dublin beschert Anwohnern konstante 45 bis 50 Dezibel auch nachts und überschreitet damit den WHO-Richtwert für nächtliche Ruhestörung, während Googles Anlage in den Niederlanden mit Tieffrequenzgeräusch zwischen 50 und 200 Hertz durch Wände dringt.

Hinter dem folgenden Link findest du einen Soundbyte vom Atlas Data Center.  Wenn du selbst ein bisschen weiterforschst, wirst du sehr viele Beiträge und Hinweise finden, welche großen Herausforderungen es alleine mit der Lärmbelästigung unserer Technologie gibt. Als Nutzer von ChatGPT, Gemini, Meta, Grok und all den anderen: Inwieweit bist du bereit, in deiner Nachbarschaft ein solches Data Center aufbauen zu lassen?

Während kleinere Betreiber noch reagieren – wie das Beispiel eines 3-Megawatt-Datenzentrums in Uruguay zeigt, wo nach Anwohnerbeschwerden schallgedämmte Einhausungen installiert wurden – bleiben die Hyperscale-Anlagen ab 100 Megawatt oft unverändert. Zwar gibt es zunehmend Bestrebungen, solche großen Datacenter mit Soundpanels einzukapseln, und entsprechende Lösungen finden sich immer häufiger, doch reichen diese Maßnahmen meist nur zur Einhaltung von Mindestbestimmungen. Ein Grundsound bleibt in den betroffenen Regionen spürbar bestehen.

Ihre Betreiber betrachten rechtliche Mindeststandards als ausreichend und gehen weniger auf lokale Beschwerden ein. Die Ironie dabei: Chronische Exposition gegenüber bereits 45 Dezibel nachts führt nachweislich zu Schlafstörungen und Herz-Kreislauf-Problemen. Wenn du das nächste Mal deine KI-Assistenten nutzt, frage dich: Wer trägt eigentlich die akustischen Kosten deiner digitalen Bequemlichkeit?

Energieverbrauch von KI-Anfragen

Die Geschichte, in die wir jetzt einsteigen, hat zwei Seiten.

Eine ist ganz nah an Deinem Alltag – so nah, dass Du sie in Wattstunden und iPhone-Ladungen bemessen kannst. Die andere reicht weit über unseren Horizont hinaus, in Zahlen und Dimensionen, die ganze Landschaften prägen und Energiesysteme herausfordern.

Laut International Energy Agency benötigt jede ChatGPT-Anfrage durchschnittlich etwa zehnmal mehr Strom als eine typische Google-Suche, womit die Größenordnungen von 0,3 Wh für eine Google-Suche und etwa 3 Wh für eine KI-Antwort plausibel sind. Weniger als zwei komplexe ChatGPT-Fragen benötigen inetwa so viel Energie wie eine komplette iPhone-Aufladung verbrauchen. Allerdings variieren die Werte stark je nach Modell, Komplexität der Anfrage und verwendeter Infrastruktur, und es gibt einen wichtigen Unterschied zwischen dem einmaligen, sehr energieintensiven Training der Modelle und dem Energieverbrauch pro einzelner Anfrage.

Die größte Herausforderung für mich bestand darin – und das ist entscheidend, weil ohne diese Daten weder der tatsächliche Energiebedarf noch die ökologischen Auswirkungen seriös eingeschätzt werden können – von Entwicklern und Anbietern konkrete Zahlen und Daten zu finden. Sie veröffentlichen keine genauen Verbrauchswerte. Sasha Luccioni, eine auf KI-Nachhaltigkeit spezialisierte Forscherin bei Hugging Face, berichtet, dass sie bei über 500 Unternehmen nach Informationen zum Modelltraining fragte und kaum Antworten erhielt – die Daten seien vertraulich. Diese Intransparenz macht es nahezu unmöglich, exakte Verbrauchswerte zu bestimmen, während die unsichtbare Stromspur der KI-Nutzung ein wachsendes Problem darstellt.

Vielleicht hast Du schon an anderer stelle schon gelesen, was ich oben im Text zum Thema Energieverbrauch zur Anfrage geschrieben habe. Das ist nur die kleinteilige Vorderseite. Dahinter steht ein gigantischer Energieapparat.

KI-Rechenzentren: Energieverbrauch im deutschen Vergleich

Die Rechengrundlage: Deutscher Durchschnittshaushalt verbraucht etwa 2.500 kWh/Jahr (500 kWh = 1 MWh), deutsche Haushalte haben im Schnitt 2,0 Personen.

In einem KI-Rechenzentrum steckt die Rechenleistung meist in sogenannten GPU-Racks – das sind Schränke voller Hochleistungs-Grafikprozessoren, die für das parallele Verarbeiten riesiger Datenmengen optimiert sind. Ein einzelnes GPU-Rack verschlingt rund dreimal so viel Strom wie ein herkömmliches Serverrack in einem Standardrechenzentrum. Die größten heutigen Anlagen sind auf bis zu 150 Megawatt ausgelegt – das entspricht dem Jahresstrombedarf von etwa 300.000 deutschen Haushalten oder einer Stadt wie Mannheim (315.000 Einwohner). Zum Vergleich: Das wäre mehr als der gesamte Stromverbrauch von Städten wie Karlsruhe (310.000 Einwohner) oder Wiesbaden (290.000 Einwohner).

Künftige KI-„Megacampus" könnten 1.000 oder sogar 2.000 Megawatt benötigen – das entspräche dem Strombedarf von 2 bis 4 Millionen deutschen Haushalten. Ein 1.000-Megawatt-Rechenzentrum würde so viel Strom verbrauchen wie München (1,5 Millionen Einwohner), ein 2.000-Megawatt-Campus so viel wie Hamburg (1,9 Millionen Einwohner). OpenAIs geplanter Phase-5-Supercomputer mit 5.000 Megawatt würde den Stromverbrauch von ganz Berlin (3,7 Millionen Einwohner) übertreffen – eine einzelne KI-Anlage mit dem Energiehunger der deutschen Hauptstadt.

Diese Anlagen entstehen nicht zufällig. Microsoft, Google und Meta investieren jährlich jeweils zwischen rund 40 und über 80 Milliarden US‑Dollar in den Ausbau ihrer globalen Rechenzentrumsnetze. Microsoft etwa erwartet für das Geschäftsjahr 2025 Kapitalausgaben von über 80 Milliarden US‑Dollar, Google plant rund 75 Milliarden und Meta zwischen 65 und 68 Milliarden US‑Dollar – der Großteil davon fließt in technische Infrastruktur, insbesondere in neue Datencenter und Netzwerkarchitektur. Wenn dich interessiert, wie diese Zahlen im Detail aussehen, kannst du dir gerne die Unternehmensberichte 2025 dazu anschauen.

Bundesstaaten wie Arizona, Texas und Wisconsin zählen zu den bevorzugten Standorten, da sie vergleichsweise günstiges Bauland, stabile Energiequellen sowie steuerliche Anreize bieten. So erhielt etwa Digital Realty in Texas Steuervergünstigungen für den Ausbau eines neuen Campus bei Dallas, während Meta an einem Hyperscale‑Projekt arbeitet, das mehrere hundert Megawatt Leistung und Flächen in der Größenordnung ganzer Industrieparks umfasst (Regionale Wirtschaftsförderungen, Branchendienste 2024/2025).

Solche Hyperscale-Anlagen sind darauf ausgelegt, einen permanenten Betrieb für dich und mich sicherzustellen – selbst bei extremen Wetterlagen. Wenn dich die technischen Details interessieren, kannst du dir gerne einmal die Betreiberangaben dazu ansehen. In Florida sind Einrichtungen von Equinix nach eigenen Angaben für Windgeschwindigkeiten der Kategorie‑5‑Hurrikan‑Stufe ausgelegt; in Texas überstanden acht DataBank‑Rechenzentren den Wintersturm 2021 ohne Ausfall, indem sie nahtlos auf eigene Notstromgeneratoren umschalteten. Auch TRG Datacenters – ein US-amerikanischer Anbieter von Rechenzentrumsinfrastruktur – trainiert gezielt für bis zu 72‑stündige Lockdowns, bei denen Mitarbeitende durchgehend vor Ort bleiben.

Wir erleben gerade eine neue Hierarchie der Systemrelevanz, die sich auch wie ein reales Priorisierungsszenario darstellt: Energieflüsse werden im Zweifel so gesteuert, dass Rechenzentren weiterlaufen – selbst wenn andere lebenswichtige Einrichtungen oder Haushalte Einschränkungen hinnehmen müssen: Haushalte können im Dunkeln sitzen, aber Rechenzentren dürfen nicht stillstehen. Für mich stellt sich hier die Frage, ob wir in Zukunft mehr schwierige Entscheidungen zu treffen haben, als uns bewusst ist. Müssten wir im Zweifel ein Krankenhaus evakuieren, um mehrere Krankenhäuser weiterhin mit Daten zu versorgen? Das erinnert mich an das Gedankenspiel vom Zug, der zu entgleisen droht: Es gibt nur zwei Rettungsmöglichkeiten – bei der einen stirbt eine Person, bei der anderen mehrere. Wie würden wir uns entscheiden?

Wenn wir über Datensicherheit reden, sprechen wir auch über Server, die in Europa stehen. Wenn wir über sichere KI-Lösungen sprechen und diese in Europa organisiert und administriert werden sollen, stellt sich die Frage: Wo bauen wir diese Infrastruktur auf? Wo finden wir genug Wasser und andere Ressourcen, um sie zu betreiben? Welche Entscheidungen treffen wir, wenn wir 24 Stunden am Tag Zugriff auf unsere KI-gestützte Datenarbeit sicherstellen wollen? In den USA könnte der Anteil von Rechenzentren am Gesamtstromverbrauch von 3 % (2022) auf 8 % bis 2030 steigen – das entspräche mehr, als ganz Indien heute verbraucht. Die Kurve dieser Entwicklung ist nicht linear, sondern steil.

Und diese Entwicklung hat einen materiellen Preis: Für Dich im Alltag sind es Wattstunden pro Anfrage, weltweit bedeutet es neue Kraftwerke, verstärkte Netze, mehr Kupfer, mehr Wasserverbrauch für Kühlung und Rohstoffabbau. Die „grüne“ Außendarstellung der Hyperscaler steht dabei oft im Widerspruch zur Wirklichkeit: 24/7‑Betrieb lässt sich nur schwer mit der Volatilität von Wind- und Solarenergie vereinbaren.

Daraus ergibt sich für mich die nächste Diskussion; nämlich zu den Ressourcen die wir bereit sind aufzubringen, wenn Wind, Wasser und Sonnenenergie nur begrenzt und nicht konstant verfügbar sind – also anfällig für Ausfälle? Sind wir bereit, wieder Kohlekraftwerke zu nutzen, Atomkraftwerke auszubauen oder gar eine Energieinfrastruktur zu errichten, die einzig und allein dazu dient, die KI am Laufen zu halten? Nach meinen Recherchen ist eine Grundlastversorgung ohne Gas, Kohle oder Atom – zumindest derzeit – nicht machbar. Und einige meiner Freunde und Bekannten schwärmen schon davon, dass wir in ganz Deutschland in absehbarer Zeit komplett autonome Fahrzeuge für den Verkehr bereitgestellt haben werden. Wo die dafür notwendigen Datenzentren entstehen sollen? Das habe ich noch nicht so ganz verstanden.

Wenn Du das nächste Mal eine KI-Frage eingibst, läuft im Hintergrund mehr ab als nur ein kurzes Rechenmanöver: Strom rauscht durch Kabeltrassen, Kühltürme halten Temperaturen stabil, Dieselgeneratoren stehen bereit, globale Netzwerke sichern die Antwortverfügbarkeit – alles in Echtzeit. Jede dieser Schichten ist Teil eines massiven, wachsenden Apparats, der unsere Vorstellung von „digital“ in eine sehr physische Realität übersetzt.

Die nächste Stufe der KI-Entwicklung knüpft hier nahtlos an meine Eingangsfrage zur Energieinfrastruktur an und lädt Dich ein, die dort aufgeworfenen Gedanken weiterzuführen. Es ist keine reine Frage besserer Algorithmen. Sie ist eine Frage von Infrastruktur, Energieausmaß und Prioritäten. Zwischen Deinem Smartphone-Display und dem Megacampus in Arizona liegt eine Kette materieller Prozesse, die wir berücksichtigen sollten, wenn wir über die Zukunft dieser Technologie sprechen.

Die eigentliche Entscheidung ist wie bereit wir sind, den damit verbundenen Energie- und Ressourcenhunger in unsere Systeme zu integrieren? Aber ich wiederhole mich.

Wasser und Kühlung

Der versteckte Preis der digitalen Souveränität

Wir diskutieren leidenschaftlich darüber, dass unsere Daten in Europa gespeichert werden sollen und dass wir unabhängig von amerikanischen und chinesischen Tech-Giganten werden müssen. Wir wollen europäische KI-Systeme, europäische Cloud-Dienste, europäische Rechenzentren. Das ist richtig und wichtig. Doch die zentrale Herausforderung liegt darin, dass diese digitale Souveränität eine konkrete Infrastruktur erfordert – und damit auch einen erheblichen Verbrauch von Ressourcen. Sind wir bereit, den Preis dafür zu zahlen? Denn wenn unsere Daten stolz in Europa gespeichert werden sollen, dann brauchen wir europäisches Wasser, um europäische Daten zu kühlen.

Mit einem möglichen Hauch von Provokation möchte ich dich an dieser Stelle mal fragen: Ist dir bewusst, welchen versteckten Rohstoff unsere digitale Unabhängigkeit verschlingt? Es ist nicht nur Strom, nicht nur seltene Erden für Prozessoren – es ist Wasser. Trinkwasser. Millionen Liter davon, täglich, rund um die Uhr.

Die Anatomie des digitalen Wasserhungers

Ein einziges großes Rechenzentrum verbraucht jährlich etwa 300 bis 490 Millionen Liter – so viel wie drei Krankenhäuser oder zwei 18-Loch-Golfplätze. Um das in Relation zu setzen: Der durchschnittliche Trinkwasserverbrauch pro Person in Deutschland liegt bei rund 121–128 Litern pro Tag – also etwa 44.000 bis 47.000 Litern im Jahr. Nur etwa neun Prozent dieses Wassers gehen an uns Privathaushalte. Der weitaus größere Teil – ganze 91 Prozent – fließt in Energieerzeugung, Industrie und andere Sektoren. Wasser ist eine Ressource, die verteilt werden muss.

Und jetzt kommen die Rechenzentren dazu – diese digitalen Kraftwerke, die unsere KI-Anwendungen am Laufen halten. Diese Gebäude sind wahre Hitzefabriken, und das Wasser, das sie zur Kühlung benötigen, muss sauber genug sein, um die sensiblen Systeme vor Verstopfungen oder Bakterienwachstum zu schützen. Es ist Trinkwasserqualität.

Um zu verstehen, warum unsere digitale Souveränität so wasserintensiv ist, lohnt es sich, auf darauf zu blicken, wie diese Anlagen funktionieren. Fast der gesamte Strom, den ein Rechenzentrum verbraucht, wird in Wärme umgewandelt. Selbst wenn die Anlage nicht mit voller Kapazität arbeitet – und das tun sie selten –, zieht sie dennoch 60 bis 100 Prozent ihrer maximalen Leistung. Das erzeugt eine gewaltige Menge Wärme.

Festplatten müssen bei Temperaturen unter 45 Grad Celsius gehalten werden, moderne Prozessoren vertragen bis zu 85 Grad. Darüber hinaus drohen irreparable Schäden. Die Kühlsysteme arbeiten deshalb rund um die Uhr – und hier kommt das Wasser ins Spiel.

Die meisten Rechenzentren nutzen ein ausgeklügeltes Zwei-Kreislauf-System. Im ersten Kreislauf nimmt eine Mischung aus Wasser und Glykol die Wärme von den Servern auf. Diese Wärme wird dann an einen zweiten, wasserbasierten Kreislauf übertragen. Am Ende stehen Kühltürme, in denen heißes Wasser hinunterfließt und teilweise verdunstet – dabei wird Energie freigesetzt und das Wasser kühlt ab. Etwa ein Prozent des Wassers verdunstet für etwa 5,6 Grad Celsius Kühlung. Dieses verdunstete Wasser muss kontinuierlich durch frisches Nachfüllwasser ersetzt werden.

Rechenzentren verbrauchen Wasser nicht nur direkt für die Kühlung, sondern auch indirekt über die Stromerzeugung. 2022 machten Rechenzentren etwa 1 bis 1,3 Prozent des weltweiten Stromverbrauchs aus. In den USA stammen 73 Prozent des Stroms aus thermoelektrischen Quellen – Kohle, Erdgas oder Kernkraft –, die alle Wasser zum Kühlen ihrer Turbinen benötigen.

Mein Hinweis basiert auf den Ergebnissen einer Studie des Lawrence Berkeley National Laboratory (LBNL) aus dem Jahr 2016. Diese Studie belegt, dass der indirekte Wasserverbrauch von Rechenzentren durch Energieerzeugung zwei- bis dreimal höher sein kann als der direkte Wasserverbrauch von Kühlsystemen. Nicht nur die direkte Kühlung, sondern auch die für den Stromverbrauch der Rechenzentren notwendige Wassermenge spielt eine erhebliche Rolle, da thermisch erzeugte Energie wiederum große Mengen Kühlwasser benötigt.

Jetzt höre ich schon den Einwand: Moment mal, diese Studie ist doch von 2016! Genau, und trotzdem ist sie nach wie vor aktuell, weil sie grundlegende physikalische Zusammenhänge zwischen Stromerzeugung und Kühlung in Rechenzentren untersucht, die sich bis heute kaum verändert haben. Ihre zentrale Aussage – dass der indirekte Wasserverbrauch durch die energiebedingte Kühlung in Kraftwerken zwei- bis dreimal höher sein kann als der direkte Wasserverbrauch in den Kühlsystemen der Rechenzentren selbst – beruht darauf, dass der Großteil des für Rechenzentren benötigten Stroms immer noch aus wasserintensiven, thermischen Kraftwerken stammt. Neuere Entwicklungsberichte und Fachquellen greifen diese Erkenntnis weiterhin auf, weil sich an den Grundmechanismen der Strom- und Wassernutzung für große digitale Infrastrukturen bislang wenig grundsätzlich geändert hat.

Wenn du also das nächste Mal eine europäische KI-Anwendung nutzt, denk daran: Im Hintergrund läuft nicht nur ein energiehungriger Computer auf europäischem Boden, sondern auch ein komplexes Wassersystem, das europäisches Wasser verbraucht.

„There is so much water"

Zwischen KI-Boom und Wasserknappheit

Der Wasserverbrauch von Rechenzentren in Deutschland und Europa steigt durch den Boom von KI-Anwendungen und Cloud-Diensten deutlich an. Haupttreiber sind die energieintensive Kühlung großer Serverfarmen, die oft hochwertiges Trinkwasser verwenden. Microsoft und Google steigerten ihren Wasserverbrauch 2022 um über 25 Prozent gegenüber dem Vorjahr. Bei Microsoft war es sogar ein Sprung von 34 Prozent zwischen 2021 und 2022 – verglichen mit nur 13 Prozent im Jahr zuvor. Der Grund? ChatGPT und andere generative KI-Produkte.

Allein das Training moderner KI-Modelle wie ChatGPT kann in kurzer Zeit Millionen Liter Wasser benötigen. Die Dimensionen sind atemberaubend: Prognosen gehen davon aus, dass KI-Technologien weltweit bis 2027 bis zu 6,6 Milliarden Kubikmeter Wasser jährlich beanspruchen könnten – das entspricht dem halben Wasserverbrauch Großbritanniens. Warum ich dabei den Begriff Prognose verwende, darauf gehe ich später im Artikel noch ein, aber ich kann hier schon mal vorausschicken, alle diese Unternehmen sind nicht besonders transparent, wenn es darum geht, zu veröffentlichen, welche Ressourcen sie für was genau benötigen.

Bob Blue, CEO des Energieversorgers Dominion Energy, berichtet von dramatischen Veränderungen: "Historisch gesehen hatte ein einzelnes Rechenzentrum typischerweise eine Nachfrage von 30 Megawatt oder mehr. Jedoch erhalten wir jetzt individuelle Anfragen für 60 bis 90 Megawatt oder mehr. Wir bekommen regelmäßige Anfragen zur Unterstützung größerer Campus, die eine Gesamtkapazität von 300 Megawatt bis zu mehreren Gigawatt benötigen."

Im Zuge wachsender digitaler Souveränität und Infrastrukturentwicklung geraten besonders Standorte in wasserarmen Regionen zunehmend unter Druck. Bereits heute zapfen etwa 20 Prozent der US-Rechenzentren Wasser aus Regionen, in denen Industrie, Haushalte und Landwirtschaft ohnehin um jeden Kubikmeter konkurrieren. Und Europa? Wir sind nicht besser dran.

Digital Realty, ein Immobilien-Investment-Trust mit über 300 Rechenzentren weltweit, gibt bemerkenswert ehrlich zu: Etwa die Hälfte ihres Wasserverbrauchs 2022 fand in Gebieten statt, die bereits unter Wasserstress leiden.

Elon Musk äußerte sich beim vielbeachteten Besuch auf der Baustelle der Tesla-Gigafactory in Grünheide im August 2021 kritisch zu Befürchtungen über Wasserknappheit: Auf die Frage der Journalistin Manka Heise, die Elon Musk in Grünheide für das ZDF-Magazin Frontal21 zum Thema Wasserknappheit befragte, ob die Kritik am Wassermangel berechtigt sei, antwortete Musk deutlich: „In dieser Region gibt es so viel Wasser. Sehen Sie sich um. Das ist völlig falsch. Hier ist überall Wasser. Kommt Ihnen das wie eine Wüste vor? Das ist lächerlich. Es regnet sehr viel."

Stell dir vor, deine Region würde zum Standort für ein neues europäisches Hyperscale-Rechenzentrum ausgewählt – mit dem Versprechen auf Arbeitsplätze, Steuereinnahmen und digitale Infrastruktur. Gleichzeitig würde dieses Zentrum täglich Millionen Liter aus deinem lokalen Wassereinzugsgebiet ziehen. Würdest du das akzeptieren?

Und jetzt stell dir die typische YouTube-Einblendung vor: Share with me in the comments.

Ab Juli 2026 müssen neue Rechenzentren nach dem Energieeffizienzgesetz strengere Vorgaben bezüglich Energieeffizienz und Wasserverbrauch erfüllen. Das ist ein wichtiger Schritt – aber er offenbart auch ein fundamentales Dilemma unserer digitalen Souveränität.

Gleichzeitig stehen diese Vorgaben in Konflikt mit Technologien wie Verdunstungskühlung, die zwar die Energieeffizienz steigern, aber erheblich mehr Wasser beanspruchen. Es ist ein klassisches Beispiel dafür, wie Nachhaltigkeitsziele manchmal gegeneinander stehen: Weniger Energie, aber mehr Wasser – oder umgekehrt. Wie lösen wir diesen Konflikt, wenn wir gleichzeitig unsere digitale Unabhängigkeit vorantreiben wollen?

Doch es gibt Hoffnung. Innovative Kühlmethoden können den Wasserverbrauch drastisch reduzieren. "Free Cooling" nutzt die natürliche Kälte der Umgebung – besonders effektiv in nordischen Ländern. Studien in Europa zeigen Energieeinsparungen von 5,4 bis 7,9 Prozent, in Australien sogar bis zu 60 Prozent in den südlichen Hauptstädten.

Googles Rechenzentrum in Hamina, Finnland, zeigt ein Beispiel für eine europäische Lösung. Die ehemalige Papiermühle nutzt kaltes Meerwasser aus dem Ozean über die bestehenden Rohre der Fabrik, und dank des Zwei-Kreislauf-Systems vermischt sich das Meerwasser nicht mit der Kühlflüssigkeit des Rechenzentrums.

Eine weitere vielversprechende Technologie ist die Wärmerückgewinnung. Die Abwärme der Server kommt mit 35 bis 45 Grad Celsius heraus und eignet sich hervorragend für die Raumheizung oder Warmwassererzeugung in nahegelegenen Gebäuden. Damit dieses Potenzial genutzt werden kann, wäre der gezielte Ausbau von Fernwärmenetzen in europäischen Städten erforderlich. Projekte, die Rechenzentren mit kommunalen Wärmeverbünden koppeln, könnten hier einen wichtigen Beitrag leisten und zeigen, wie sich digitale Infrastruktur und lokale Versorgung sinnvoll verbinden lassen.

Stell dir vor, in deiner Nähe wird ein gigantisches Rechenzentrum gebaut, das summt und surrt 24 Stunden am Tag vor sich hin. Aber dafür kriegst du, hoffentlich, sehr, sehr schön warmes Wasser, um deine Wohnung zu heizen. Das ist, weil es ein Abfallprodukt ist, könnte es dir ja gratis geliefert werden. Hmmmm...

Manchmal sind die einfachsten Lösungen die wirkungsvollsten. Die American Society of Heating, Refrigerating and Air-Conditioning Engineers empfiehlt Betriebstemperaturen zwischen 15 und 32 Grad Celsius. Viele Betreiber kühlen jedoch deutlich stärker. Google hat in Tests gezeigt, dass ihre Rechenzentren auch bei höheren Temperaturen problemlos funktionieren. Eine Erhöhung um nur 1 bis 2 Grad kann erhebliche Wasser- und Energieeinsparungen bringen.

Auf europäischer Ebene setzen sich Betreiber und Verbände durch den Climate Neutral Data Centre Pact gezielt für einen nachhaltigen Umgang mit Wasser in Rechenzentren ein. Dieser Initiative haben sich über 70 Unternehmen und zahlreiche Verbände angeschlossen. Sie verpflichtet die Branche zu konkreten und messbaren Zielen wie der Begrenzung des Wasserverbrauchs für die Kühlung sowie der Umstellung auf klimaneutrale Betriebsweisen bis spätestens 2030. Die Einhaltung dieser Ziele erfolgt nicht nur über freiwillige Selbstverpflichtungen, sondern unterliegt auch einer regelmäßigen unabhängigen Kontrolle und kann bei Verstößen zum Ausschluss aus dem Pakt führen.

Im Mittelpunkt der Bemühungen stehen also innovative und ressourcenschonende Technologien wie Free Cooling, der Einsatz von Meerwasser und die Wärmerückgewinnung, die sich ökologisch und ökonomisch als zukunftsfähig erwiesen haben. Durch die Integration solcher Verfahren wird die Basis gelegt, das Wachstum der digitalen Infrastruktur in Einklang mit Umwelt- und Klimaschutzzielen zu bringen und den Wasserverbrauch europäischer Rechenzentren spürbar zu verringern.

Die unbequeme Wahrheit der digitalen Souveränität

Der Ausbau digitaler Infrastruktur in Europa macht Wasser zu einem strategischen Rohstoff, dessen verantwortungsvoller und effizienter Umgang zentrale Voraussetzung für eine nachhaltige digitale Transformation ist. Dennoch bleibt die Herausforderung groß.

SemiAnalysis prognostiziert, dass KI den RechenzentSemiAnalysis prognostiziert, dass KI den Rechenzentrum-Anteil auf 4,5 Prozent der globalen Energieerzeugung bis 2030 treiben wird. Und da Wasser- und Stromverbrauch korreliert sind, können wir uns auf einen entsprechenden Anstieg des Wasserverbrauchs einstellen. Es ist eine simple Gleichung: Europäische Daten brauchen europäisches Wasser.

Wasser ist längst nicht mehr nur das stille Selbstverständliche im Hintergrund, sondern ein Schlüsselrohstoff der digitalen Transformation geworden. Die Zukunft der europäischen KI hängt davon ab, ob wir lernen, mit dieser kostbaren Ressource verantwortungsvoll umzugehen – oder ob wir bereit sind, den Wasserpreis für unsere digitale Unabhängigkeit zu zahlen.

Sind wir bereit zu akzeptieren, dass europäische digitale Souveränität europäisches Trinkwasser kostet? Und wenn ja, wie viel Liter ist uns unsere Unabhängigkeit wert?

Die (verborgenen?) Kosten unserer digitalen Zukunft

Wie KI-Technologie globale Rohstoffketten verändert

Immer wieder werde ich, obwohl ich vor allem Experte für die Kommunikation mit KI bin, auch nach technischen Details gefragt. Also habe ich mir die Arbeit gemacht, genauer herauszufinden, wie das eigentlich funktioniert.

Wenn du heute eine komplexe Frage an ChatGPT stellst, kannst du gerne mal darüber nachdenken und ChatGPT gleich mal fragen, wo die Materialien herkommen, die diese Antwort möglich machen. Tu dir selbst einen Gefallen und fordere das Modell auf, nur echte, nachweisbare Informationen zusammenzutragen. Die Antwort, die du bekommst, wird in etwa wie folgt aussehen (können). Hinter jeder KI-Anfrage steht eine weitverzweigte Lieferkette aus Kupfer, Lithium und seltenen Erden. Das sind die Rohstoffe, die unsere digitale Zukunft erst ermöglichen.

In Deutschland haben wir eine bemerkenswerte Situation: Wir verfügen durchaus über einige der kritischen Rohstoffe, die für KI-Hardware benötigt werden, fördern sie aber bewusst nicht in größerem Umfang. Diese Entscheidung spiegelt unsere Werte wider – und hat zugleich weitreichende globale Konsequenzen, die ich in diesem Kapitel beleuchten möchte.

Deutsche Rohstoffvorkommen zwischen Möglichkeit und Verantwortung

An dieser Stelle fällt es mir schwer, nicht politisch zu werden. Mein Anliegen ist es jedoch, die Zahlen, Daten und Fakten darzustellen, die ich zusammentragen konnte. Natürlich habe ich mir meine eigene Meinung gebildet, und in Teilen wird sie in diesen Texten durchscheinen. Gleichzeitig möchte ich betonen, dass ich versuche, mich so faktenorientiert wie möglich zu orientieren.

Schauen wir also zunächst auf unsere eigenen Ressourcen: Im baden-württembergischen Oberrheingraben lagern erhebliche Lithiumvorkommen, die das Unternehmen Vulcan Energy durch innovative Tiefengeothermie fördern möchte. Das Verfahren klingt vielversprechend – umweltfreundlicher als herkömmlicher Bergbau, mit der Möglichkeit, gleichzeitig saubere Energie zu gewinnen. Doch der Widerstand ist beträchtlich.

Der BUND und andere Umweltorganisationen haben Bedenken wegen möglicher Auswirkungen auf Grundwasser und lokale Ökosysteme angemeldet. Auch die Grünen äußerten Vorbehalte. Das Ergebnis: Das Projekt bleibt vorerst auf Pilotversuche beschränkt. Ähnlich verhält es sich im sächsischen Erzgebirge, wo die Deutsche Lithium GmbH zwar Förderrechte in Zinnwald besitzt, der eigentliche Abbau aber durch Bürgerproteste, artenschutzrechtliche Einwände und EU-Umweltauflagen immer wieder verzögert wird.

Man stelle sich für einen Augenblick vor, Chile würde die EU-Umweltauflagen für sich in Anspruch nehmen. Welche Möglichkeiten hättest du dann, eine KI-Anfrage zu stellen?

Ist diese Zurückhaltung verständlich und ist sie berechtigt? Denken wir an die Folgen des Braunkohleabbaus oder die Altlasten der Wismut-Uranförderung in Ostdeutschland. Unsere demokratischen Strukturen ermöglichen es Bürgerinitiativen und Umweltverbänden, ihre Bedenken wirksam zu artikulieren. Das ist ein Privileg, das nicht alle Regionen der Welt haben.

Die (unbeabsichtigten?) Folgen unserer Prinzipien

Die deutsche Haltung hat eine Kehrseite, die wir betrachten können: Sie verlagert die Umweltlasten dorthin, wo weniger demokratische Kontrolle herrscht. Die EU reagierte 2023 mit dem "Critical Raw Materials Act", der eine sichere und nachhaltige Rohstoffversorgung fördern soll. Doch solange der gesellschaftliche Widerstand gegen heimischen Abbau stark bleibt, bleiben unsere KI-Lieferketten "hochgradig globalisiert" – ein euphemistischer Begriff für eine unbequeme Realität.

Du verwendest vermutlich täglich Technologien, deren Rohstoffe unter Bedingungen gefördert wurden, die wir in Deutschland niemals akzeptieren würden. Dieser Gedanke knüpft an Erfahrungen an, die ich als Kind im Ruhrgebiet der 1960er und 70er Jahre gemacht habe. Damals wurde großer Wert auf den Schutz, die Gesundheit und die Absicherung der Bergarbeiter gelegt. Gewerkschaften und Sozialleistungen sorgten für ein Mindestmaß an Sicherheit und Würde, trotz der Gefahren des Bergbaus. Für uns Kinder war dieses Umfeld von Gemeinschaft geprägt, der Arbeitsalltag der Erwachsenen zwar hart, doch ihr Leben galt als bewahrenswert. Als mein Vater aus gesundheitlichen Gründen im Bergbau nicht mehr weiterarbeiten konnte, wurde ihm sogar eine Um- und Weiterbildung finanziert, um die Familie sicher in die Zukunft bringen zu können.

Als Teenager, in den 70er Jahren, nahm ich den Film Sorcerer als Initialzündung wahr, die mich dazu brachte, genauer hinzuschauen, wie Arbeitsbedingungen anderswo in der Welt aussehen. Vier gestrandete Männer müssen in einem armen südamerikanischen Dorf hochexplosives Nitroglyzerin über tödliche Dschungelpisten zu einem brennenden Ölbohrturm transportieren – ihr Leben wird dabei rücksichtslos aufs Spiel gesetzt, einzig getrieben vom wirtschaftlichen Profit eines Ölkonzerns.

Die extreme Gefahr, die Armut und die Gleichgültigkeit gegenüber den Arbeitern offenbarten mir, wie anderswo unter völlig anderen Bedingungen Industrie betrieben wird. Diese Beobachtung lenkt den Blick auf die globalen Zusammenhänge unserer digitalen Gewohnheiten und leitet über nach Chile, wo die Realität des Ressourcenabbaus heute besonders sichtbar wird.

Der Blick nach Chile, wo Demokratie fehlt

Um zu verstehen, was diese Externalisierung konkret bedeutet, lohnt sich der Blick zu einem Land, das zum Brennpunkt der globalen KI-Rohstoffversorgung geworden ist. Chile produziert ein Viertel des weltweiten Kupfers und ein Drittel des Lithiums. Diese Zahlen klingen abstrakt, bis man die Realität vor Ort betrachtet.

Die Chuquicamata-Mine in der Atacama-Wüste gilt als größte Kupfertagebaumine der Welt und wird in zahlreichen Quellen eindrücklich beschrieben. Die Süddeutsche Zeitung berichtete 2018, dass hier seit 1915 Kupfer abgebaut wird und die Grube mittlerweile rund 5,2 Kilometer lang, drei Kilometer breit und 1,2 Kilometer tief ist – ein "Amphitheater für Riesen".

Das USGS Earthshots-Programm verweist auf vergleichbare Dimensionen von einem Kilometer Tiefe, drei Kilometern Breite und fünf Kilometern Länge und illustriert dies mit dem Hinweis, dass sogar der New Yorker Central Park darin Platz finden würde. Auch in Erfahrungsberichten wird die Mine als ein unvorstellbar großes Loch beschrieben, in dem Maschinen wie Ameisen wirken. Diese verschiedenen Perspektiven machen deutlich, welche industrielle und landschaftliche Wucht dieser Ort verkörpert – eine klaffende Wunde, die durch regelmäßigen Sprengstoffeinsatz weiter vertieft wird.

Das verdrängte Gestein türmt sich zu künstlichen Bergen auf und begräbt langsam eine verlassene Stadt. Der Abbau hat ganze Wasserbecken in nahegelegenen Salzebenen erschöpft und deren Ökosysteme zerstört. Arsenspuren in Luft und Wasser haben die Krebsraten im Norden Chiles messbar erhöht.

Wenn Flamingos verschwinden

Besonders eindrücklich ist die Geschichte des Lithiumabbaus im Salar de Atacama, der größten Salzebene Chiles. Das Lithium wird gewonnen, indem Sole in türkisfarbene Pools gepumpt und von der Sonne zu Kristallen verdampft wird – ein scheinbar sanfter Prozess, der jedoch gravierende Auswirkungen auf Ökosysteme und Wasserhaushalt hat.

Neue Untersuchungen zeigen, dass bis zu 65 Prozent des lokalen Wasserverbrauchs auf die Lithiumförderung entfallen. Die Flamingo-Population ist in der Region bereits deutlich zurückgegangen, da die natürlichen Wasserflächen schwinden – ein Umstand, den auch Umweltorganisationen und indigene Gemeinschaften dokumentieren. Die Salares waren einst Heimat von Schwärmen rosa Flamingos, die für die Atacameños spirituelle Bedeutung haben. Berichte von NGOs und Forschungseinrichtungen belegen, wie sehr der Lithiumabbau Flora, Fauna und Wasserhaushalt der Atacama-Wüste verändert hat.

Diese Details illustrieren die harte Realität, in der die indigenen Atacameños ihre Landwirtschaft und Viehzucht vielerorts nicht mehr betreiben können, da ihr Land durch den Entzug von Wasser und Mineralien erschöpft ist. Viele Menschen sind inzwischen darauf angewiesen, in den Minen zu arbeiten, die ihre traditionellen Lebensgrundlagen zerstört haben.

Studien und Berichte zeigen, dass damit auch soziale Probleme wie Abwanderung, Depression und Konflikte um schwindende Ressourcen zunehmen. Lokale Initiativen und Gemeinschaften kämpfen mit juristischen Mitteln und Protesten gegen die Auswirkungen des Lithiumabbaus. Wer sich vertiefend informieren möchte, findet zahlreiche Fallstudien, Umweltrapporte und Augenzeugenberichte bei Umweltorganisationen und Plattformen zur sozialen Situation in der Atacama-Region.

Und hier die gute Nachricht. In Deutschland gibt es in Zoos und Wildgehegen etwa 600 bis 800 Flamingos. Europaweit verfügen wir neben einigen hundert Flamingos in Gefangenschaft über bis zu 350.000 Flamingos, die in ganz Europa leben. Wenn wir die Menschen in den Abbaugebieten in Chile entsprechend bezahlen, hätten sie also die Möglichkeit, ihren verdienten Urlaub in Europa zu verbringen und sich zumindest hier die Flamingos anzuschauen.

Historische Traumata und strukturelle Gewalt

Die Aktivistin Sonia Ramos, die ebenfalls aus einer Bergarbeiterfamilie stammt, erlebte 1957 den Einsturz eines Minenteils in Chuquicamata. Mehrere Menschen starben, Dutzende wurden verletzt. Die betroffenen Familien erhielten weder eine Gedenkfeier noch Entschädigung. "The worker doesn't exist", sagt Ramos heute. "In that place, there is no humanity." Diese Worte mögen hart klingen, aber sie spiegeln eine systemische Realität wider, in der menschliche Kosten als akzeptabler Kollateralschaden betrachtet werden.

Ramos betont: "Our ancestors were miners" – ihre Vorfahren entdeckten das Kupfer. Das Problem sei nicht der Bergbau an sich, sondern "die Größenordnung". Diese Größenordnung habe Chile völlig abhängig von der Extraktionsindustrie gemacht und die Entwicklung anderer Wirtschaftszweige verhindert.

Widerstand mit begrenzten Mitteln

Heute leisten die Atacameños erbitterten Widerstand: Sie hissen schwarze Flaggen an ihren Häusern, blockieren Zufahrtsstraßen zu den Minen und führen juristische Klagen unter Berufung auf internationale Indigenenrechte. Doch ihre Möglichkeiten sind begrenzt – sie verfügen weder über die politische Macht deutscher Umweltverbände noch über vergleichbare rechtliche Schutzmechanismen.

Wenn wir über die Nachhaltigkeit von KI diskutieren, konzentrieren wir uns meist auf den Energieverbrauch der Rechenzentren. Doch die sogenannten "grauen Emissionen" – jene, die bereits vor der Inbetriebnahme einer Anlage anfallen – machen einen wesentlichen Teil des ökologischen Fußabdrucks aus. Wer nur den laufenden Stromverbrauch betrachtet, erfasst nicht die volle Umweltwirkung.

Bis 2030 wird allein durch Hardware für große Sprachmodelle mit bis zu 16,1 Millionen Tonnen zusätzlichem Elektroschrott gerechnet. Hinzu kommen problematische Substanzen wie PFAS ("Ewigkeitschemikalien") bei Produktion und Entsorgung, sowie eine mangelhaft entwickelte Recyclinginfrastruktur.

Mein Anliegen ist eine differenzierte Betrachtung, die vollständigen Kosten sichtbar zu machen und auf dieser Grundlage nach besseren Wegen zu suchen. Transparenz eröffnet die Möglichkeit, gerechtere und nachhaltigere Entscheidungen zu treffen. Während Silicon Valleys Narrativ die beschleunigte Rohstoffextraktion als "Einläuten einer besseren und helleren Zukunft" darstellt und jeden Widerspruch als Behinderung von "fundamentalem Fortschritt für die Menschheit" wertet, sehe ich die Chance, Alternativen ins Gespräch zu bringen und Innovationen gezielt in eine Richtung zu lenken, die ökologische und soziale Verantwortung mitdenkt.

Ist meine Darstellung zu simpel? Der Globale Süden liefert Rohstoffe und trägt Umweltlasten, während Wertschöpfung und Kapitalerträge im Globalen Norden konzentriert bleiben?

Eine Einladung zur Diskussion.

Bei der Einführung von KI tauchten in meinen Kursen immer wieder auch kritische Bemerkungen auf. Ich habe dabei mehrfach erlebt, dass Mitarbeitende, die sich weigerten, eine Technologie einzuführen oder anzuwenden, durchaus berechtigte Anliegen hatten – genau wie hier. Wir können stolz auf unsere Umweltstandards und demokratischen Werte sein, müssen aber auch anerkennen, dass diese Standards globale Auswirkungen haben. Eine vollständige Bilanzierung generativer KI muss beide Dimensionen berücksichtigen, also nicht nur die Terawattstunden in den Rechenzentren, sondern auch die verwüsteten Landschaften und zerstörten Gemeinschaften, die ihre physische Grundlage bilden.

In den vorangegangenen Kapiteln habe ich gefragt, ob es dir recht ist, dass in deiner Nähe ein Datacenter entsteht das "summt", dass der Wasserverbrauch für industrielle KI-Anlagen in deiner Region angehoben und ausgeweitet wird. Als nächstes können wir also diskutieren, ob wir bereit sind, große Löcher in die Landschaft zu graben, um die Materialien zu gewinnen, die wir brauchen, um deutsche Daten auf deutschen Servern bearbeiten zu können. Von meiner Seite aus ist das hier eine Einladung zu einer differenzierten Diskussion über unsere digitale Zukunft.

Externe Effekte und globale Ungleichheit

Wie Deutschland zum Teil des globalen Südens werden kann.

Als Ergänzung zum vorhergehenden Kapitel – und mit der bewussten Wiederholung einiger zentraler Punkte, um die Gesamtsituation klar darzustellen – möchte ich vertiefend den Effekten von KI Nutzung nachgehen.

Es stehen globale Macht- und Ressourcenströme hinter einer einzigen Abfrage. Hinter jeder KI-Anfrage steckt ein System extremer Ungleichverteilung – mit konzentrierten Gewinnen im Globalen Norden und systematisch externalisierten Kosten im Globalen Süden. Die technischen Grundannahmen zeigen, dass die Digitalisierung nur so grün ist wie ihre physischen Grundlagen, und diese verteilen sich sehr ungleich.

Wenn ich mir Investitionen und technische Entwicklung in Europa anschaue, dann könnte es natürlich sein, dass auch wir irgendwann zum "globalen Süden" gehören.

Die Zahlen sprechen eine deutliche Sprache: Für 2025 haben Microsoft, Meta, Google und Amazon zusammen Investitionen von über 215 Milliarden Dollar angekündigt, die überwiegend in den Aufbau und die Modernisierung von KI-Infrastrukturen und Rechenzentren fließen. Allein Google investiert in diesem Jahr 75 Milliarden Dollar in KI-Infrastruktur und den weltweiten Cloud-Ausbau.

Diese Summen markieren das größte Infrastrukturprogramm, das die Technologiebranche je gesehen hat – ein globales Rüstungsrennen, das längst nicht mehr nur wirtschaftliche, sondern tiefgreifende geopolitische Auswirkungen hat. Analysten sprechen von einer „watershed moment“ für die globale KI-Branche; die Versorgung mit Hardware, Energie und mineralischen Rohstoffen wird zur Schicksalsfrage ganzer Weltregionen.

Ein Paradebeispiel struktureller Ausbeutung

Chile illustriert diese Dynamik besonders eindrücklich. Das Land begrüßt Dutzende neue Rechenzentren und wird mit Milliarden-Investitionen globaler Tech-Konzerne zum Knotenpunkt digitaler Infrastruktur. Doch die vermeintliche Modernisierung verschleiert die zugrundeliegende strukturelle Abhängigkeit: Chile liefert rund ein Viertel des weltweiten Kupfers und etwa ein Drittel des Lithiums – zentrale Rohstoffe für Server, IT-Kabel, Akkus und KI-Hardware. Nahezu 60 Prozent der chilenischen Exporte sind mineralischer Natur, wobei überproportional indigene und ländliche Regionen betroffen sind. Diese Abhängigkeit ist historisch gewachsen – industrielle Wertschöpfung findet oft nicht in Chile selbst, sondern bei ausländischen Mutterkonzernen statt; lokale Beschäftigungseffekte und Wohlstandszuwächse bleiben vielfach aus.

Die Einkommensungleichheit in Chile gehört laut aktuellen Entwicklungen und Analysen zu den größten weltweit. Entsprechend veröffentlichten Daten liegt Chiles Gini-Koeffizient – der Grad der Einkommensverteilung – bei etwa 44,9 und damit deutlich über dem OECD-Durchschnitt, was eine ausgeprägt ungleiche Verteilung der Einkommen im Land widerspiegelt.

Verschiedene entwicklungspolitische Studien und Medien wie Amerika21 und das Statistische Bundesamt berichten, dass insbesondere das oberste Prozent der Bevölkerung einen erheblichen Anteil am nationalen Einkommen und Vermögen kontrolliert, wobei je nach Quelle von rund 20 bis 25 Prozent ausgegangen wird. Die Einkommenskonzentration und die fehlende Umverteilung werden von internationalen Organisationen und Sozialforschern als zentrales Problem für soziale Entwicklung und Chancengleichheit in Chile benannt.

Der chilenische Wirtschaftssektor ist stark auf die Förderung und den Export von Rohstoffen wie Kupfer und Lithium ausgerichtet. Regierungen, OECD und Entwicklungsmedien dokumentieren, dass mehr als die Hälfte der chilenischen Exporte mineralischer Natur ist und der Rohstoffsektor eine zentrale Rolle für das Land spielt. Diese strukturelle Fixierung auf den Extraktionssektor trägt dazu bei, dass Chile in erheblichem Maße von der globalen Technologie-, Elektronik- und zunehmend auch Digitalindustrie abhängig ist; Wertschöpfung und technologische Entwicklung erfolgen meist im Ausland, während in Chile die ökologischen und sozialen Lasten der Rohstoffproduktion verbleiben.

Im Kleinen Alltäglichen etwas unterstützen

Es gibt in meiner Umgebung viele Menschen, die betonen, dass sie im Kleinen versuchen, etwas beizutragen – etwa durch Mülltrennung oder den Einkauf im Bioladen – und die dann doch mit dem Auto oder gar dem Flugzeug in den Urlaub fahren, um dort unbehandelte Mangos frisch vom Baum zu genießen. Auch ich muss mich in manchen Bereichen selbst dazuzählen, wenn es darum geht, den eigenen Lebenswandel kritisch zu prüfen und stärker am Energieverbrauch auszurichten.

Und während wir über solche Alltagsdilemmata nachdenken, kommt ein weiteres hinzu: Wenn wir noch ein Foto, noch ein Selfie, noch ein kleines Video drehen, wächst ein weltweiter Datenspeicher voller Inhalte, die vermutlich nie wieder jemand anschaut. Statt diesen Speicher von Zeit zu Zeit zu bereinigen, greifen wir lieber zum nächsten günstigen Angebot und erweitern ihn einfach. Während dieser Mechanismus unseren Alltag prägt, setzen sich die Atacameños trotz begrenzter politischer und ökonomischer Ressourcen zur Wehr. Mit Protestcamps, schwarzen Fahnen, juristischen Schritten und internationalen Petitionen machen sie auf die Verletzung indigener Rechte und die Folgen unserer Rohstoffausbeutung aufmerksam.

NGOs wie Amnesty International und Human Rights Watch dokumentieren regelmäßig Blockaden, Rechtsstreitigkeiten sowie Forderungen nach unabhängigen Umwelt- und Gesundheitsstudien zur Bewertung der realen Schäden an Menschen und Natur. Doch bei den täglichen Nachrichten-Feeds, bei den Informationen, die zuerst in Google, Perplexity und anderen Portalen erscheinen, stellt sich die Frage, wie häufig wir dort eigentlich kritische Berichterstattung über die Technik finden, die genau diese Zusammenhänge sichtbar macht.

Die Größenordnung der Kosten

Das Problem liegt nicht im Bergbau selbst, sondern in der industriellen Größenordnung und der Kompromisslosigkeit der Rohstoffausbeutung. Eine Transformation hin zu einer Singularindustrie – eng verbunden mit globalen Konzernen und volatilen Weltmärkten – blockiert die Entwicklung alternativer Wirtschaftsmodelle und verstärkt soziale Risiken. Lösungsorientierte Ansätze zeigen sich immerhin bereits in ersten politischen Gegenreaktionen.

So wird auf EU-Ebene mit dem „Critical Raw Materials Act“ diskutiert, soziale, ökologische und lieferkettenbezogene Mindeststandards für die Förderung und den Import kritischer Rohstoffe verbindlich zu verankern. Ziel ist es, Transparenz und Mitbestimmung zu stärken und damit eine Grundlage für nachhaltigere Strukturen zu schaffen.

In meiner Jugend gab es einen Spruch, der hieß: „Stell dir vor, es ist Krieg und keiner geht hin." Was würde es für uns in Deutschland bedeuten, für dich an deiner täglichen Arbeit, für dich an deinem Arbeitsplatz vor dem Computer, wenn jemand ein Plakat malen würde mit den Worten „Stell dir vor, es gibt eine Mine und keiner geht hin"? Wir werden uns sehr selbstkritisch fragen müssen, wie viel wir bereit sind zu bezahlen, um mit diesem Medium arbeiten zu können.

Von Recht-haben und Recht-machen im KI-Boom

Die Rechtfertiger des Tech-Evangeliums inszenieren den rasanten Ausbau Künstlicher Intelligenz oftmals als Schritt in eine bessere, technologisch getriebene Zukunft. Milliardeninvestitionen in KI-Infrastruktur, wie sie etwa von Microsoft, Google oder Meta getätigt werden, sollen nicht nur wirtschaftliches Wachstum, sondern auch gesellschaftliche Innovationen und Lösungen für globale Herausforderungen wie Armut und Hunger ermöglichen. Führende Unternehmer und Vordenker betonen in Medieninterviews, auf Technologie-Konferenzen oder in Strategiedebatten regelmäßig, dass KI weit mehr als reine Automatisierung verspricht – sie wird als transformative Kraft und Chance diskutiert, den Wohlstand weltweit zu steigern.

Doch hinter diesem Optimismus mehren sich kritische Stimmen aus Wissenschaft, Umwelt- und Menschenrechtsorganisationen sowie von Vertretern indigener Gemeinschaften. Auch in meinen KI-Trainings begegnen mir – und möglicherweise auch dir im Umgang mit Mitarbeitenden, Kollegen oder anderen Menschen – immer wieder diese Fortschrittsnarrative, die wir kritisch prüfen müssen. Sie hinterfragen den verheißungsvollen Diskurs und machen auf die oft vernachlässigten, teils dramatischen Nebenkosten aufmerksam.

Von den Umweltauswirkungen des enormen Ressourcen-, Energie- und Wasserverbrauchs über soziale Ungleichheiten bis hin zu den Folgen für ganze Ökosysteme. Greenpeace, das Öko-Institut und Projekte wie SustAIn mahnen an, dass KI ein Risikotreiber ist – insbesondere, wenn wirtschaftlicher Erfolg auf Kosten von Klima, Umwelt und sozialer Gerechtigkeit geht. Möglicherweise werden wir sehr früh entscheiden und erkennen müssen, was eigentlich passiert, wenn wir nach und nach feststellen, für wen bei uns die KI einen tatsächlichen Fortschritt gebracht hat.

Ich habe für dich drei Perspektiven zusammengetragen, die verdeutlichen, wie sich dieser Spannungsbogen zwischen den Verheißungen der Tech-Branche und den gesellschaftlichen wie ökologischen Schattenseiten der KI herausbildet und welche grundsätzlichen Interessen, Narrative und Auseinandersetzungen damit verbunden sind.

Sam Altman, Elon Musk und Peter Thiel haben sich mehrfach öffentlich zur Bedeutung und zum Ziel von Künstlicher Intelligenz geäußert und dabei immer wieder den engen Bezug zu wirtschaftlichem Fortschritt und unternehmerischem Erfolg betont.

Sam Altman etwa hat auf zahlreichen Tech-Konferenzen, darunter dem Bloomberg Technology Summit, sowie in Interviews und Blogbeiträgen erklärt, dass in seinen Augen KI als Hebel dient, globale Produktivität und wirtschaftliche Entwicklung zu fördern. Für Altman ist KI scheinbar ein Werkzeug, mit dem neue, skalierbare Geschäftsmodelle entstehen können und das eingesetzt werden sollte, um große gesellschaftliche Herausforderungen – wie Armut oder Zugang zu Bildung – über wirtschaftlich tragfähige Ansätze zu lösen.

Ich verstehe Elon Musk so, dass er eine stark technologiegetriebene Definition von KI vertritt, die eng mit seinen unternehmerischen Visionen verknüpft ist. In frühen OpenAI-Debatten und in der anschließenden Gründung von xAI betont Musk immer wieder, dass KI-Technologie Branchen transformieren soll und ihre ökonomische Wirkung im Zentrum steht. Für Musk sind große Technologiesprünge auch immer Sprünge in neue Märkte und Wertschöpfungsketten.

Peter Thiel unterscheidet sich, indem er – wie etwa in Podcasts, bei Investorenveranstaltungen und privaten Gesprächsrunden (z.B. im Gespräch mit Erik Torenberg) – Künstliche Intelligenz vor allem als strategische Investitionschance beschreibt: Er sucht das Potenzial von KI darin, bestehende Märkte disruptiv zu verändern, Finanzrenditen zu maximieren und Alpha für Investoren zu generieren – also jenen im Finanzwesen gebräuchlichen Begriff, der den Mehrertrag einer Investition im Vergleich zu einer Referenzgröße beschreibt. Während Thiel immer wieder nach den Fehlern des Mainstreams sucht und daraus neue Marktnischen ableitet, fragen Musk und Altman, wie sich Technologie direkt für neue, ökonomisch erfolgreiche Geschäftsmodelle "harnessen" lässt – stets mit dem Ziel, wirtschaftlichen Erfolg und Fortschritt zu verbinden.

Die jeweiligen Aussagen stammen aus Konferenzauftritten, Interviews, Podcasts, Essays und Blogbeiträgen zwischen 2015 und 2024 und wurden insbesondere im Umfeld von OpenAI-Gründung, Bloomberg-Technologie-Events, xAI-Launches (Musk) und in internationalen Tech-Debatten (Thiel) gemacht.

Globale Dimension der Ungleichheit

Ich verstehe die chilenische Mikrobiologin Cristina Dorador so, dass sie betont, wie lokale Menschen kaum die Möglichkeit haben, ihr eigenes Schicksal unabhängig von den Kräften der internationalen Wirtschaft und Politik zu denken. Diese Sichtweise ergänzt die zuvor genannten Perspektiven um eine weitere, die die Abhängigkeiten aus der Sicht einer Wissenschaftlerin im Globalen Süden beschreibt. Die KI-Revolution verschärft diese Verhältnisse zusätzlich und macht deutlich, dass es nicht allein um ökonomische oder technologische Fragen geht, sondern auch um die Möglichkeit lokaler Gemeinschaften, über ihre eigene Zukunft zu bestimmen.

Was in Chile geschieht, steht beispielhaft für ein weltweites Muster. Im Globalen Norden investieren KI-Unternehmen in Rekordhöhe, schaffen neue Wertschöpfung und stoßen gesellschaftlichen Wandel an, während die Extraktion sowie die sozialen und ökologischen Schäden bei jenen landen, die kaum vom technologischen Fortschritt profitieren.

Das Konzept der „Just Transition“ (gerechter Wandel), das in den letzten Jahren in Klimapolitik, Gewerkschaften und entwicklungspolitischen Initiativen verankert wurde, fordert zunehmend, dass Innovationen der Digitalwirtschaft nicht länger auf Kosten von Natur und historisch benachteiligten Gemeinschaften stattfinden dürfen. Auch das ist mittlerweile Teil der politischen und gesellschaftlichen Auseinandersetzung um die ethische Verantwortung digitaler Infrastrukturen.

Wenn du mehr wissen willst, dann könnte deine vertiefende Informationssammlung mit den folgenden Hinweisen weitergehen.

Aktuelle Investitionssummen und Strategien der Tech-Konzerne finden sich u.a. im Handelsblatt (2025) und bei HardwareWartung.com.

Analysen über die sozioökonomischen Folgen der Rohstoffextraktion in Chile publizieren u.a. die Deutsche Welle, Friends of the Earth Europe, und Human Rights Watch.

Politische Initiativen wie der EU Critical Raw Materials Act und Diskussionen um Just Transition werden im European Parliament Tracker und auf den Seiten entwicklungspolitischer NGOs laufend aktualisiert.

Das Recht auf Intransparenz

Die KI-Industrie steht heute exemplarisch für ein paradoxes Spannungsfeld. Während die großen Tech-Giganten gezielt wichtige Informationen zu Energieverbrauch, Umweltfolgen und Lieferketten verschleiern, eröffnen zugleich die Methoden und Werkzeuge der Künstlichen Intelligenz neue Möglichkeiten, diese Mauern zu durchbrechen und kritische Daten zu recherchieren – wie wir gleich sehen werden.

Seit den grundlegenden Studien von Emma Strubell und Timnit Gebru, die 2019 erstmals die massiven ökologischen Fußabdrücke von KI offenlegten, hat sich die Intransparenz der Branche strategisch verstärkt – immer mehr Betriebsgeheimnisse, immer weniger veröffentlichte Verbrauchswerte, immer komplexere Genehmigungsprozesse. PR-Kampagnen und effizienzbetonte Narrativen ersetzen häufig belastbare Zahlen und verhindern Nachvollziehbarkeit.

Doch genau im technologischen Fortschritt liegt auch die Chance zur Aufklärung. Unabhängige Forscherinnen und Forscher, Aktivisten, Nichtregierungsorganisationen sowie investigative Journalistinnen und Journalisten greifen heute auf Open-Source-Modelle, Transparenz-Dashboards und juristische Mittel zurück, um reale Werte zu ermitteln und die KI-Industrie mit ihren eigenen Mitteln zu präsentieren.

Werkzeuge wie das Emissions-Dashboard von Hugging Face, Klimabilanzstudien von Greenpeace oder Informationsklagen wie im Fall Google Uruguay zeigen uns, dass moderne KI nicht nur der Industrie dient, sondern auch als demokratisches Kontroll- und Transparenzinstrument eingesetzt werden kann. Solange sich Wissenschaft, Zivilgesellschaft und Öffentlichkeit den Zugang zu Daten und Methoden erhalten, bleibt KI ein mächtiger Hebel, um verschleierte Kosten sichtbar zu machen und Debatten um die Zukunft der Technologie auf eine fundierte Grundlage zu stellen.

Gerade deshalb sehe ich in Künstlicher Intelligenz mehr als nur ein Instrument der Automatisierung und Effizienz: Sie wird – richtig genutzt – zum Werkzeug für kritische Recherche, für demokratische Kontrolle und für eine gesellschaftliche Debatte, die sich nicht mit Intransparenz und Greenwashing abspeisen lassen muss.

Das Recht auf Information und Transparenz, gerade dort wo es mit enormen Umwelt- oder Sozialkosten verbunden ist, gehört zu den zentralen Aufgaben unserer Zeit – und Künstliche Intelligenz kann helfen, dieses einzufordern.

Die systematische Verschleierung beginnt

Wenn ich heute versuche, den tatsächlichen Energieverbrauch einer ChatGPT-Anfrage zu recherchieren, stoße ich auf eine Mauer des Schweigens. Das ist kein Zufall, sondern das Ergebnis einer bewussten Strategie der Tech-Giganten, die seit den ersten kritischen Studien zur Umweltbilanz von KI ihre Geschäftspraktiken grundlegend geändert haben.

Ein zentraler, vielfach nachvollziehbarer Zusammenhang liegt darin, dass Künstliche Intelligenz die Chance eröffnet, systematische Intransparenz der Branche sichtbar zu machen und Unternehmenspraktiken zu Energieverbrauch, Emissionen oder Ressourcen offenzulegen. Die Grundlage dafür legten unter anderem Emma Strubell, die 2019 den Energieverbrauch von Trainingsprozessen erstmals umfassend quantifizierte, und Timnit Gebru, die mit dem Aufsatz „Stochastic Parrots“ die sozialen und ökologischen Kosten großer Sprachmodelle kritisierte. Weil sich viele Konzerne seit diesen Arbeiten gezielt auf Schweigen, Geheimhaltung und PR-basierte Beschwichtigung verlegt haben, gewinnen Werkzeuge und Anwendungen auf KI-Basis für Öffentlichkeit und Zivilgesellschaft an Bedeutung.

Möglicherweise hast du dich auch schon gefragt, ob die Informationen, die du auf deiner Website zusammenstellst, von einem Sprachmodell ausgelesen und zu Trainingszwecken verwendet werden dürfen oder ob du dein geistiges Eigentum lieber für dich behalten möchtest.

Moderne Monitoring-Plattformen, algorithmische Analyse-Tools und investigative Methoden können in diesem Spannungsfeld genutzt werden, um Datenlücken zu schließen, Informationen zu rekonstruieren und Narrative zu überprüfen.

Doch dieser Optimismus erfordert einen kritischen Realitätssinn. Es besteht die Gefahr, dass im Schatten dieser Intransparenz – und durch die wachsende interne Nutzung von KI-generierten Inhalten in Trainingsprozessen – das zukünftige Datenmaterial immer stärker von Modellausgaben selbst durchdrungen wird. Die wissenschaftliche Diskussion zum Model Collapse zeigt, dass wenn KI-Modelle zunehmend auf ihren eigenen Output zurückgreifen, der ursprüngliche Erkenntniswert schwächer wird, Verzerrungen sich verstärken und die Überprüfbarkeit sinkt.

Für die öffentliche Kontrolle ergibt sich daraus eine klare Herausforderung. Sollte sich diese Datenkannibalisierung weiter ausbreiten, wird es für unabhängige Forschung, für zivilgesellschaftliche Akteure und auch für KI-basierte Transparenztools zunehmend schwieriger, tatsächliche und belastbare Informationen zur Branche offenzulegen oder kritisch zu überprüfen. Was heute noch als emanzipatorisches Potenzial der KI gilt – nämlich die Überprüfung der Industrie mit ihren eigenen Mitteln – könnte damit durch die Dynamik immer undurchsichtigerer Datenflüsse selbst eingeschränkt werden.

Zwischen technologischer Hoffnung und systemimmanenter Tendenz zur Abschottung und Verzerrung ist eine kritische Wachsamkeit unerlässlich. Es ist möglich, mit KI Licht in die Blackbox der KI-Industrie zu bringen – aber es bleibt fragil. Je stärker Informationsschleifen, Geheimhaltung und Model Collapse zunehmen, desto wichtiger werden politische Regulierung, offene Standards und gesellschaftliches Engagement, um Transparenz auch langfristig zu sichern.

Wenn Wissenschaftler zum Schweigen gebracht werden

Die Klimaforscherin Sasha Luccioni von Hugging Face erlebt diese Verschleierung aus nächster Nähe. Sie berichtet, dass Kolleginnen und Kollegen, die zuvor in Unternehmen mit geschlossenen Forschungsstrukturen gearbeitet haben, keine Erlaubnis mehr von ihren Arbeitgebern bekamen, gemeinsam mit ihr wissenschaftliche Arbeiten über die ökologischen Folgen von KI zu veröffentlichen.

Früher war es üblich, dass Firmen Fachleute auch außerhalb ihrer Organisation an Forschungsarbeiten teilnehmen ließen, um Wissen und Ergebnisse zu teilen. Heute jedoch unterbinden viele Unternehmen diese Kooperationen bewusst, sodass unabhängige Forschende kaum noch Einblick in reale Daten oder Prozesse erhalten. Das bedeutet, dass wichtige Informationen über den Energie- und Ressourcenverbrauch von KI unter Verschluss bleiben.

Sasha Luccioni musste deshalb ihre Forschungsstrategie ändern. Sie arbeitet nun mit externen Kollaborateuren und Akademikern wie Emma Strubell zusammen, einer Computerwissenschaftlerin, die 2019 den Energieverbrauch von Trainingsprozessen großer Sprachmodelle erstmals umfassend quantifizierte und damit die Diskussion um ökologische Kosten von KI maßgeblich angestoßen hat.

Deren Arbeit hatte Luccioni ursprünglich inspiriert. In einer Studie mit Yacine Jernite, dem Machine Learning and Society Lead bei Hugging Face, maßen sie den CO2-Fußabdruck von Open-Source-generativen KI-Modellen. Diese Modelle sind frei verfügbar und damit für Forschende zugänglich, sodass sie als Näherungswert für das dienen können, was große, geschlossene Unternehmen entwickeln, deren Daten unter Verschluss bleiben.

Die systematische Verschleierung der wahren Kosten von KI ist nicht nur ein technisches oder wissenschaftliches Problem – es ist ein fundamentales Demokratieproblem. Solange wir nicht wissen, was KI wirklich kostet, können wir nicht entscheiden, ob und wie wir sie nutzen wollen.

Hast du als Nutzer und Bürger das Recht auf diese Informationen? Ist es Zeit, dieses Recht einzufordern? Ich freue mich auf weitere interessante Diskussionen in meinen Workshops und möglicherweise mit dir.