KI ist derzeit ein äußerst präsentes Thema und wird in verschiedensten gesellschaftlichen und politischen Kontexten diskutiert. Die Bundesregierung hat KI als einen „zentralen Treiber der Digitalisierung” identifiziert und sieht in ihrer Entwicklung große Chancen für Deutschland – insbesondere in den Bereichen Klimaschutz, Mobilität und Gesundheit. Jedoch hat der KI-Boom auch negative Auswirkungen…
Im letzten Jahr hat der von dem Unternehmen Open AI entwickelte Chatbot „ChatGPT“ einen Hype erfahren. Die Nutzerzahlen stiegen seit November letzten Jahres auf mehr als 200 Millionen. Die Anzahl der mindestens einmal im Monat aktiven Anwender hat sich damit verdoppelt, wie OpenAI mitteilte.
Die Größe des gesamten KI-Marktes beläuft sich im Moment auf rund 171 Milliarden Euro. Prognosen zufolge wird er im Jahr 2030 auf etwa 775 Milliarden Euro herangewachsen sein. „The Future of Jobs Report 2023” vom Weltwirtschaftsforum zeigt zudem, dass mehr als 75 Prozent der Unternehmen Big Data, Cloud-Computing und künstliche Intelligenz bis 2027 einführen wollen. Der KI-Markt wächst rasant, doch die Entwicklung leistungsfähiger Systeme wie ChatGPT erfordert immense Daten- und Energieaufwände.
Hungrig nach Daten und Energie
Bevor sich Künstliche Intelligenz als nützlich erweisen kann, muss sie trainiert werden. Hauptsächlich passiert das durch maschinelles Lernen. Dabei erlernt eine KI mithilfe eines Algorithmus Muster und Zusammenhänge aus Datenmengen zu erkennen und daraus Vorhersagen abzuleiten. Hierfür benötigt es möglichst große und qualitativ hochwertige Datenmengen. ChatGPT und Google Gemini werden als Large-Language-Modelle mit Hilfe riesiger Textdatenbanken aus dem Internet auf menschliche Sprache trainiert. Diese Modelle nutzen Deep-Learning-Techniken, um komplexe sprachliche Strukturen zu erfassen und zu reproduzieren.
Large-Language-Modell
Ein Large Language Modell, kurz LLM, ist ein großes, generatives Sprachmodell, das auf einer neuronalen Netzwerk-Architektur basiert und Deep-Learning-Algorithmen verwendet. Es besitzt Milliarden von Parametern – teilweise sogar mehrere hundert Milliarden. Diese werden während des sogenannten Modell-Trainings aus riesigen Datenmengen erlernt. Ein LLM ist für textbasierte Inhalte gedacht und kann natürliche Sprache verstehen, verarbeiten und generieren. Das ermöglicht den Einsatz in verschiedenen Aufgabenbereichen, wie etwa das Beantworten von Fragen, das Zusammenfassen und Erzeugen von Texten sowie für Übersetzungen.
Diese Prozesse gehen jedoch mit ökologischen Belastungen einher. Eine Studie von Forscher*innen der University of Massachusetts Amherst aus dem Jahr 2019 zeigt, dass das Training eines durchschnittlich großen KI-Modells bis zu 284 Tonnen CO₂-Äquivalent emittieren kann – fast das Fünffache der Emissionen eines Autos über dessen gesamte Lebensdauer, einschließlich seiner Herstellung.
Laut Forscher*innen von Google und der Universität Berkeley soll ChatGPT 1.287 Megawattstunden an Energie für sein Training verbraucht haben. Dabei sollen 552 Tonnen Emissionen verursacht worden sein. Grafikprozessoren hunderter Grafikkarten seien bei dem Training zum Einsatz gekommen und hätten jeweils 1.000 Watt pro Stunde an Energie verbraucht, erläuterte Prof. Ralf Herbrich, KI Experte vom Hasso-Plattner-Institut gegenüber der Nachrichtenagentur dpa. Das entspricht etwa der Energie, die ein Backofen in einer Stunde benötigt.
Nach dem Training ist vor dem Training
Nach dem energieintensiven Training setzt sich der Stromverbrauch von KI-Systemen in der Anwendungsphase fort. In der sogenannten „Inferenzphase” zieht die KI Schlussfolgerungen aus bisher ungesehenen Daten mithilfe des trainierten Wissens aus den gelernten Daten. ChatGPT verbraucht, was aus einer Untersuchung des Forschungsunternehmens SemiAnalysis hervorgeht, täglich 564 Megawattstunden Energie. Das ist unter anderem darauf zurückzuführen, dass eine enorme Rechenleistung und leistungsstarke Prozessoren erforderlich sind. Eine Untersuchung von BestBrokers zeigt, dass eine ChatGPT-Anfrage zehnmal soviel Energie wie eine Google-Suche benötigt. Eine Anfrage bei ChatGPT verbraucht 2,8 Wattstunden, während eine Google-Suchanfrage bei lediglich 0,3 Wattstunden liegt.
Stromfressende Rechenzentren
Damit KI-Anwendungen aber überhaupt genutzt werden können, benötigt es eine Infrastruktur. Diese liefern Rechenzentren. Sie braucht es, um die riesigen Datenmengen zu speichern und zu verarbeiten. Alex de Vries, Forscher an der Vrije Universiteit Amsterdam, veröffentlichte 2023 einen Artikel in der Zeitschrift Joule mit dem Titel „The growing energy footprint of artificial intelligence”. Darin beschreibt er, dass „angesichts des Booms der KI [die Sorge wächst], dass die Rechenressourcen für die Entwicklung und den Betrieb der KI-Modelle einen großen Schub im Beitrag der Rechenzentren zum globalen Stromverbrauch auslösen.” Bereits jetzt verursachen Rechenzentren, laut Prof. Ralf Herbrich, aktuell etwa vier bis fünf Prozent des weltweiten Energieverbrauchs.
„Es gibt Schätzungen, dass der Verbrauch in den nächsten Jahren auf 30 Prozent ansteigen wird”, sagte Ralf Herbrich der Nachrichtenagentur dpa. Allein in Europa wird sich der Strombedarf nach Angaben einer Prognose des Beratungsunternehmens McKinsey bis 2030 verdreifachen. Insbesondere KI treibe den Stromverbrauch an, da sie „aufgrund der neuen Generation an Grafikprozessor-Chipsätzen deutlich höhere Anforderungen an die Leistungsdichte stelle”. Der Großteil des Stroms für die Rechenzentren stamme aus fossilen Brennstoffen. Der steigende Bedarf könnte laut McKinsey den Klimawandel beschleunigen, wenn er nicht durch erneuerbare Energien gedeckt werde.
KI ist durstig
Zum hohen Energieverbrauch kommt ebenso ein hoher Wasserverbrauch durch die Kühlung der Rechenzentren. Diese beherbergen zehntausende Computer, die bei ihrer Arbeit enorme Mengen an Wärme produzieren. Um eine Überhitzung zu verhindern, werden in Rechenzentren verschiedene Kühlsysteme eingesetzt: Luftkühlungssysteme mit Verdunstungskühlung, direkte Wasserkühlung in geschlossenen Kreisläufen oder die Nutzung kalter Außenluft in kühleren Regionen. Besonders wasserintensiv sind Systeme mit Verdunstungskühlung, bei denen das Wasser durch Verdunstung verloren geht. Die Kühlung verbrauche außerdem den Großteil an Strom, erklärt Kilian Wagner, Experte für nachhaltige digitale Infrastrukturen bei Bitkom e.V. in SWR Kultur.
Eine Studie der University of California und der University of Texas schätzt den Wasserverbrauch des Trainings von ChatGPT-3, einer neueren Version des Chatbots, auf rund 5,4 Millionen Liter. Für die Kühlung allein wären 700.000 Liter nötig gewesen. Anhand dieser Zahlen ermittelte die Studie, dass ein aus 10 bis 50 Antworten bestehendes Gespräch mit ChatGPT-3, 500 Milliliter Wasser benötigt. Für eine durchschnittliche Konversation benötigt der Chatbot etwa so viel Wasser, wie in eine 0,5 Liter Flasche passt. In ihrer Studie warnen die Wissenschaftler: „Der Wasserverbrauch von KI-Modellen kann nicht länger ignoriert werden. Er muss als Teil der Bemühungen gegen die globalen Wasserprobleme als Priorität behandelt werden.”
Und was machen die großen Tech-Konzerne?
Die großen Tech-Konzerne wie Microsoft und Google mussten bereits einräumen, dass die Entwicklung von Künstlicher Intelligenz eine Belastung für die Klimaemissionen darstellt. 2020 hatte der Tech-Riese Microsoft angekündigt, bis 2030 CO₂-negativ zu werden – also mehr Kohlendioxid aus der Atmosphäre zu entfernen, als zu verbrauchen. Jedoch sind die Emissionen von Microsoft seit 2020 fast um ein Drittel gestiegen, was aus dem „Environmental Sustainability Report” 2024 des Unternehmens hervorgeht. Der Wasserverbrauch hat sich im selben Zeitraum sogar fast verdoppelt. Diese Entwicklung ließe sich vor allem auf den Bau von Infrastrukturen für Künstliche Intelligenz zurückführen. Trotzdem hat Microsoft den Ausbau von Rechenzentren für Cloud- und KI-Anwendungen bis Ende 2025 angekündigt. In Deutschland will das Unternehmen in den nächsten zwei Jahren 3,2 Milliarden Euro in die Cloud- und KI-Infrastruktur investieren.
Auch im jährlichen „Environmental Report” von Google wird klar, dass die Treibhausgasemissionen deutlich gestiegen sind – allein im vergangenen Jahr um 13 Prozent. Ausgelöst wurde dies laut Google „vornehmlich durch den gestiegenen Energieverbrauch von Rechenzentren und Emissionen in der Lieferkette”. Google hatte ebenfalls angekündigt, bis 2030 den CO₂-Ausstoß auf null bringen zu wollen.
Um den steigenden Energiebedarf decken zu können, hat Google nun einen Vertrag mit dem Unternehmen Kairos Power und somit den Kauf von kleinen modularen Atomreaktoren unterzeichnet. Das erste Mini-Atomkraftwerk soll 2030 in Betrieb genommen werden, berichtet die Tagesschau. Für Microsofts KI soll ebenfalls eine stillgelegte Anlage wieder in Betrieb gehen. Das US-Atomkraftwerk Three Mile Island war nach einem schweren Störfall stillgelegt worden und soll nun für das Unternehmen wieder ans Netz gehen.
KI als Waffe gegen seine Schattenseite
Trotz aller anfallenden Herausforderungen liegt eine der größten Stärken der KI-Anwendungen darin, riesige Datenmengen schnell und effizient zu analysieren. Im Kampf gegen den Klimawandel können diese Fähigkeiten vielfältig eingesetzt werden. So könnte KI in Bereichen wie Klimamodellierung und -vorhersage eine wichtige Rolle einnehmen. Durch die Analyse und Verarbeitung von Satelliten- oder Wetterdaten können Klimamodelle erstellt und somit Informationen für Politik und Wissenschaft geliefert werden. Die Initiative Destination Earth wurde 2022 durch die Europäische Kommission ins Leben gerufen und nutzt bereits KI, um ein genaues digitales Modell der Erde zu entwickeln. Dieses soll ermöglichen, genaue Vorhersagen über Umweltschäden zu treffen.
Künstliche Intelligenz hat auch im Bereich der Energieoptimierung bereits ein großes Potenzial. Mit Hilfe von Algorithmen können der Energieverbrauch und die Energieverteilung optimiert, sowie Verschwendung reduziert werden. In der Landwirtschaft kann KI eingesetzt werden, um Bodendaten oder Wettermuster zu analysieren und so Erkenntnisse für optimierte Bewässerung, Schädlingsbekämpfung und Düngemittelnutzung zu liefern. Auch der Verkehr kann KI in Zukunft effizienter gestalten. Zum Beispiel durch die Analyse von Verkehrsmustern, um effiziente Routen zu entwerfen.
Künstliche Intelligenz wird also zukünftig sowohl zum Klimawandel beitragen als auch Lösungen zu dessen Eindämmung bieten. Einerseits verursacht der Betrieb von KI-Systemen einen hohen Energieverbrauch, andererseits ermöglicht KI innovative Ansätze zur Bewältigung klimabezogener Herausforderungen. Schätzungen von Microsoft und PricewaterhouseCoopers zeigen sogar, dass KI das Potenzial hat, die Treibhausgas-Emissionen bis 2030 um eineinhalb bis vier Prozent zu senken. Bei dem enormen Potenzial, welches KI uns in unserem Alltag bietet, geht es im Umweltschutz darum, die negativen Auswirkungen der Technologie kritisch zu beleuchte und gleichzeitig nach Lösungen zu suchen.
Text, Titelbild: Merle Baumgärtel