Was Künstliche Intelligenz die Umwelt kostet – Experten der NGO AlgorithmWatch raten zur Vorsicht

Seit November 2022 verblüfft ChatGPT die Welt mit seiner Fähigkeit, sinnvolle Antworten auf komplexe Fragen zu produzieren. Der Chatbot des US-amerikanischen Unternehmens OpenAI kann Software erstellen, wissenschaftliche Abstracts erarbeiten oder politische Reden schreiben. Was in dem Hype kaum Beachtung findet: Diese Fähigkeiten haben einen enormen Preis für unsere Umwelt.

Grundlage von ChatGPT ist das sogenannte Large Language Model (LLM) GPT3. Es basiert auf 175 Milliarden Parametern. Das sind Werte, die ein Machine-Learning-Modell im Trainingsprozess lernt, und auf deren Grundlage es anschließend Ergebnisse produziert. Auch wenn mittlerweile deutlich größere Modelle entwickelt wurden, ist es ein riesiges Modell. Die Anzahl der Parameter beeinflusst, wie umfangreich die Rechenvorgänge eines KI-Modells sind. Ein 175-Milliarden-Parameter-Modell hat einen entsprechend hohen Energieverbrauch und – je nach Energiemix – auch einen sehr hohen CO2-Ausstoß. Forscherinnen und Forscher gehen davon aus, dass ein einziger GPT3-Trainingslauf 552 Tonnen CO2 verursacht. Das entspricht in etwa den Emissionen, die fünf benzinbetriebene Autos pro Jahr bei einer jährlichen Fahrleistung von 6.000 Kilometern ausstoßen.

Immer größere Modelle

Sowohl bei großen Unternehmen wie Google, Meta oder OpenAI als auch in der Forschung geht die Tendenz dahin, immer größere Modelle zu bauen – mit hohem Ressourcenverbrauch. Es überrascht daher nicht, dass bereits jetzt Rechenzentren und Datenübertragungsnetze zwei bis vier Prozent der globalen CO2-Emissionen verursachen – und damit vergleichbar mit den Umweltbelastungen durch den Flugverkehr sind. Auch wenn Server, auf denen die Rechenprozesse von KI-Modellen laufen, immer effizienter werden – die zunehmende Komplexität und Anzahl von KI-Modellen führt aktuell nicht dazu, dass Ressourcen gespart werden.

Hinzu kommt, dass ein Trainingslauf nur einen Bruchteil der Emissionen eines KI-Systems darstellt. Wissenschaftler*innen um Emma Strubell von der Carnegie Mellon University haben berechnet, dass die anfallenden Trainingsläufe im gesamten Forschungs- und Entwicklungsprozess für ein großes Sprachmodell so viel Emissionen verursachen wie fünf Autos, die über einen Zeitraum von 32 Jahren jedes Jahr 6.000 Kilometer zurücklegen – vor allem, um die richtige Modellarchitektur zu finden. Und auch die Produktion der Computer verursacht selbstverständlich Emissionen. Für das Sprachmodell Bloom wurde erstmals ein sogenanntes Lifecycle-Assessment vorgenommen. Ergebnis: Die Emissionen verdoppeln sich, wenn man die Umweltauswirkungen der Hardware einkalkuliert.

Bisher gibt es nur wenige sehr große KI-Sprachmodelle, die für Entwicklung und Training so immense Ressourcen verbrauchen. Doch auch ihre Anwendung verursacht Emissionen: Bei der so genannten Inferenz, also den Schlussfolgerungen, die das KI-System auf Basis des Modells berechnet. Je nach Anwendung kann zwar der Energieverbrauch pro Schlussfolgerung verschwindend gering sein, aber dafür passiert diese Inferenz massenhaft. Zahlen von Facebook AI belegen, dass allein in den Facebook-Rechenzentren täglich Billionen von Inferenzen erzeugt werden. Die Zahlen haben sich in den vergangenen drei Jahren verdoppelt. Um dieser Entwicklung begegnen zu können, mussten die Betreiber spezielle Hardware für die Rechenzentren anschaffen. Insgesamt stieg der Anteil der Inferenz-Infrastruktur daher innerhalb von 18 Monaten um den Faktor 2,5. Cloud-Anbieter und Hardware-Hersteller bestärken darüber hinaus mit Aussagen, dass bis zu 90 Prozent der Kosten im Machine-Learning-Prozess auf Inferenzen zurückzuführen sind, den Verdacht, dass in der Anwendung deutlich mehr Energie verbraucht wird als für Entwicklung und Training.

Ähnliches ist für ChatGPT zu erwarten, das den schnellsten je beobachteten Nutzer*innenzuwachs einer Digitalplattform überhaupt erlebt. Binnen zweier Monate ist die Zahl auf 100 Millionen gestiegen, mit 13 Millionen Menschen, die den Chatbot aktuell täglich nutzen. Es ist absehbar, dass KI-Systeme in immer mehr alltägliche Handlungen integriert werden, sei es durch Sprachassistenten zu Hause, durch KI-Text-Generatoren im Arbeitskontext oder durch Automatisierung in Industrie- oder Verwaltungsprozessen. Die geschätzten Kosten von 100.000 US-Dollar pro Tag für den Unterhalt von ChatGPT sind in diesem Zusammenhang symptomatisch. Es ist wahrscheinlich, dass ein Großteil der Kosten auf dessen Energieverbrauch zurückgeht.

Gleichzeitig sind die CO2-Emissionen nicht die einzigen Umweltauswirkungen von KI-Systemen. Rechenzentren verbrauchen nicht nur viel Energie, sondern auch sehr viel Wasser für die Kühlung. Sie werden zunehmend in sonnigen Gebieten gebaut, um Solarenergie zu nutzen. Diese Gebiete sind in der Regel aber gleichzeitig sehr trocken, so dass sich beispielsweise in Chile, das von anhaltenden Dürren geplagt wird, Proteste gegen ein Google-Rechenzentrum formiert haben. Ähnliche Proteste zeigen sich auf fast allen Kontinenten – wegen des Wasserverbrauchs der Rechenzentren, weil Stromnetze überlastet sind und Rechenzentren Oberflächen versiegeln. Und letztlich muss die genutzte Hardware hergestellt und wieder entsorgt werden. Beim Abbau der Mineralien, die für die Hardware gebraucht werden, und bei der Entsorgung leiden Menschen nicht nur unter ausbeuterischen Arbeitsbedingungen, sondern es entstehen auch massive Umweltschäden, vor allem im globalen Süden.

Nachhaltige Ansätze

Mit Blick auf die Umweltkosten von Künstlicher Intelligenz als sogenannter Universaltechnologie (General-purpose Technology), die in allen Gesellschaftsbereichen Einzug halten wird, sind diese Entwicklungen beunruhigend. Aber es gibt Ansätze, den Ressourcenverbrauch von KI-Systemen zu reduzieren und Rechenzentren nachhaltiger zu gestalten. So sollten Voraussetzungen geschaffen werden, die Abwärme von Rechenzentren effizient zu nutzen und in lokale Fernwärmesysteme einzuspeisen, damit Haushalte die Wärme zum Heizen nutzen können. Ebenso müssen dem Mantra des Bigger-is-better in der Entwicklung und Erforschung von KI Anreize entgegengesetzt werden, Modelle kleiner, schlanker, sparsamer, wiederverwertbar und trotzdem effizient zu bauen. Die benötigte Hardware sollte bestimmte Nachhaltigkeitskriterien erfüllen, durch Zertifikate nachgewiesen und recycelt werden.

Gleichzeitig braucht es vernünftige Ansätze, um flächendeckend die Emissionen von KI-Systemen zu erfassen. Denn bisher kennen fast nur Technologieunternehmen, die eigene Rechenzentren haben, Zahlen zum Verbrauch ihrer KI-Systeme. Kleine und mittelständische Unternehmen in Deutschland, die in der KI-Entwicklung tätig sind, lassen ihre Rechenvorgänge in der Regel in sogenannten Co-Location-Rechenzentren laufen. Hier genaue Zahlen zum CO2-Ausstoß zu erhalten ist schwierig, aber nicht unmöglich. Zunehmend gibt es auch Tools wie den CodeCarbon-Tracker, der es noch nachträglich erlaubt, die Emissionen eines KI-Systems zu beziffern.

Inzwischen gibt es auch Vorschläge dafür, mit gesetzlicher Regulierung und Standardisierung den Ressourcenverbrauch von KI-Systemen in den Blick zu nehmen, etwa über die Corporate Sustainability Reporting Directive der EU. Dass Unternehmen über die Nachhaltigkeitsauswirkungen von KI-Systemen werden berichten müssen, scheint daher mittelfristig unausweichlich – nicht zuletzt, weil die großen US-amerikanischen Technologieunternehmen die Richtung vorgeben und zumindest teilweise Zahlen offenlegen.

Auch das wird dann hoffentlich dazu führen, dass häufiger die Frage gestellt wird, wann es wirklich ein ressourcenintensives KI-System sein muss. Denn angesichts des aktuellen KI-Hypes werden auch Prozesse automatisiert, ohne dass der Einsatz eines KI-Systems etwas nützt. Entscheidungsträger*innen müssen deutlich stärker für den Ressourcenverbrauch von KI-Systemen sensibilisiert werden, damit er schon in den ersten Planungsschritten einen Einfluss auf Automatisierungsvorhaben hat. Das gilt auch dann, wenn KI-Systeme eingesetzt werden sollen, um Nachhaltigkeitsziele zu erreichen. Oft genug wird man dann feststellen, dass der Ressourcenverbrauch der KI-Systeme die möglichen Einsparungen übertrifft.

Aktuelle Beiträge