Von Ismael Velasco
Ein im Oktober 2022 von der Green Software Foundation veröffentlichter Trendartikel zu Hackernoon brachte „kohlenstoffbewusstes“ Computing wohl zum ersten Mal auf den Radar der Mainstream-Entwicklergemeinschaft. Unter CO2-bewusstem Computing versteht man die Ausführung Ihrer Rechenaufgaben, wenn und wo das Stromnetz mit erneuerbarer Energie gespeist wird. Der Hackernoon-Artikel fiel mit dem ersten CO2-bewussten Software-Hackathon der Welt zusammen, der von Unternehmen wie Intel, Microsoft, Globant, UBS, Accenture, Goldman Sachs und anderen unterstützt wurde. CO2-bewusstes Computing ist in die Technologie-Trigger-Phase des Gartner-Hype-Zyklus eingetreten, und alle Anzeichen deuten auf eine rasche Beschleunigung der Akzeptanz in großem Maßstab hin.
Vollständige Offenlegung: Ich war einer der Mitwirkenden am Hackernoon-Artikel 2022 und fungierte auch als Mentor für den Carbon Hack-Hackathon, bei dem ich einige großartige Kollegen traf und wunderbar innovative Lösungen kennenlernte. Mehrere der Gewinnerprojekte traten dem Adora Foundation Incubation Lab bei und sind bis heute inspirierende Mitarbeiter. Aber als ich unter die Haube geschaut habe, deuten die Beweise darauf hin, dass die meisten CO2-bewussten Umsetzungen derzeit bestenfalls kleine bis gar keine CO2-Reduktionsvorteile bringen, im schlimmsten Fall jedoch durchaus zu einem Anstieg der CO2-Emissionen führen und Gefahren für die lokale und nationale Elektrizität darstellen können Gitter. Es besteht auch die Gefahr, dass es zu einer Greenwashing-Aktion wird oder dies bereits ist, da Big Tech die Einführung und Vermarktung kohlenstoffbewusster Computer beschleunigt, ohne deren Einschränkungen oder das Risiko unbeabsichtigter Folgen zu erwähnen.
Beispiele für die Übernahme kohlenstoffbewusster Muster durch große Technologieunternehmen sind:
Google : CO2-bewusstes Cloud Computing implementiert.
Microsoft : CO2-bewusste Software-Updates für Xbox und Windows 11 eingeführt.
Apple : iPhones in den USA verfügen über eine CO2-bewusste Ladefunktion .
KI : Kohlenstoffbewusste Ansätze werden für Implementierungen maschinellen Lernens diskutiert und gewinnen mit dem Aufkommen generativer Modelle wie ChatGPT neuen Schwung.
Blockchains : Mit Bitcoin an der Spitze haben sie sich auf komplexere Weise kohlenstoffbewusste Muster zu eigen gemacht .
Open Source Carbon-Aware Computing wird im allgemein fantastischen Kurs „Green Software for Practitioners“ empfohlen und erklärt, der von der Linux Foundation kostenlos angeboten wird, allerdings ohne die Warnhinweise, die im Mittelpunkt dieses Artikels stehen.
Das Ziel dieses Artikels besteht darin, darauf hinzuweisen, dass es zwar hilfreich ist, CO2-bewusstes Computing zu erforschen und sogar zu fördern, dies jedoch mit weitaus größerer Genauigkeit und Transparenz erfolgen muss.
Verantwortungsvolles, kohlenstoffbewusstes Computing hat das Potenzial, zur Ökologisierung der Technologieemissionen beizutragen, aber es ist unzumutbar, es zu verfolgen, ohne die Risiken zu berücksichtigen; Nachweis von Abhilfemaßnahmen und tatsächlichen Auswirkungen; und Bereitstellung von Warnhinweisen im Marketing und in der Verkaufsförderung.
Dieser Artikel ist in acht Abschnitte unterteilt. Sie bauen aufeinander auf, können aber auch einzeln gelesen werden.
Houston, wir haben ein Problem
Was Softwareentwickler über die Funktionsweise des Grids wissen müssen
Was ist dann das Problem mit CO2-bewusster Software?
Wann ist CO2-bewusste Software sinnvoll?
Vorschläge für verantwortungsvolles, CO2-bewusstes Computing
Der Elefant im Raum: steigender Computerbedarf
Wie gehen wir mit dem Thema CO2-Bewusstsein weiter? Einführung von Grid-Aware-Computing
Was kannst du tun um zu helfen?
Das Ausführen von Rechenjobs, wenn und wo das Stromnetz mit erneuerbarer Energie betrieben wird, muss bedeuten, dass die mit der Ausführung dieses Codes verbundenen Emissionen reduziert werden. Das Ausführen von Code mit erneuerbarem „sauberem“ Strom bedeutet per Definition, dass er keine „schmutzige“ Energie aus fossilen Brennstoffen verbraucht.
Wenn wir unsere gesamte Software CO2-bewusst gestalten und sie so steuern, dass sie dann läuft, wenn und wo das Stromnetz hauptsächlich aus erneuerbaren Quellen gespeist wird, dann können wir sicherlich sicher sein, dass wir unsere Auswirkungen auf die Umwelt effektiv und innovativ reduziert haben. Rechts?
Dies scheint selbstverständlich, und die meisten Green-Computing-Communitys scheinen dieser Meinung zu sein. Wir sind mit Volldampf unterwegs und kohlenstoffbewusstes Computing wird derzeit von Big Tech in großem Umfang angenommen. Wir sind also am Ziel, ja?
Nicht so schnell.
Wer hat eigentlich innegehalten, um zu bestätigen, ob diese scheinbar offensichtlichen Behauptungen wahr sind?
Macht es tatsächlich einen spürbaren Unterschied, unsere Software so zu programmieren, dass sie reaktionsschnell nach Zeiträumen und Standorten mit Strom mit geringerer CO2-Intensität sucht?
Wo sind die Studien, die das belegen können?
Wenn diese Muster in großem Maßstab umgesetzt werden, kann der Technologiesektor dann mit Recht sagen, dass er tatsächlich zur Reduzierung der weltweiten Kohlendioxidemissionen (CO2) beigetragen hat?
Schließlich muss der IKT-Sektor auf dem Weg sein, seine Kohlenstoffemissionen bis 2030 um 45 % zu reduzieren, um mit den Zielen des Pariser Abkommens , die globale Erwärmung auf 1,5 °C zu begrenzen, in Einklang zu stehen.
Diejenigen von uns, die an diesem Schreiben beteiligt waren, haben innegehalten, um diese Fragen zu stellen. Wir geben zu, dass wir nicht die Ersten sind, denen dies gelungen ist [ 1 ] [ 2 ].
Basierend auf unserer Untersuchung glauben wir, dass es Beweise dafür gibt, dass die derzeitigen CO2-bewussten Ansätze größtenteils sinnlos sein könnten. Darüber hinaus könnten sie tatsächlich die Emissionen erhöhen und gleichzeitig den Grundstein für die nächste Generation des Greenwashings bei Big Tech legen. Positiv zu vermerken ist, dass die Erkenntnisse auch darauf hindeuten, dass es Möglichkeiten zur Umsetzung solcher Ansätze gibt, mit denen die Wahrscheinlichkeit größer ist, dass Emissionen reduziert und schädliche Auswirkungen vermieden werden. Vor diesem Hintergrund glauben wir, dass unsere große kollektive Aufsicht darin besteht, die RIESIGEN Vorbehalte gegenüber CO2-bewusstem Computing nicht zu erwähnen.
Wir untersuchen diese Bedenken und Vorbehalte. Wir gehen zunächst auf die technischen Details ein, wie Stromnetze in der Praxis funktionieren. Wir gehen weiter der Frage nach, wie aktuelle kohlenstoffbewusste Softwareansätze diese Realitäten offenbar nicht berücksichtigen. Anschließend befassen wir uns mit den größeren Fragen, mit denen sich der Technologiesektor auseinandersetzen muss, um sinnvolle Einsparungen zu erzielen. Der Beitrag schließt mit einem Vorschlag für eine Wiederholung der aktuellen CO2-bewussten Richtlinien für eine verantwortungsvollere und effektivere Umsetzung, die wir „Grid-Aware Computing“ nennen.
[1] – https://github.com/Green-Software-Foundation/carbon-aware-sdk/issues/222
Was ist möglicherweise so falsch daran, die Rechenlast als Reaktion auf die Kohlenstoffintensität zu verlagern? Um diese Frage zu beantworten, müssen wir zunächst aus der Vogelperspektive betrachten, wie Stromnetze in der Praxis funktionieren. Sobald wir dieses Verständnis haben, können wir beginnen zu erkennen, wo die Probleme liegen.
Die im Netz verfügbare Strommenge schwankt nicht frei. Es wird im Voraus kontrolliert und geplant, sodass an jedem Tag eine konstante Strommenge zur Verfügung steht (auch Versorgung genannt). Es gibt auch Kontrollen, um sicherzustellen, dass eine konstante Menge an Strom verbraucht wird (d. h. Nachfrage). Ein Hauptziel für die Betreiber eines Netzes besteht darin, diese beiden Seiten, Angebot und Nachfrage, zu überwachen und sicherzustellen, dass sie im Gleichgewicht sind.
Eventuelle Ungleichgewichte lösen schwerwiegende Probleme aus, die meist durch eine Änderung der Frequenz hervorgerufen werden. Wenn die Frequenz plötzlich ansteigt oder abfällt, kann dies zu Schäden an elektrischen Geräten und schließlich zu Stromausfällen und Stromausfällen führen.
Die erwartete Nachfrage für einen bestimmten Tag wird anhand von Daten vorhergesagt. Dadurch können die Netzbetreiber sicherstellen, dass ausreichend Strom zur Verfügung steht. Normalerweise gibt es keine großen Nachfrageunterschiede von einem Tag zum anderen. Es gibt einige tägliche Schwankungen, wenn die Leute aufstehen, zu Bett gehen usw. Aber normalerweise ist das vorhersehbar genug.
Auch saisonale Unterschiede wirken sich auf die Nachfrage aus. Beispielsweise besteht in den Wintermonaten eine höhere Nachfrage, da die Tage kürzer und kälter sind und die Menschen mehr Licht und Wärme benötigen. Aber auch hier ermöglichen uns die verfügbaren Daten, solche Schwankungen vorhersehbar vorherzusagen.
Die Stromversorgung erfolgt hauptsächlich über drei Wege:
Die jeweils erzeugten Stromanteile werden als Brennstoffmix bezeichnet.
Kurzanleitung: Kraftstoffmischung
Die kombinierten Quellen, aus denen Strom erzeugt wurde. Der durchschnittliche Brennstoffmix variiert von Netz zu Netz.
Diese Darstellung stammt von https://ourworldindata.org/electricity-mix
Sie variiert auch in jedem lokalen Netz, oft stündlich. An jedem beliebigen Tag werden erneuerbare Energien an den meisten Orten nur einen Bruchteil der täglichen Versorgung ausmachen. Der Rest wird durch die Verbrennung fossiler Brennstoffe gedeckt.
Es gibt zwei Szenarien, in denen es für die Netzausgleichsverantwortlichen erforderlich wäre, Maßnahmen zu ergreifen, um sicherzustellen, dass Nachfrage und Angebot im Gleichgewicht bleiben.
Lassen Sie uns anhand einiger stark vereinfachter, hypothetischer Beispiele veranschaulichen, welche Optionen häufig zur Bewältigung dieser Szenarien verwendet werden.
Das Szenario: Es ist eine Winternacht in Paris und um 20 Uhr schalten alle gleichzeitig das Licht aus.
Das ist unerwartet. Es würde zu viel Energie ins Netz eingespeist werden, aber diese Energie könnte nirgendwo hingehen, weil es keinen Bedarf dafür gibt.
Um Nachfrage und Angebot im Gleichgewicht zu halten, besteht eine Reaktion darin, die Angebotsmenge zu verringern. Dies wird als Kürzung bezeichnet.
Kurzanleitung – Kürzung
Eine Drosselung ist eine Reduzierung der Leistung eines Generators im Vergleich zu dem, was er ansonsten mit den verfügbaren Ressourcen produzieren könnte, typischerweise auf unfreiwilliger Basis. Dies kann zum Ausgleich von Energieangebot und -nachfrage oder aufgrund von Übertragungsbeschränkungen geschehen. Wikipedia .
Was passiert: Die häufigste Art, den Strom einzuschränken, besteht darin, den Preis zu senken. Dadurch sollen Lieferanten dazu angeregt werden, weniger zu produzieren, was bedeuten würde, dass sie bestimmte Lieferquellen „reduzieren“ oder abschalten.
Das bedeutet, dass Energieversorger sowohl eine wirtschaftliche als auch eine praktische Entscheidung treffen müssen. Der praktische Teil ergibt sich aus der Tatsache, dass sich nicht alle Energiequellen gleich leicht vergrößern oder verkleinern lassen. Die folgende Tabelle mit einem Vergleich der Energiequellen soll Ihnen helfen zu verstehen, warum.
Energiequelle | Skalierbarkeit |
---|---|
Erneuerbare Energien – Solar, Wind, Wasserkraft | Unflexibel – Sie können nicht einfach die Windstärke oder die Sonnenscheinmenge reduzieren. |
Nuklear | Weniger flexibel – Erhebliche Sicherheits- und Betriebsherausforderungen bei plötzlich wechselnder Leistung. |
Fossiler Brennstoff – Kohle | Flexibel – Die Ausgabe kann nach oben oder unten skaliert werden, wird jedoch teurer, wenn mehr Ausgabe benötigt wird. |
Fossiler Brennstoff – Gas | Extrem flexibel – Sehr schnelle Skalierung der Ausgabe nach oben oder unten. |
In unserem Beispiel liegt Paris am französischen Stromnetz, das zu einem großen Teil durch Kernenergie angetrieben wird . Diese Energiequelle reagiert nur langsam auf plötzliche Nachfrageänderungen. Es könnte also Szenarien geben, in denen das Angebot größer als die Nachfrage ist und das Netz dennoch aus dem Gleichgewicht gerät.
Anbieter könnten versuchen, zusätzlichen Vorrat in Batterien, Pumpspeicherkraftwerken oder anderen Mechanismen zu speichern.
Was passiert: Die Speicherung überschüssigen Stroms in Batterien oder durch Pumpspeicherkraftwerke ist ein weiterer Hebel, der betätigt werden kann, um das Netz ins Gleichgewicht zu bringen. Durch die Umleitung des zusätzlichen Angebots an einen Speicherort können Betreiber Zeit gewinnen, um das Gesamtangebot an die neue, geringere Nachfrage anzupassen.
Wenn der Bedarf wieder hoch ist, kann die gespeicherte Energie kontrolliert wieder ins Netz eingespeist werden.
Was aber, wenn der Speicher nicht ausreicht oder nicht im Netz verfügbar ist? Es gibt noch eine letzte Option, um die Dinge im Gleichgewicht zu halten.
Das Netz nutzt Anreize, um den Stromverbrauch künstlich in die Höhe zu treiben, um die Nachfrage zu steigern und das verbleibende Überangebot auszugleichen. Dies nennt man Nachfragemanagement .
Was passiert: Das Stromnetz bietet Unternehmen einen Anreiz, ihren Stromverbrauch über das Maß hinaus zu steigern, das sie normalerweise benötigen, obwohl in letzter Zeit einige verbraucherbasierte Systeme getestet werden. Höchstwahrscheinlich durch einen Sondertarif, der zu diesen Zeiten günstigeren Strom bietet. Auf diese Weise kann das Netz die Stromnachfrage so weit steigern, dass ein neues Gleichgewicht zwischen Angebot und Nachfrage erreicht werden kann.
Daher ist es höchst unwahrscheinlich, dass ein ungeplanter Rückgang des Stromverbrauchs, wie im Beispiel der Pariser Ampel, zu einer entsprechenden Reduzierung der Emissionen führt. Über einen ganz bestimmten, gesetzlich vorgeschriebenen Bereich hinaus gleicht das Netz ungeplante Einbrüche so aus, dass die Einsparungen zunichte gemacht werden. Die Nettoemissionsmenge an einem bestimmten Tag wird in fast allen Fällen ungefähr gleich sein.
Es laufen interessante Forschungen und Diskussionen darüber, wie Rechenzentren hier Teil der Lösungen sein können. Ein großartiges Beispiel, um in ein gestrecktes Gitter einzutauchen? Verwalten des Energiebedarfs und der Netzkapazität von Rechenzentren , veröffentlicht im Okt. 2023.
Das Szenario: Es ist eine ungewöhnlich heiße Sommernacht in Tokio, und um 20 Uhr schalten alle gleichzeitig ihre Klimaanlagen ein.
Das ist unerwartet. Es gäbe zu viel Energie nachgefragt, also zu viel Nachfrage, und nicht genügend Energieangebot, um diese Nachfrage zu decken.
Optionen: Die Techniken zur Bewältigung dieser plötzlichen Anstiege sind weitgehend das Gegenteil der oben genannten.
Erhöhen Sie den Preis, um Anbietern einen Anreiz zu geben, mehr Strom ins Netz einzuspeisen. Bedenken Sie aus der obigen Tabelle, dass erneuerbare Energien und Kernenergie nicht leicht skalierbar sind. Daher stammt das Angebot bei ungeplanten Nachfragespitzen häufig aus fossilen Brennstoffquellen, die mehr Kohlenstoffemissionen verursachen.
Nutzen Sie alles, was im Speicher verfügbar ist – Batterien oder Pumpspeicherkraftwerke.
Bieten Sie Anreize, um die Nachfrage künstlich zu reduzieren.
Daher ist es sehr wahrscheinlich, dass ungeplante Spitzen im Stromverbrauch, wie das Beispiel der Klimaanlage in Tokio, zu erhöhten Emissionen führen. Dies ist darauf zurückzuführen, dass Energieversorger ihr Angebot schnell an die Nachfrage anpassen müssen und dass dies am einfachsten durch die Nutzung fossiler Energiequellen – oft Gas, manchmal Kohle – zu erreichen ist.
Daraus lässt sich erkennen, dass ungeplante Nachfragespitzen oder -rückgänge nicht gut für die Netze sind. Ungeplante Abfälle führen nicht zu einer tatsächlichen Reduzierung der erzeugten Strommenge und haben daher keine Nettoauswirkungen. Ungeplante Anstiege müssen bewältigt werden und werden in der Regel mit einer Ausweitung der Produktion fossiler Brennstoffe bewältigt.
Darüber hinaus führt allein die schnelle Erhöhung oder Reduzierung des Angebots zu zusätzlichen Emissionen. Viele Stromquellen sind für stationäre Bedingungen ausgelegt, sodass plötzliche Änderungen zu einem ineffizienten Betrieb führen können. Durch das Hochfahren können auch ältere und weniger effiziente Anlagen ans Netz gebracht werden. Diese werden als „ Peaking Plants “ eingesetzt, um plötzliche Nachfragespitzen zu decken. Auch An- und Abfahrvorgänge können besonders intensiv sein.
All dies bedeutet zusätzliche Emissionen zusätzlich zur Produktion des zusätzlichen Stroms selbst. Es mag geringfügig sein und durch die Umstellung auf Batteriebetrieb abgemildert werden, ist aber dennoch ein zusätzlicher negativer Effekt dieses Szenarios.
Wenden wir uns nun der Untersuchung zu, wie das Raster in Verbindung mit den aktuellen CO2-bewussten Softwaremustern funktioniert.
Bisher konzentrierten sich CO2-bewusste Softwaretechniken auf die Chancen, die sich durch veränderte Kraftstoffmischungen auf der Angebotsseite ergeben. Wie wir oben gesehen haben, geht es bei einem effektiven Netzmanagement um die Aufrechterhaltung eines Gleichgewichts. Ein Verstoß gegen dieses Gleichgewicht hat Konsequenzen, und die Auswirkungen führen größtenteils zu erhöhten CO2-Emissionen.
Kurzreferenz – Zeitversetzte Berechnung
Suchen Sie nach der Tageszeit, zu der der Strom am umweltfreundlichsten ist, z. B. wenn der Energiemix am wenigsten fossile Brennstoffe enthält, und legen Sie Rechenjobs so fest, dass sie zu diesem Zeitpunkt ausgeführt werden. Dies bedeutet, dass die Tageszeit, zu der die Jobs ausgeführt werden, dynamisch ist und sich häufig ändert.
Lassen Sie uns dieses Konzept anhand eines einfachen Beispiels veranschaulichen. Angenommen, Sie führen jeden Tag einen einzelnen, geplanten Datenbanksicherungsauftrag aus. Sie beschließen, die geplante Zeit für die Ausführung dieser Aufgabe abhängig von der Netzmischung für einen bestimmten Tag zu ändern. Der Strom für diese Rechenleistung ist bereits in der täglichen Strombedarfsplanung Ihres Netzes berücksichtigt.
Angenommen, Ihr lokales Stromnetz produziert im Laufe eines Tages 100 Tonnen CO2, indem es den von ihm gelieferten Strom erzeugt. Und im Laufe eines Tages liefert Ihr lokales Netz Strom mit folgender Mischung:
Uhrzeit | Erwartete Nachfrage | Fossiler Brennstoffmix | Erneuerbare-Energien-Mix |
---|---|---|---|
Morgen | Niedrig | 80 % | 20 % |
Nachmittag | Hoch | 50 % | 50 % |
Nacht | Niedrig | 80 % | 20 % |
Denken Sie daran, dass das Netz bereits den gesamten erwarteten Bedarf für diesen Tag eingeplant hat. Auf dieser Grundlage wird Strom erzeugt, der 100 Tonnen CO2 erzeugt. Wenn Sie sich also für die Ausführung Ihres Backup-Auftrags entscheiden, werden an diesem Tag immer noch 100 Tonnen CO2 vom Netz erzeugt.
Wenn Sie Ihren Job so verschieben, dass er nachmittags ausgeführt wird, wenn der Anteil an erneuerbaren Energien am höchsten ist, ändert sich dies nicht wirklich an den Emissionen des Tages. Indem Sie Ihren regulären Rechenjob während dieses erneuerbaren Zeitfensters ausführen, haben Sie die Emissionen der Tage lediglich verdrängt, nicht reduziert.
Kurzreferenz – Emissionsverdrängung
Tritt auf, wenn die Emissionen aus einer Quelle oder in einem Bereich erfolgreich reduziert werden, gleichzeitig aber die Emissionen aus einer anderen Quelle oder einem anderen Bereich ansteigen.
Eine gute Analogie ist ein Zug, bei dem einige Waggons „grün“ und andere „schmutzig“ sind. Wenn Sie trotzdem mit dem Zug fahren und in einen grünen Waggon umsteigen, hat dies keinen Einfluss auf die Gesamtbelastung des gesamten Zuges. Stattdessen wird jemand anderes in der schmutzigen Kutsche reisen. Die Emissionen dieses Zuges sind immer noch genau gleich.
Zero Carbon Displacement erfordert eine strenge Analyse des gesamten Netzökosystems, um sicherzustellen, dass keine zusätzliche auf fossilen Brennstoffen basierende Energie zur Nutzung gezwungen wird, bevor sie beansprucht werden kann.
Tatsächlich kann Ihre Zeitverschiebung dazu führen, dass mehr als 100 Tonnen CO2 pro Tag erzeugt werden. Denn auch nachmittags ist an diesem Tag die Nachfrage groß. Wenn Sie sich dazu entschließen, Ihren Backup-Auftrag auf diesen Zeitpunkt zu verschieben, erhöhen Sie den (ungeplanten) Bedarf im Netz. Infolgedessen muss möglicherweise schnell die zusätzliche Versorgung erhöht werden, um das Netz auszugleichen. Wie bereits erwähnt, wird diese zusätzliche Versorgung höchstwahrscheinlich aus einer Energiequelle aus fossilen Brennstoffen stammen.
Zeitverschiebungen können aufgrund dieser sich ständig ändernden Nachfrageschwankungen auch zu Netzinstabilität führen.
Bisher wurden keine tatsächlichen Gewinne erzielt. Sie haben nicht zur Reduzierung der CO2-Emissionen beigetragen. Als Einzelperson hat Ihr zeitversetzter Ansatz wahrscheinlich kaum Auswirkungen auf Sie. Allerdings können die Dinge schädlich werden, wenn dies in großem Maßstab geschieht. Aber es gibt Möglichkeiten, die Zeitverschiebung so zu verfeinern, dass sie tatsächlich hilfreich ist, worauf wir noch näher eingehen werden.
Kurzreferenz – Standortverschiebende Berechnung
Suchen Sie nach Netzen, die einen umweltfreundlicheren Brennstoffmix als Ihr lokales haben, und senden Sie Rechenjobs zur Ausführung auf Servern in diesem Netz statt auf Ihrem eigenen.
Um die Idee zu veranschaulichen, stellen wir uns vor, Sie wären ein fiktiver globaler Konzern namens Stoogle Tech. Jede Landesniederlassung muss täglich ein Backup ihrer Datenbanken durchführen. Stellen Sie sich nun vor, dass jede Niederlassung feststellt, dass das lokale Stromnetz in Lissabon derzeit zu 80 % mit erneuerbaren Energien und zu 20 % mit fossilen Brennstoffen betrieben wird, und dass sie alle unabhängig voneinander entscheiden, ihre Backup-Jobs dorthin zu schicken.
Plötzlich trifft eine ganze Menge zusätzlicher Nachfrage auf das Stromnetz Lissabons. Die Nachfrage für den Tag wird nun nicht mehr die erwarteten 100 %, sondern beispielsweise 110 % betragen.
Das Problem besteht darin, dass im lokalen Netz Lissabons immer noch nur 80 % der erneuerbaren Energie verfügbar sind. Um ein Gleichgewicht zwischen Stromnachfrage und -angebot zu gewährleisten, wird Lissabon diese zusätzlichen 10 % höchstwahrscheinlich mit fossilen Brennstoffen decken. Die internationale Initiative zur kohlenstoffbewussten Standortverlagerung hat gerade zusätzliche Emissionen in das Lissabonner Netz eingespeist.
Es zeigt sich erneut ein Verdrängungseffekt . Diese Rechenjobs haben die Emissionen aller anderen Länder nach Portugal verlagert, bei gleichen Nettoemissionen weltweit. Oder hat es?
Tatsächlich ist es wahrscheinlich noch schlimmer. Die Steigerung der Nachfrage in Lissabon und die Stimulierung des dortigen überdurchschnittlichen Verbrauchs fossiler Brennstoffe haben zu einem Nettoanstieg des CO2-Ausstoßes geführt. Außerdem ist der Strombedarf der einzelnen Regionen aufgrund der Arbeitsplatzverlagerung möglicherweise nicht tatsächlich gesunken. Die Emissionen in diesen lokalen Netzen sind immer noch ungefähr gleich. Der weltweite Nettostromverbrauch stieg ebenso wie der CO2-Ausstoß.
Die Auswirkungen werden mit zunehmender Größe immer schlimmer. Stellen Sie sich nun vor, dass nicht nur Stoogle Tech, sondern auch Bircosoft Tech, Wapple Tech und Macebook Tech auf den Standortwechsel-Zug aufspringen. Nehmen wir an, alle verfügbaren Server werden über nationale Netze mit Strom versorgt. Plötzlich erreicht Lissabons Strombedarf 120 % und die lokale Netznachfrage geht zurück.
Ortsverschiebende Computerjobs machen in diesem Beispiel keinen positiven Unterschied, genau wie zeitversetztes Arbeiten, aber es erhöht die Emissionen und birgt möglicherweise das Risiko einer Netzinstabilität für andere. In dieser Hinsicht sind die gut gemeinten Bemühungen der Konzerne schlechter als die derjenigen, die ihre Jobs einfach dann erledigen, wenn ihnen danach ist, oder besser noch, sie auf vorhersehbare Weise erledigen.
Steigende und fallende Spitzen beim rechentechnischen Strombedarf können in der Tat Netze zerstören, insbesondere solche, die weniger belastbar sind. Dies geschah unter anderem in Venezuela , Iran , Georgien und Kasachstan , als der Bitcoin-Abbau zu einem entsprechenden Anstieg der rechenspezifischen Stromnachfrage führte.
Letztendlich variieren die Probleme von Netz zu Netz und hängen davon ab, wie belastbar jedes Netz ist. Um Probleme zu verursachen, bräuchte es einen großen Anstieg in stark diversifizierten Netzen wie Europa oder in Netzen, die stark in die Speicherung investiert haben, wie Kalifornien. Aber es könnte ziemlich bescheiden sein, um schwerwiegende Auswirkungen in weniger widerstandsfähigen Netzen wie Südaustralien mit weniger Netzverbindungen und weniger Energie aus fossilen Brennstoffen für die Versorgungsreaktionen oder in Indien oder Südafrika mit geringerer Energievielfalt auszulösen.
Der entscheidende Punkt ist, dass die bloße Lesung „x Rechenjob wird zeitlich so festgelegt, dass sie ausgeführt wird, wann und wo das Netz am umweltfreundlichsten ist “ nicht so ausgelegt werden sollte, dass dadurch die Emissionen in irgendeiner Weise reduziert wurden, und dass dies perverse Auswirkungen haben könnte.
Lassen Sie uns die Frage „Ist CO2-bewusstes Computing einfach schlecht?“ ganz klar beantworten.
Nein. Wir beabsichtigen nicht, die Kernkonzepte CO2-bewusster Software zu verunglimpfen.
Das Kernkonzept, dass Rechenjobs entsprechend der verfügbaren Elektrizität verlagert werden, ist fundiert.
Der Kritikpunkt besteht darin, dass aktuelle Ansätze niemals mit Warnhinweisen versehen seien.
Wir vergessen nicht zu erwähnen, dass Zeit- und Ortswechselmuster nur unter bestimmten Umständen hilfreich, in den meisten Fällen zwecklos und in anderen möglicherweise schädlich sind. Es besteht die allgemeine Annahme, dass Zeit- und Ortsverschiebungen umweltfreundlichere Methoden zur Ausführung von Berechnungen sind, ohne Überprüfung und ohne Risikominderung.
Wir befürchten, dass der aktuelle Ansatz die Nachhaltigkeitsbemühungen der Technologiebranche tatsächlich behindert, selbst wenn er sie unterstützen soll. Erstens: Die Botschaft zu formulieren, dass jedes Unternehmen, das Zeit- und Standortverlagerungen einführt, jetzt etwas umweltfreundlicher ist – ein Rezept für Greenwashing. Zweitens durch die Förderung von Mustern, die, wenn sie in großem Umfang ohne Risikoanalyse oder -minderung übernommen werden, wahrscheinlich schädlich sind.
Am wichtigsten ist, dass wir keine CO2-bewusste Software sehen, die den Elefanten im Raum sinnvoll anspricht. Die ökologische Herausforderung beim Rechnen besteht nicht in erster Linie in der Energieoptimierung, sondern im Energiebedarf.
Seit fast einem Jahrhundert ist die Menge an Strom, die für dieselbe Rechenaufgabe verbraucht wird, exponentiell kleiner geworden. Theoretisch sollte dies bedeuten, dass der Technologiesektor umweltfreundlicher ist als je zuvor. Diese außergewöhnlichen Effizienzgewinne wurden jedoch durch den Anstieg des Strombedarfs für Computer in den Schatten gestellt .
Carbon-Aware Computing ist eine neuartige Form der Optimierung. Ziel ist es, im Wesentlichen die gleichen Berechnungen durchzuführen und dabei weniger Strom aus fossilen Brennstoffen zu verwenden, indem mehr erneuerbare Energien zum Einsatz kommen. Aber jegliche Gewinne aus einer solchen Optimierung werden bedeutungslos sein, wenn unser Strombedarf schneller wächst als unsere Optimierungsgewinne.
Wir glauben, dass es eine Möglichkeit gibt, CO2-bewusstes Computing neu zu gestalten, um sowohl Optimierung als auch Nachfrage zu berücksichtigen und nicht nur kosmetische Verbesserungen am „Business As Usual“ vorzunehmen. Die Schäden, die der rasante Klimawandel für die Bevölkerung auf der ganzen Welt verursacht, erfordern, dass wir es besser machen, und wir glauben, dass der Technologiesektor über genügend Ressourcen verfügt, um dieses Problem sinnvoll anzugehen .
Es gibt zwei Möglichkeiten, wie die Logik des CO2-bewussten Ansatzes die Emissionen tatsächlich reduzieren kann.
Erster Ansatz: Zeitversetztes oder ortsversetztes Berechnen bis zu einem Zeitpunkt, zu dem die Nachfrage von Natur aus niedrig ist, und dann die Nutzung von Strom, der andernfalls eingeschränkt würde. Dies kommt dem aktuellen Ansatz sehr nahe, priorisiert jedoch die Stromnachfrage vor dem Strommix.
Zweiter Ansatz: Rechenjobs mit erneuerbarem Strom betreiben, der ins Netz eingespeist wird. Die kürzeste maßgebliche Zusammenfassung dieser Argumentation stammt aus einer Untersuchung des Weißen Hauses zum Krypto-Mining (siehe Seite 24). Im relevanten Teil heißt es:
„Es gibt im Wesentlichen zwei Möglichkeiten … die Nutzung von Netzstrom würde zu keinen direkten Treibhausgasemissionen führen:
- Bau oder Beauftragung neuer sauberer Stromquellen oder
- Nutzung vorhandenen erneuerbaren Stroms, der andernfalls durch das Netz eingeschränkt würde.
Wenn ... Strom aus vorhandenen erneuerbaren Quellen stammt, verdrängt er kurzfristig die Treibhausgasemissionen und verlagert die Nutzer erneuerbarer Quellen auf fossile Brennstoffquellen. Dies liegt daran, dass Kohle und Erdgas häufig für die Stromerzeugung für jede zusätzlich in den Vereinigten Staaten nachgefragte Stromeinheit sorgen. Da der Anteil erneuerbarer Energiequellen konstant bleibt, der Strombedarf jedoch steigt, wird wahrscheinlich zusätzlicher fossiler Strom eingespeist. Diese Verschiebung führt zu keiner Nettoveränderung oder zu einem Anstieg der globalen Gesamtemissionen durch einen Prozess namens Leckage.“
Auf der Grundlage des oben Gesagten haben wir drei Vorschläge für einen neuen Ansatz für CO2-bewusstes Computing, um dessen positive Auswirkungen zu maximieren und seine Risiken zu mindern. Zwei davon stellen wir in diesem Abschnitt vor.
Zeiten geringer Nachfrage fallen höchstwahrscheinlich mit Zeiten überschüssiger erneuerbarer Energie zusammen, die andernfalls zur Aufrechterhaltung der Netzstabilität eingeschränkt, also verschwendet würden. Dies ist genau das Szenario, in dem Zeitverschiebung und Ortsverschiebung tatsächlich zu einer Reduzierung der Emissionen durch Computer führen. Unser Rechner wird mit erneuerbarem Strom betrieben, den niemand sonst nutzt, und erzeugt daher keine direkten Emissionen.
Wie wir in „Was Software-Ingenieure über die Funktionsweise des Netzes wissen müssen“ untersucht haben, hat die gezielte Festlegung auf Zeiten mit geringer Nachfrage intrinsische Vorteile für die Umwelt, unabhängig davon, wie viel des Netzes mit erneuerbaren Energien betrieben wird. Es kann dazu beitragen, dass das Netz Hoch-/Ausfälle vermeidet und zur Netzstabilität beiträgt. Beides hat Vorteile für die Umwelt, die Gesellschaft und die Wirtschaft.
Wenn wir unsere Rechenleistung auf der Grundlage der Netznachfrage in einer sehr vorhersehbaren und stabilen Weise planen, erzeugen wir keine unvorhersehbaren täglichen Spitzen und maximieren die Chancen, mit ansonsten eingeschränkter erneuerbarer Energie zu arbeiten und unsere Emissionen tatsächlich zu reduzieren.
Wie unterscheidet sich dies vom derzeit vorherrschenden Ansatz, Zeiten mit geringer Kohlenstoffintensität im Netz anzustreben?
Beispielsweise könnte ein Gebiet mit einer starken Solarinfrastruktur an sonnigeren und heißeren Tageszeiten über einen umweltfreundlicheren Energiemix verfügen. Dann könnten auch Leute am Arbeitsplatz sein, sodass man sowohl eine umweltfreundlichere Mischung als auch eine mittlere Nachfrage hätte. Zu diesem Zeitpunkt wird die Solarenergie vollständig genutzt und es wird keinen Überschuss/Einbruch geben. Eine CO2-Intensitäts-API könnte darauf hindeuten, dass 11 Uhr ein guter Zeitpunkt für die Berechnung ist, aber dadurch werden die Emissionen überhaupt nicht reduziert. Es macht möglicherweise keinen Unterschied, oder wenn der Strombedarf von Rechenjobs als Reaktion auf diese API um 11 Uhr groß genug ist, ist die Wahrscheinlichkeit, dass zusätzliche fossile Brennstoffe benötigt werden, viel größer, was bedeutet, dass Sie zusätzliche Emissionen verursachen.
Da außerdem das Angebot an erneuerbaren Energien im Gegensatz zur Stromnachfrage so unvorhersehbar ist, führt die zeitliche Abstimmung einer großen Rechenleistung, die ausgelöst wird, wenn die CO2-Intensität des Netzes niedrig ist, zu Unvorhersehbarkeit im Netz, was zu Instabilität führt und die Wahrscheinlichkeit negativer Auswirkungen auf die Umwelt, die Gesellschaft und die Gesellschaft enorm erhöht wirtschaftlich.
Das bedeutet, dass es kein offensichtliches Szenario gibt, in dem die gezielte Festlegung auf Zeiten mit geringer Nachfrage nicht positiv für die Umwelt wäre. Es gibt jedoch viele Szenarien, in denen die gezielte Festlegung der CO2-Intensität im Netz unwirksam oder schädlich sein wird.
Ein nachfrageorientierter Ansatz ist mit den aktuellen CO2-bewussten Ansätzen und Werkzeugen nicht unvereinbar.
Sobald wir Zeiten mit geringer Nachfrage priorisiert haben, können wir weiterhin vorhandene APIs oder Datenquellen nutzen, um Auslöser mit geringer Kohlenstoffintensität gezielt anzusprechen.
In diesem Szenario würden unsere Rechenjobs niemals um 11 Uhr morgens ausgeführt, selbst wenn die Kohlenstoffintensität im Netz gering ist, da wir wissen würden, dass die Wahrscheinlichkeit einer Einschränkung gering ist. Bei einem heftigen Sturm könnten sie jedoch um 4 Uhr morgens in Betrieb sein und nicht um 5 Uhr morgens, wenn sich der Wind beruhigt hat, was die Wahrscheinlichkeit, mit ansonsten eingeschränkter Energie zu arbeiten, noch größer macht und unsere Emissionen reduziert.
Diese Ansätze sind nicht unvereinbar. Was wäre, wenn wir zuerst nach Netzen suchen würden, die derzeit eine geringe Nachfrage haben, UND dann nach Netzen suchen würden, in denen eine natürlicherweise hohe Stromproduktion aus erneuerbaren Energiequellen vorherrscht?
Warnhinweise bleiben bestehen
Das oben Genannte hat seine Vorteile, wenn es in relativ kleinem Maßstab geschieht. Aber wenn das alle gleichzeitig tun? Dann haben wir immer noch das Problem, dass es zu Nachfragespitzen kommt, eine unserer Hauptsorgen bei den aktuellen Ansätzen. Unabhängig davon, ob es sich nur um eine zeitversetzte oder auch ortsversetzte Lösung handelt, ist dieser Low-Demand-First-Ansatz im großen Maßstab deutlich sicherer als der derzeitige, birgt jedoch immer noch Risiken, die bewertet und gemindert werden müssen.
Ein Aufruf zur Innovation
Das Nachdenken über die Herausforderungen der großen Nachfrage und des CO2-bewussten Rechnens birgt Risiken, aber auch Chancen. Die aktuelle Phase ist experimentell, fragmentiert und verstreut. Es besteht jedoch Raum, den Ansatz noch weiter zu verfolgen und sich ein langfristiges Ziel auszudenken. Machen wir es zum Standard, dass unsere Rechenjobs und die ihnen zugrunde liegende Infrastruktur systemisch mit Netzen interagieren und Teil der Lösung und nicht des Problems werden. Diese Ideen fallen in den Bereich des Nachfragemanagements , den wir in dem Abschnitt „Was Softwareentwickler über die Funktionsweise des Netzes wissen müssen“ ansprechen.
In diesem Bereich laufen derzeit viele Experimente, einige davon in erheblichem Umfang, aber wir brauchen eine ganzheitlichere Vision auf politischer, geschäftlicher, technischer, betrieblicher und infrastruktureller Ebene darüber, was möglich ist, was notwendig ist und wie es aussehen sollte . Durch die Interaktion mit Netzmanagementsystemen, idealerweise auf automatisierte, kollaborative und demokratische Weise, könnten wir die Synergien zwischen den Herausforderungen des Nachfragemanagements bei der Ausweitung erneuerbarer Energien und der Reduzierung der Emissionen aus der Rechenleistung nutzen.
Demokratisch ist hier von entscheidender Bedeutung, da wir alle ein Interesse daran haben und von diesen Interaktionen beeinflusst werden. Dies kann nicht nur das Reich der Big Tech-Akteure sein. Wir alle brauchen eine Chance zur Beteiligung durch Open-Source-Standards, Protokolle sowie öffentliches Engagement und Beteiligung.
Wir gehen diesen Ideen weiter nach, indem wir uns mit dem Elefanten im Raum befassen.
TL;DR:
Um überhaupt effektiv zu sein, muss die Datenverarbeitung auf grüne Energiequellen abzielen, die tatsächlich additiv sind, und die Risiken perverser Effekte transparent ansprechen und abmildern.
Es gibt zwei gängige Methoden zur Berechnung additiver erneuerbarer Energien, die erreicht werden können.
Kurzreferenz – Additive erneuerbare Energie
„Zusätzlicher“ oder „zusätzlicher“ erneuerbarer Strom bedeutet, dass Sie mit Ihrem Kauf neuen erneuerbaren Strom finanzieren, den es sonst nicht geben würde. Damit verbunden ist die Anwendung des Prinzips der „ Zusätzlichkeit “ auf die Erzeugung erneuerbarer Energien, insbesondere auf Kohlenstoffmärkten .
Wenn Ihre Rechenleistung 50 Terawatt Strom verbraucht und Sie für neue Solarmodule bezahlen, die 50 Terawatt Strom erzeugen, erreichen Sie Zusätzlichkeit. Theoretisch können Sie behaupten, dass Ihr Computer emissionsneutral ist. In der Praxis ist es weniger eindeutig , aber das ist die allgemeine Idee.
Traditionelle CO2-Märkte verkaufen häufig „CO2-Gutschriften“, die auf bereits vorhandenem erneuerbarem Strom basieren. In diesem Szenario gibt es keine Zusätzlichkeit. Sie beanspruchen lediglich die bestehende erneuerbare Energieproduktion als Ihr Eigentum und übertragen die Verantwortung für die bestehende schmutzige Energieproduktion jemand anderem. Dadurch werden die Emissionen überhaupt nicht reduziert.
Viele Organisationen gehen dieses Problem in erster Linie über CO2-Märkte an. Diese wiederum verkaufen zwei Hauptinstrumente: Zertifikate für erneuerbare Energien (RECs) und Stromabnahmeverträge (PPAs).
Dies bleibt ein äußerst problematischer Ansatz. Warum? Weil die überwiegende Mehrheit der RECs nicht additiv ist .
Sie ermöglichen es Ihnen, sich in den bestehenden grünen Energiemix einzukaufen und sich einfach ihren Beitrag anrechnen zu lassen. Sie haben jedoch keinen Einfluss auf die sogenannte „ Emissionalität “, die Ähnlichkeiten mit dem Verschiebungseffekt aufweist.
Kurzreferenz – Emissionsalität
Neue Projekte für erneuerbare Energien entziehen der Atmosphäre nicht immer Emissionen. Der Grund, warum sie helfen, ist, dass sie Kraftwerke mit fossilen Brennstoffen ersetzen , die sonst weiterhin die Umwelt verschmutzen würden.
Doch welche Projekte sind effektiv? Dies kann von Projekt zu Projekt und auch vom Brennstoffmix des Netzes, an das das Projekt angeschlossen wird, stark variieren. Beispielsweise verringert die Hinzufügung eines weiteren Kaufvertrags für Solarstrom (PPA) in Kalifornien zunehmend die Leistung einer Mischung aus Erdgasanlagen und bestehenden Solarparks. Aber die Einführung eines neuen Wind-PPA in Wyoming reduziert fast immer die Produktion eines Kohlekraftwerks und vermeidet so weitere Emissionen. Diese Praxis, die vermiedenen Emissionen verschiedener erneuerbarer Energieprojekte zu vergleichen und darauf zu reagieren, wird „Emissionalität“ genannt.
Mehr dazu können Sie bei WattTime lesen , der den Begriff der Emissionalität populär gemacht hat.
PPAs werden in der gesamten Geschäftswelt häufig eingesetzt, insbesondere inRechenzentren . Unternehmenskäufer treffen Vereinbarungen mit Energieunternehmen, die versprechen, den Strom und die RECs, die durch das erneuerbare Projekt erzeugt werden, für einen bestimmten Zeitraum, oft für die nächsten 10 bis 15 Jahre, zu kaufen.
Während PPAs oft als entscheidender Mechanismus angepriesen werden, der für die Umweltfreundlichkeit eines Unternehmens verantwortlich ist und für seine ESG-Strategie von zentraler Bedeutung ist, können sie irreführend sein. Auch wenn PPAs bestimmten erneuerbaren Projekten zugeordnet sind, versorgen sie Rechenzentren im Allgemeinen nicht direkt mit Strom . Mit anderen Worten: Nur weil grüne Elektronen erzeugt werden, bedeutet das nicht, dass diese Elektronen direkt die Rechenleistung in einem Rechenzentrum antreiben – auch wenn das oft so angepriesen wird. Es besteht auch die Gefahr einer Doppelzählung .
Daher besteht die beste Umsetzung von CO2-Märkten darin, sicherzustellen, dass die von Ihnen erworbene erneuerbare Energie additiv ist.
Eine zweite, seltenere Version der Zusätzlichkeit – aber weitaus effektiver.
Anstatt eine entfernte Infrastruktur für erneuerbare Energien zu kaufen und Ihren Anspruch, mit erneuerbaren Energien betrieben zu werden, „zur Rechenschaft zu ziehen“, betreiben Sie Ihre Rechenleistung tatsächlich direkt aus Ihren erneuerbaren Quellen.
Wenn Ihr Computer direkt von Ihren eigenen Sonnenkollektoren oder Windkraftanlagen usw. angetrieben wird, sind keine Fingerfertigkeiten oder komplexe statistische Prognosen erforderlich. Ihre Rechenleistung ist praktisch netzunabhängig, da sie direkt von Ihren erneuerbaren Quellen gespeist wird.
Obwohl dieser Ansatz im Hinblick auf die Emissionen vorzuziehen ist, ist er schwierig zu skalieren und birgt das Risiko unerwünschter Auswirkungen, auf die wir weiter unten näher eingehen. Hyperscale-Computing konzentriert sich heute auf riesige Rechenzentren. Um solch eine enorme Rechenleistung direkt mit Strom zu versorgen, sind Anlagen zur Erzeugung erneuerbarer Energien erforderlich, die enorme Mengen an Land und Wasser beanspruchen, zusätzlich zu den bereits riesigen Flächen, die Rechenzentren beanspruchen. Während dadurch die Rechenemissionen von Hyperscalern tatsächlich reduziert werden können, gibt es neben der damit verbundenen Logistik in der Regel auch weitreichendere ökologische, soziale und wirtschaftliche Auswirkungen.
Ein solches Projekt läuft beispielsweise in Saragossa, Spanien . Ein 40.000 Quadratmeter großes Rechenzentrum wird von zwei Solarparks versorgt. Nur einer dieser beiden Solarparks mit einer Leistung von 90 MW wird sich über 232 Bruttohektar (2,3 Mio. Quadratmeter) erstrecken. Das entspricht ungefähr der Größe des Central Parks in New York. Es wird Land beanspruchen, das reich an biologischer Vielfalt ist und das es ungeachtet der Bestimmungen voraussichtlich schädigen wird, einschließlich gefährdeter Tier- und Baumarten. Ebenso ist das kürzlich von Google in Chile gebaute Rechenzentrum doppelt so groß, da es in der Region 169 Liter Wasser pro Sekunde fördert und daher fast 10 Millionen Quadratmeter direkt mit Solarstrom versorgen müsste.
Die Auswirkungen des enormen Ausbaus der Rechenzentren spüren die Bevölkerung vor Ort bereits. Es formiert sich eine Bewegung, die ein Moratorium für den Bau von Rechenzentren fordert. Es geschieht weltweit – in Irland , den Niederlanden und Singapur . Der Widerstand liegt nicht nur im Stromverbrauch. Auch der Wasserverbrauch ist ein großes Problem . Die lokale Bevölkerung in New Mexico, den USA , Uruguay und Chile steht weiterhin an vorderster Front im Kampf um die Ressourcennutzung.
Hyperscale ist jedoch nicht das einzige Modell und muss nicht die unvermeidliche Zukunft sein .
Die meisten Computer sind heutzutage stark verteilt oder verteilbar. Es gibt Experimente mit der Co-Location von Rechenleistung (insbesondere Kryptowährungen), wo bereits erneuerbare Energieerzeugung vorhanden ist. Dies stellt die direkte Stromversorgung für Rechenmaschinen mit erneuerbarer Energie sicher und spielt eine Rolle bei der Steuerung der Nachfrage nach erneuerbarem Strom. Auch hier besteht die Gefahr perverser Anreizwirkungen. Aber mit den richtigen Leitplanken könnte ein bedeutendes Paradigma erweitert und erforscht werden.
Es gibt eine Reihe von Beispielen dafür, dass die Generierung andere Formfaktoren aufweist als ein riesiger Computer im Lagermaßstab. „The Energy Onion“ von David Sykes von Octopus Energy präsentiert eine Denkweise über Energie, die sich auf variable erneuerbare Energien und Effizienz konzentriert.
Sie können auch argumentieren, dass es möglich ist, den Komfort von Cloud Computing zu nutzen, ohne dass dazu Hyperscale-Rechenzentren erforderlich sind. Bei Unternehmen wie Oxide geht es mit ihrem Cloud-Computer darum, die Dinge, die wir mit Cloud-Anbietern assoziieren (Benutzerfreundlichkeit), und ohne die riesigen Gebäude verfügbar zu machen. Ein weiteres Beispiel sind serverlose Unternehmen, die mit Deep Green-Rechenzentren experimentieren .
Die Mainstream-Stromerzeugung konzentriert sich, ähnlich wie Hyperscale-Computing, in der Regel auf riesige Kraftwerke. Die Infrastruktur für erneuerbaren Strom ermöglicht jedoch eine dezentrale Energieerzeugung. Anstatt Strom in wenigen großen zentralen Knotenpunkten zu erzeugen, könnten erhebliche Mengen in einer großen Anzahl weit verteilter, kleinerer Knotenpunkte und Mikronetze erzeugt werden. Dezentrale erneuerbare Energien sind für den globalen Süden von besonderer Bedeutung, und mit der Batteriespeicherung wächst die Dynamik für ihren dramatischen Ausbau. Die bekannteste Initiative in diesem Bereich ist wahrscheinlich die Global Energy Alliance for People and Planet (GEAPP) , die auf der COP26 ins Leben gerufen wurde und voraussichtlich 100 Milliarden US-Dollar in dezentrale erneuerbare Energien im globalen Süden investieren soll.
Die Idee, die dezentrale Erzeugung erneuerbarer Energien mit dezentraler Datenverarbeitung zu verbinden, wurde auf den Weg gebracht und ist vielversprechend. Dies ermöglicht nicht nur die netzunabhängige Stromversorgung der Rechenleistung, sondern erweitert auch die Möglichkeiten der Doppelnutzung. Beispielsweise können verteilte Rechenzentrumsserver gleichzeitig für Rechen- und Heizzwecke genutzt werden, wodurch der Energieverbrauch, der derzeit für die Innenheizung aufgewendet wird, reduziert wird.
Wie wir in „Wann ist CO2-bewusste Software sinnvoll?“ besprochen haben. , ist die größte Herausforderung für die Ökologisierung von Computern nicht die Optimierung, sondern der Strombedarf. Wir glauben, dass CO2-bewusstes Computing, wenn es sein Potenzial und Versprechen erfüllen soll, sich direkt mit dieser Realität auseinandersetzen muss.
Unsere verfeinerten CO2-bewussten Vorschläge werden uns nicht viel nützen, wenn wir uns nicht auch mit der großen Frage befassen: Wie viele der weltweiten Ressourcen dürfen von der Technologie genutzt werden?
Es besteht die Gefahr, dass die wichtigste Erkenntnis aus den Vorschlägen 1 und 2 darin besteht, dass wir, wenn wir Strom- und Rechenzentren innovativer bauen und betreiben, sicher weitermachen können wie bisher. Wir können sicher riesige KI-Produkte bauen, unsere Rechenzentren weiter ausbauen und die Vorteile des unbegrenzten persönlichen Rechenpotenzials genießen, solange wir die wachsenden erneuerbaren Energieressourcen in Zeiten geringer Nachfrage nutzen.
70 % des gesamten Stroms stammen immer noch aus fossilen Brennstoffen, was bis 2025 auf 65 % zurückgehen wird. Das ist ermutigend, aber es gibt kein kurz- oder mittelfristiges Szenario, in dem die gezielte Beschränkung erneuerbarer Energien unsere globale Rechenleistung antreiben könnte. Es gibt auch kein Szenario, in dem der Zukauf von Zusatzstoffen oder die direkte Bereitstellung erneuerbarer Energien mit der Geschwindigkeit zunehmen könnte, die erforderlich wäre, um rechtzeitig mit der steigenden Rechennachfrage Schritt zu halten und so die Entwicklung unserer globalen Erwärmung wesentlich zu beeinflussen.
Es ist nicht zu unterschätzen, dass eine der größten Veränderungen, die zur Reduzierung der CO2-Emissionen im Einklang mit dem Pariser Abkommen erforderlich sind, darin besteht, zu akzeptieren, dass wir nicht ohne Einschränkungen weiterhin alles anbauen können. Zumindest nicht kurzfristig, solange wir das CO2-Budget der Welt bei weitem überschreiten und unsere Emissionen drastisch reduzieren müssen. Die Notwendigkeit, das Wachstum zu steuern, würde auch dann bestehen bleiben, wenn wir vollständig auf erneuerbare Energien umsteigen würden: Uns würden die Mineralien und Metalle ausgehen, die wir benötigen würden, um mit den aktuellen Wachstumsraten der Energienachfrage Schritt zu halten
TL;DR: Die Kernfrage, die sich alle verantwortungsbewussten Technologen stellen sollten: Verringert sich der Nettostrombedarf meines Computers oder verlangsamt sich zumindest sein Anstiegstempo? Diese Frage kann auf individueller, betrieblicher, nationaler und internationaler Ebene beantwortet werden.
Die Technologiebranche ist gefangen zwischen dem kommerziellen Zwang zum Wachstum und den geschäftlichen sowie globalen Kosten und Risiken einer beschleunigten globalen Erwärmung. Abgesehen von den Polaritäten zwischen Wachstum und Degrowth muss man sich sicherlich darüber im Klaren sein, dass unbegrenztes Wachstum für unsere Industrie und unseren Planeten unrentabel ist. Was auch immer die Grenzen der Debatte sein mögen, wir müssen akzeptieren, dass es Grenzen für den Nettoressourcenverbrauch unseres Sektors geben sollte, und nicht nur dafür, wie energieeffizient wir sie verbrauchen.
„Die derzeitigen Emissionen aus der Computertechnik machen etwa 2 % der weltweiten Gesamtemissionen aus, es wird jedoch erwartet, dass sie in den nächsten zwei Jahrzehnten stark ansteigen. Bis 2040 werden die Emissionen allein aus der Computertechnik mehr als die Hälfte des Emissionsniveaus betragen, das akzeptabel ist, um die globale Erwärmung unter 1,5 °C zu halten. Dieses Wachstum bei den Emissionen von Computern ist nicht nachhaltig: Es würde es praktisch unmöglich machen, die Emissionserwärmungsgrenze einzuhalten. Darüber hinaus übersteigen die Emissionen bei der Herstellung von Computergeräten die Emissionen bei deren Betrieb bei weitem. Selbst wenn Software energieeffizienter ist, wird die Produktion von mehr davon das Emissionsproblem verschlimmern.“
Kohlenstoffarmes und nachhaltiges Computing von Professor Wim Vanderbauwhede
Zwei von Professor Vanderbauwhede für diesen Artikel erstellte Modelle zeigen, dass das eigentliche Problem unseres Planeten nicht darin besteht, wie wir unsere Rechenleistung durch Muster wie CO2-bewusstes Rechnen optimieren, sondern wie wir den alarmierenden Wachstumstrend bei der rechnergesteuerten Stromnachfrage ändern.
Das erste Modell zeigt, dass CO2-bewusstes Computing unseren Wettlauf zu den Wendepunkten unseres Planeten kaum verlangsamen wird, da es keine Reduzierung des Energiebedarfs voraussetzt, sondern nur umweltfreundlicheres Computing unabhängig vom Bedarf.
„Business as Usual“ (BAU) würde einen Anstieg des computerbezogenen Strombedarfs um 800 % bis 2040 und einen Anstieg der Emissionen unseres Sektors um 310 % bis 2040 bedeuten – den größten Teil des CO2-Budgets des Planeten.
Bei den derzeitigen Wachstumsraten der Computernachfrage und der Implementierung von CO2-bewusstem Computing mit den von uns vorgeschlagenen Anpassungen würden die computerbedingten Emissionen bis 20240 um 280 % steigen. Jede einzelne Reduzierung zählt und verschafft uns Tage, Monate, Jahre vor unumkehrbaren Meilensteinen, sodass 20 % Unterschied wichtig sind. Aber es bedeutet immer noch eine Katastrophe. Als würde man ein Pflaster auf eine schwere Wunde kleben.
Im Gegensatz dazu hat eine Nachfragereduzierung einen exponentiellen Effekt. Wenn unser Sektor weiter wachsen würde, es aber gelingen würde, dieses Wachstum bis 2040 auf 26 % zu begrenzen, würden unsere computerbedingten Emissionen in diesem Jahr 50 % des heutigen Wertes betragen, was den Anstieg der erneuerbaren Energien erklären würde. Mit unseren vorgeschlagenen CO2-bewussten Verbesserungen würden die Emissionseinsparungen 56 % betragen. In diesem Szenario ist unser verbessertes CO2-bewusstes Computing möglicherweise kein Notbehelf, sondern einer der Bestandteile einer echten Lösung für die Umweltherausforderung unseres Sektors und unseres Planeten.
Dies geht auf unsere Forderung nach einem ganzheitlicheren, langfristigen, systemischen Denken über die Beziehung zwischen Computern und dem zunehmend dekarbonisierten Energienetz zurück, in dem Nachfragereaktionsmechanismen immer notwendiger werden und die Chancen von verteiltem Rechnen und verteilten Energiesystemen steigen Sie ergänzen das vorherrschende zentralisierte Modell riesiger Rechenzentren und Kraftwerke am wenigsten.
Grundsätzlich fordern wir ein innovatives Backcasting, das das globale CO2-Budget über einen kritischen Zeitraum in ein technisches Energiebudget umwandeln und die Innovationen, Integrationen und Optimierungen identifizieren kann, die erforderlich sind, um in diesen Szenarien nicht nur zu funktionieren, sondern auch erfolgreich zu sein.
CO2-bewusstes Computing impliziert eine umfassendere Sicht auf die Beziehung zwischen Emissionen und Strombedarf, -verbrauch, -erzeugung und -management. Die ereignisgesteuerte Architektur unserer frühen Implementierungen ist eine hervorragende Grundlage, auf der wir aufbauen können. Die von uns in den Vorschlägen 1 und 2 angebotenen Verbesserungen können die Risiken mindern und den Nutzen optimieren. Aber es besteht auch die Möglichkeit, größer zu denken und darüber nachzudenken, wie wir solche Muster in großem Maßstab mit wichtigen Energie- und Politikpartnern umsetzen, erweitern und weiterentwickeln, um nicht nur unsere Emissionen zu optimieren, sondern den Nettoverbrauch auf faire und gerechte Weise für alle zu senken Nationen. Das Konzept einer verbesserten CO2-bewussten Datenverarbeitung könnte enorm hilfreich sein.
Wenn dieser Artikel eine Diskussion darüber anregt, wie diese Muster für Rechenzentren, für KI, für Blockchains und tatsächlich für Kraftwerke, für Anbieter erneuerbarer Energien und Infrastrukturanbieter, für Investoren und Regulierungsbehörden aussehen könnten, besteht kein Zweifel daran, dass Durchbrüche folgen würden .
Wenn die in diesem Beitrag getroffenen Annahmen richtig sind – wenn Sie etwas hinzuzufügen haben, wenden Sie sich bitte an uns, Beiträge wären uns sehr willkommen –, haben wir völlig das Recht, die nächste Version des CO2-bewussten Computings zu fördern.
Der Argumentation halber nennen wir es vorerst Grid-Aware Computing. Dies wäre die Version, die sich mit der Realität befasst, was angesichts der realen Einschränkungen bei der Verwaltung von Stromnetzen und der Existenz knapper globaler CO2-Budgets wirkungsvoll ist und was nicht.
Kurzreferenz – Grid-aware Computing
Die nächste vorgeschlagene Iteration von CO2-bewusstem Computing soll Entwicklern dabei helfen, die Auswirkungen des Computing-Umstiegs auf eine Weise zu bewältigen, die tatsächlich zu einer Nettoreduzierung der mit lokalen und globalen Stromnetzen verbundenen Emissionen führt. Die wichtigsten Ansätze sind:
- Führen Sie die Berechnung aus, wenn die Nachfrage gering ist, und zielen Sie auf begrenzten Ökostrom in stabilen Netzen ab.
- Führen Sie die Berechnung mit additiver Elektrizität aus.
- Berechnen Sie den Stromverbrauch nach Bedarf, sodass er innerhalb der vereinbarten Ressourcennutzungsgrenzen bleibt.
In diesem Blog wurde vor allem festgestellt, dass die Version des „Carbon Aware Computing“, wie sie derzeit von immer mehr Big-Tech-Unternehmen präsentiert, gefördert und zunehmend vermarktet wird, keinen vertrauenswürdigen Beitrag zu den Umweltauswirkungen des Computings darstellt. Im Gegenteil argumentieren wir, dass es größtenteils ineffektiv und voller uneingestandener Risiken ist. Hierbei handelt es sich nicht um eine Absichtserklärung. Ob in gutem Glauben umgesetzt oder nicht, der Effekt besteht darin, einen grünen Schritt vorwärts zu signalisieren, der unserer Meinung nach in den meisten Fällen überhaupt kein Schritt ist, und in einigen Fällen ist er auch kein grüner Schritt.
Wenn wir an unsere drei Vorschläge für Grid-Aware-Software (GAC) in Bezug auf Business as Usual denken, einschließlich des aktuellen Carbon Aware Computing (CAC) , stellen wir uns Folgendes vor:
Die Unterstützung des aktuellen CO2-bewussten Paradigmas ohne Frage, Überprüfung oder Risikoanalyse öffnet die Tür zu einer technisch subtilen und gefährlichen neuen Welle des Greenwashings. Wir sind immer noch an der Zeit, Vorsicht und Nuancen in den kohlenstoffbewussten Diskurs und, was noch wichtiger ist, in seine Umsetzung zu bringen.
Dabei geht es nicht darum, die derzeitigen Bemühungen zu diskreditieren, sondern darum, sie zu gefährden und zu verbessern, bevor das aktuelle Konzept, ohne Warnhinweise oder Risikominderungen, genug Anklang findet, um den Markenwert zu steigern und ohne Leitplanken zu wachsen. Dann wird es zu spät sein und wir werden die Konsequenzen im Nachhinein erfahren.
Wenn Sie ab sofort lesen: „Wir haben diese App CO2-bewusst gemacht oder diesen Berechnungsvorgang auf den Zeitpunkt festgelegt, an dem das Netz am umweltfreundlichsten ist“ – gehen Sie davon aus, dass die Ankündigung kaum oder gar keine positiven Auswirkungen auf die Emissionen haben wird, es sei denn, es gibt konkrete Hinweise auf Auswirkungen . Und wenn die Umsetzung wirklich skaliert, ist davon auszugehen, dass dies sowohl das Klima als auch die Netzstabilität/den Netzzugang schädigen wird, mit allen wirtschaftlichen und sozialen Folgen.
Wir haben unser Bestes getan, um einen konstruktiven, sorgfältigeren Ansatz zu skizzieren, der auf dem aufbaut, was bereits vorhanden ist, mit Blick auf das, was vor uns liegt. Wir hoffen, dass wir den aktuellen Wunsch aufgreifen können, Software kohlenstoffbewusster zu machen, sie aber effektiver zu machen, ihre Risiken drastisch zu reduzieren und die Wahrscheinlichkeit von Klimavorteilen deutlich zu erhöhen.
Wir haben diesen Ansatz „Grid-Aware Computing“ genannt, um zu betonen, dass es auf unsere gesamten systemischen Auswirkungen auf das Netz ankommt und nicht auf die CO2-Intensitätsmetriken zu einem bestimmten Zeitpunkt oder die Emissionen eines bestimmten Rechenjobs. Lassen Sie uns also dabei sein Alles bedeutet, unsere Vorschläge 1 und 2 für ein verbessertes CO2-bewusstes Computing anzunehmen, zu experimentieren und innovativ zu sein: Es ist potenziell nützlich und wirkungsvoll. Aber gehen wir dabei nicht automatisch davon aus, dass wir der richtigen Arbeit Priorität einräumen.
Der netzbewusste Ansatz bedeutet, dass wir uns niemals von kohlenstoffbewussten Implementierungen bestimmter Rechenaufgaben von der zentralen, ständigen Frage ablenken lassen sollten, die im Mittelpunkt unseres dritten Vorschlags steht: Verringert sich der Nettostrombedarf unserer Rechenleistung?
Big Tech hört uns zu und dies ist derzeit ein Wendepunkt.
Wir haben die Möglichkeit und die Verantwortung, den unternehmerischen Diskurs und das Handeln rund um CO2-bewusstes Computing in eine verantwortungsvolle Richtung zu lenken, die zu einer spürbaren Reduzierung der Emissionen führt.
Sie können dies tun, indem Sie:
Teilen Sie diesen Artikel mit Praktikern kohlenstoffbewusster Ansätze zur Aufklärung und Information.
Tragen Sie zu diesem Inhalt bei, indem Sie im entsprechenden ClimateAction.tech -Github-Repo Probleme ansprechen oder Änderungen vorschlagen.
Kommunizieren Sie die in diesem Beitrag vorgestellten Ideen und Probleme an Ihre Arbeitsgemeinschaft und relevante Interessengruppen und Netzwerke;
Durchführung weiterer Forschungen und Fallstudien zu den Gefahren, Abmilderungen und Verbesserungen aktueller kohlenstoffbewusster Ansätze und deren Weitergabe; Und
Aufbauend auf den anfänglichen Konzepten einer Grid-fähigen Software durch Forschung, Prototypen, Fallstudien oder Feedback
Es ist deine Entscheidung. Die Zeit ist jetzt.
Hinweis: Dieser Artikel basiert auf einer Open-Source-Artikelserie , die von Hannah Smith und Ismael Velasco verfasst und auf ClimateAction.tech gehostet wurde. Wir danken den Rezensionen und Beiträgen von Michael J. Oghia , Fershad Irani , Wim Vanderbauwhed und zusätzlichen informellen Beiträgen von Phillip Jenner und Chris Adams .