Die Klimawissenschaften zeigen den Menschen neue Grenzen
Geschichte der Energietechnik (7) – Die Entdeckung der Nanowelten ermöglicht eine erneuerbare Energieversorgung für Alle
Der Ausgangspunkt dieser Serie war die wissenschaftliche Revolution am Anfang des letzten Jahrhunderts, die zur Entdeckung neuer Welten im Nanometer-Bereich führte. Darunter auch ganz früh die Kernspaltung und ihre militärische und zivile Nutzung. Nach dem frühen Höhenflug und der Krise der Atomenergie haben die Nanowissenschaften in vielen Bereichen disruptive Technologien hervorgebracht, nicht zuletzt Mikroelektronik und Digitalisierung. In dieser Folge geht es um die Geschichte der neuen Klimawissenschaften und das Aufkommen der Erkenntnis, dass wir mit durch neue Hilfsmittel potenzierten alten fossilen Energietechniken das System Erde gefährden und vor der gewaltigen Herausforderung stehen, in kurzer Zeit umzusteuern.
Das Jahr 2021 könnte sich im Rückblick als Wendepunkt erweisen. Als das Jahr, in dem der Klimawandel für viele Menschen in politisch mächtigen Ländern konkret erfahrbar wurde. In diesem Jahr trafen Klimafolgen, die ja erst langsam aus den Schwankungen der Wetterstatistik auftauchen, vermehrt auch die Industrieländer, die sich sicher gewähnt hatten: Der plötzliche Wintereinbruch in Texas, der Hurrikan Ida an der US-Ostküste, die Brände in Kalifornien, die schweren Überschwemmungen in Deutschland und Belgien, der Zyklon Yaas in Indien und Bangladesch, Regenfälle in Henan, Wassermangel in Brasilien. Immer schon hatte es Naturkatastrophen gegeben, aber die Extremereignissen waren dann letztes Jahr doch so viele, dass sie immer mehr Menschen beunruhigten. 2021 wurde sinnlich erfahrbar, wovor Wissenschaftler seit Jahrzehnten gewarnt hatten: erhebliche Störungen des Klimasystems der Erde.
Für das Wetter waren immer die Götter zuständig. Menschen waren nachvollziehbar seit jeher für schreckliche Kriege, Völkermord, oft auch Hungersnöte, später vergiftetes Wasser, verpestete Luft, sterbende Wälder verantwortlich. Auch wenn die Zahl der Toten stieg – der zweite Weltkrieg kostete über 50 Millionen Menschenleben – waren es immer noch räumlich begrenzte Katastrophen. Grundsätzliche Bedrohungen für die Menschheit wurden eher von Naturereignissen wie Pandemien (Pest), Vulkanausbrüchen (Kleine Eiszeit, Pinatubo), Asteroiden (Aussterben der Dinosaurier) oder (ab der zweiten Hälfte des 19. Jahrhunderts) außerirdischem Leben befürchtet. Noch nach dem Abwurf der Atombomben am Ende des zweiten Weltkriegs waren die vorstellbaren Katastrophen regional begrenzt.
Und die unmittelbare sinnliche Erfahrung spielte noch eine überragende Rolle. Wenn man den Schaden nicht sah oder spürte, war es wohl harmlos. Noch 1952 beobachteten Reporter völlig ungeschützt aus nur zehn Meilen Entfernung Atombombenversuche bei Las Vegas, wo sich dann ein intensiver Atom-Tourismus für die Beobachtung der etwa alle drei Wochen stattfindenden Bomben-Tests entwickelte. Erst Jahre später zeigten die Krebsstatistiken unmissverständlich, wie schädlich die Strahlung war, so dass 1963 die USA, die Sowjetunion und Großbritannien einen Vertrag unterzeichneten, der oberirdische Kernwaffenversuche verbietet. Langsam wurde deutlicher, dass manche Gefahren mit unseren Sinnen nicht zu fassen waren und erst mit großer Verzögerung Wirkung entfalteten.
Viele sehen den Beginn der modernen Umweltbewegung im 1962 erschienen Buch „Silent Spring“, in dem Rachel Carson vor den Folgen des massiven Einsatzes von Pestiziden warnte. Das machte einem größeren Publikum deutlich, dass jenseits unmittelbarer Vergiftungen große Ökosysteme durch menschliche Handlungen in zunächst nicht wahrnehmbarer Weise aus dem Gleichgewicht gebracht werden können, z.B. durch die Entwicklung von Resistenzen.
Moderne Untersuchungsmethoden enthüllten immer mehr im Detail, dass die Erde ein hochkomplexes System ist, das dem Menschen nicht nur eine begrenzte Menge von Ressourcen zur Verfügung stellt, sondern auch durch immer intensivere menschliche Aktivitäten empfindlich gestört werden kann. Erst durch die Erforschung der Gesetzmäßigkeiten auf der Nano-Ebene von Atomen und Molekülen fing man an, Zusammenhänge auf der Mega-Ebene des Erdsystems zu verstehen. Zusammenhänge, die wir – mit Hilfe der gerade durch die Nanowissenschaften ungeheuer angestiegenen technischen Möglichkeiten – zu stören drohen. Das wird insbesondere an der Geschichte der Klimawissenschaften deutlich.
Die Atmosphäre in Gefahr? Erst genaue Messungen von Radioaktivität ermöglichten einfache Klimamodelle
Gegen 1860 hatte John Tyndall mit ersten Strahlungsversuchen im Labor die Treibhauswirkung von Kohlendioxid abgeschätzt, das, wie wir heute wissen, vor der Industrialisierung rund 280 ppm (parts per million) bzw. 0,280 Promille der Luft ausmachte. Ein großer Teil des Spektrums der einfallenden Sonnenstrahlung kann die Luftschicht relativ ungehindert passieren und die Erdoberfläche erwärmen. Die umgekehrte Abstrahlung der längerwelligen Wärmestrahlung ins All wird aber durch das Kohlendioxid in der Luft gebremst, was die Luftschicht der Erde aufwärmt. Genau wie bei einem Südfenster, wo das Glas die Sonne hereinlässt, aber die Wärme zurückhält, so dass sich der Raum aufwärmt. Schon 1896 wies der schwedische Physiker und Chemiker Svante Arrhenius darauf hin, dass die Verbrennung von Kohle und Erdöl, also die Freisetzung von in der Erdkruste gespeichertem (fossilem) Kohlenstoff in Form von Kohlendioxid, zu einer Erwärmung der Atmosphäre führen wird. Doch vermutete er, dass das erst in einigen Jahrhunderten relevant würde.
Genauere Untersuchungen wurden erst mit Hilfe der Atomphysik möglich. 1946 erfand Willard F. Libby, der zuvor im Manhattan-Projekt an der Urananreicherung gearbeitet hatte, die Radiokohlenstoffdatierung, für die er 1960 den Nobelpreis bekam. Sie wird nicht nur bis heute in der Archäologie geschätzt, sondern wurde vor allem zu einem zentralen Instrument der Erforschung der Klimasysteme. In der oberen Atmosphäre führt die kosmische Strahlung zur Entstehung kleiner Mengen des radioaktiven Kohlenstoff-Isotops C-14, das mit einer Halbwertszeit von 5730 Jahren zerfällt. Dadurch enthält das Kohlendioxid in der Atmosphäre nicht nur das stabile Kohlenstoffisotop C-12, sondern auch einen überall gleichen Anteil von C-14. Die relativ schnelle Durchmischung der gesamten Atmosphäre wurde dadurch nachgewiesen, dass die radioaktiven Emissionen der Atombomben-Tests überall mit wenig Verzögerung messbar waren. Wird nun das Kohlendioxid aus der Luft irgendwo festgehalten, z.B. in Holz oder in winzigen Luftbläschen in einem Gletscher, dann nimmt der Anteil des radioaktiven C-14 durch Zerfall langsam ab. Mit seinen hochempfindlichen Geräten gelang es Libby, das Verhältnis von C-14 zu C-12 so genau zu bestimmen, dass sich daraus das Alter der Proben bestimmen ließ. Er kalibrierte die Methode an den Baumringen jahrtausendealter Sequoia-Bäume.
1957 wiesen Roger Revelle und Hans E. Suess nach, dass der Anteil von C-14 in der Atmosphäre sinkt und erklärten das durch den Eintrag von fossilem Kohlenstoff durch die Verbrennung von Kohle und Öl. Revelle nahm an, dass dies in etwa fünfzig Jahren zu ernsthaften Problemen führen könne. Ab 1958 zeigte dann Charles Keeling, dass die CO2-Konzentration in der Atmosphäre kontinuierlich ansteigt – die Messungen werden bis heute auf dem abgelegenen Mauna Loa in Hawaii fortgeführt.
Mit der Entwicklung feinerer Messmethoden sowie Bohrtechniken im Grönlandeis konnte Hans Oeschger dann in den sechziger und siebziger Jahren die Klimageschichte genauer untersuchen und im internationalen Verbund erste Klimamodelle entwickeln. Während meines Studiums in Bern habe ich jahrelang Proben für seine Messungen aufbereitet. Gleichzeitig entwickelte sich langsam die Möglichkeit, auf Computern komplexere Modelle zu rechnen.
Wachsende Besorgnis um das System Erde
1973 setzte die durch die OPEC ausgelöste Ölkrise dem seit 1940 anhaltenden starken Wachstum des Ölverbrauchs ein jähes Ende. Autofreie Sonntage und Preissteigerungen sorgten dafür, dass Umwelt- und Ressourcenprobleme große Aufmerksamkeit in der Breite der Gesellschaft erfuhren. Nicht nur bei uns Studenten, die im Jahr zuvor die erste UN-Umweltkonferenz in Stockholm und den Club-of-Rome-Bericht „Limits to Growth“ intensiv wahrgenommen und diskutiert hatten. Das war damals alles neu. Vor allem Ressourcenmangel schien das Wachstum auszubremsen. Das noch sehr einfache Computermodell im Bericht an den Club of Rome sagte im Standard-Verlauf einen drastischen Rückgang der industriellen Produktion und der Nahrungsmittel pro Kopf nach der Jahrtausendwende voraus.
Atomenergie wurde nach 1973 als Lösung für die Ressourcenprobleme und den drohenden Klimawandel angepriesen – aber wenn das Wachstumsmodell ohnehin stark verändert werden müsste, um einen Kollaps zu vermeiden – so schien es vielen – dann war der Klimawandel zwar ernst zu nehmen, aber lag doch viel weiter in der Zukunft, als die unmittelbaren Gefahren der Atomenergie…
Angeregt durch die ersten Resultate der Klimamodelle und der Klimageschichte, die zeigten, dass die Biosphäre offenbar Selbstregulierungsmechanismen besitzt, die verschiedene Parameter (Sauerstoffgehalt, Temperatur, Salzgehalt der Meere…) seit der Präsenz von Leben auf dem Land erstaunlich konstant gehalten haben, entwickelten dann 1974 die Mikrobiologin Lynn Margulis und der Chemiker und Mediziner James Lovelock die bis heute intensiv diskutierte „Gaia-Hypothese“. Benannt nach der griechischen Erdgöttin Gaia, postuliert diese Theorie, dass die Erde als Ganzes als eine Art Lebewesen verstanden werden kann. Die Diskussion darüber hat den Blick dafür geschärft, dass es sich bei der Erde mit ihrer Biosphäre offensichtlich um ein hochkomplexes System mit Selbstregulierungsmechanismen handelt, das dynamische Gleichgewichtszustände gewährleistet, die für das Leben auf der Erde wesentlich sind – die aber durch allzu heftige Störungen über Kipp-Punkte hinaus destabilisiert werden und plötzlich in ganz andere Zustände umschlagen können. Symbol für diese neue Betrachtungsweise wurde das berühmte Foto der Erde aus der Mondumlaufbahn der Raumfähre Apollo-8 im Jahr 1968. Viele Menschen waren tief beeindruckt von diesem ersten Bild der Erde als Ganzes.
Ein anderes Kapitel der Klimaforschung, das wesentlich dazu beigetragen hat, dass wir heute die Erde als ein System wahrnehmen, ist die Geschichte des Ozonlochs. Der Meteorologe und Chemiker Paul Crutzen hatte 1970 herausgefunden, dass das vor allem durch Bodenbakterien in stark gedüngten Böden entstehende Lachgas (NO2) nach oben steigt und die Ozonschicht in der Stratosphäre abbaut. Während Ozon – ein Molekül, das aus drei anstatt zwei Sauerstoffatomen besteht – am Boden ein Gift für Lebewesen ist, schützt die 1913 entdeckte Ozonschicht in 15 bis 35 km Höhe das Leben auf der Erde vor allzu starker ultravioletter Strahlung der Sonne. 1974 entdeckten Rowland und Molina, dass die in immer größeren Mengen industriell hergestellten FCKWs (Fluor-Chlor-Kohlenwasserstoffe), die vor allem in Kühlanlagen und Sprayflaschen verwendet wurden, in ganz ähnlichen katalytischen Prozessen die Ozonschicht noch viel schneller abbauen. Nach anfänglichem heftigem Widerstand der Chemieindustrie einigte man sich schon 1987 im Protokoll von Montreal auf ein schrittweises internationales Verbot der FCKWs. Das zeitweise gefährlich große Ozonloch ist inzwischen deutlich kleiner geworden. Dieser bisher größte Erfolg eines weltumspannenden Umweltabkommens war möglich, weil – anders als beim Treibhausgas-Problem – die tatsächlich sehr schädlichen Effekte unmittelbar sichtbar und die zur Debatte stehenden Umsätze der Industrie recht überschaubar waren.
1982, vor vierzig Jahren, dreißig Jahre nach der ersten Stromerzeugung mit Kernkraft, demonstrierten in Europa und den USA Millionen von Menschen gegen die Bedrohung durch einen Atomkrieg. Anders als in der Anti-Vietnamkriegs-Bewegung fünfzehn Jahre zuvor, ging es um die Menschheit und die Erde als Ganzes. Bedeutenden Einfluss hatte dabei das Buch „The Fate of the Earth“ („Das Schicksal der Erde“) von Jonathan Schell, das die Hauptgefahr eines Nuklearkriegs in einer Zerstörung der Ozonschicht sah. Im gleichen Jahr sorgte Paul Crutzen noch einmal für internationales Aufsehen, als er vor einer dramatischen Abkühlung der Erde warnte, wenn bei einem Atomkrieg durch nachfolgende Brände riesige Staubmengen in die Stratosphäre gelangen (später „nuklearer Winter“ genannt). Das hatte sich als wesentlich gefährlicher als die Bedrohung der Ozonschicht herausgestellt.
Im Jahr 2000 schließlich schlug Crutzen vor, das gegenwärtige Erdzeitalter angesichts des entscheidenden Einflusses der Menschen als „Anthropozän“ zu bezeichnen – eine Bezeichnung, die inzwischen weit über die geologische Fachdebatte hinaus zu einem zentralen Begriff in der Diskussion über die gemeinsame Zukunft der Menschheit geworden ist.
Die detaillierte Erforschung des Klimasystems enthüllt das Ausmaß der Bedrohung durch fossile Brennstoffe
Die rasanten Entwicklungen der Computertechnik, nanowissenschaftlich basierter Messmethoden und weltumspannender Erdbeobachtung mit Satelliten und Sonden aller Art, erlaubten ab Ende der siebziger Jahre die Erarbeitung immer aufwändigerer Klimamodelle. Die Rekonstruktion der Klimageschichte entzog zeitweiligen Zweifeln an der Erwärmung nach und nach den Boden.
1979 gab es mit der ersten Weltklimakonferenz in Genf einen Durchbruch für die Anerkennung der Klimaproblems. Dort wurde der Grundstein für das 1992 beschlossene Rahmenabkommen der Vereinten Nationen über Klimaänderungen (UNFCCC), sowie für die 1988 erfolgte Gründung des IPCC (International Panel on Climate Change) gelegt, das bis heute in einer beispiellosen wissenschaftlichen Anstrengung regelmäßig die neuesten Erkenntnisse der Klimaforschung zusammenträgt.
Mit der Zeit wurden die verschiedenen Klimamodelle immer präziser, die mit unterschiedlichen Ansätzen versuchen, das Klimasystem der Erde und seine Reaktion auf menschengemachte Einflüsse nachzubilden – insbesondere auf den Eintrag von großen Mengen CO2 durch die Verbrennung fossiler Energiereserven. Dazu mussten und müssen nicht nur die Dynamiken einer Vielzahl von klimarelevanten Subsystemen (Meere, Polkappen, Tropenwälder, Landwirtschaft, Meeresströmungen, Gebirge, Wassersysteme…) genauer erforscht und in ihrem Zusammenspiel untersucht werden, sondern auch so genau modelliert werden, dass gefährliche Kipp-Punkte einzelner Systeme (Versiegen des Golfstroms, Verschwinden des Grönland-Eises, Auftauen der methanhaltigen Permafrostböden … ) identifizierbar und ihre Risiken ungefähr bestimmt werden können. Das erfordert nicht nur umfangreiche Berechnungen, sondern auch das Sammeln riesiger Datenmengen, die mit neuartigen Sonden, Sensoren, Satellitensystemen und Analysemethoden laufend erfasst werden.
In den achtziger Jahren kam die Frage auf, ob und wie man einen noch tolerierbaren Klimawandel festlegen könne. Angesichts der damaligen Datenlage aber waren nur sehr qualitative Antworten und eine eher politisch willkürliche Grenzziehung möglich. Man begann über eine noch tolerierbare durchschnittliche globale Erwärmung zu diskutieren. 1997 wurde das Zusatzprotokoll von Kyoto zur UNFCCC (Kyoto-Protokoll) beschlossen, das in einer ersten Phase bis 2012 Emissionsminderungen der Industriestaaten vorsah, die auch umgesetzt wurden (-5,2% gegenüber 1990). Die USA allerdings verweigerten die Ratifizierung des Protokolls und Kanada stieg wieder aus. Vor dem Hintergrund immer bedrohlicherer Resultate der Klimaforschung einigte man sich nach heftigen Diskussionen schließlich 2015 auf das Pariser Klima-Übereinkommen, das ohne bindende Verpflichtungen eine Begrenzung der Erwärmung auf deutlich unter 2 Grad, möglichst 1,5 Grad anstrebt – die Grundlage der heutigen Klimapolitik.
Das Emissionsbudget – ein revolutionäres Konzept, das unsere Rolle in der Natur in neuem Licht erscheinen lässt
Die schon 1989 erwogene Idee, eine noch vertretbare Restmenge von klimarelevanten Emissionen zu berechnen, wurde zunächst als zu unwissenschaftlich abgetan. Erst ab 2009, vor dem Hintergrund eines sich abzeichnenden politischen Konsenses für ein Zwei-Grad-Ziel, begannen sich die Wissenschaftler mithilfe wesentlich besserer Daten und Modelle intensiv mit der Berechnung einer maximal noch tolerierbaren Emissionsmenge (Carbon Budget) auseinanderzusetzen, als deutlich wurde, dass sich zusätzliche Emissionen sehr direkt in die durchschnittliche Erwärmung umrechnen lassen und kaum vom Zeitpunkt der Emission abhängen. Die IPCC-Berichte von 2014, 2018 und 2021 beschäftigten sich intensiv mit dem Thema. Danach steht heute nur noch ein Emissions-Budget von 284 Gigatonnen (Gt) zur Verfügung, damit die Temperaturerhöhung mit einer 66%igen Wahrscheinlichkeit unter 1,5 Grad bleibt. Bei gleichbleibendem Verbrauch wäre dieses Budget in 6 Jahren und 9 Monaten (2029) aufgebraucht. Nach den neuesten Erkenntnissen zu drohenden Kipp-Punkten scheint es dringend angezeigt, die Erwärmung auf 1,5 und nicht auf 2 Grad zu begrenzen (bei einem Zwei-Grad-Ziel stünden bei heutigem Verbrauch noch 24,5 Jahre zur Verfügung).
Die obenstehende Grafik zeigt drastisch die dramatische Herausforderung, vor der wir stehen. Inkrementelle Politik reicht da nicht mehr. In der Folge der Pariser Konferenz haben viele Regierungen eigene Ziele formuliert, die aber noch lange nicht für die Erreichung des 1,5-Grad-Ziels ausreichen. Und die konkreten Politiken für die Umsetzung hinken diesen Zielen noch einmal deutlich hinterher. Seitdem 1997 in Kyoto das erste internationale Klimaprotokoll beschlossen wurde, sind die Emissionen um über die Hälfte gestiegen. Mit den ins Auge gefassten graduellen Fortschritten kommen wir nicht schnell genug voran.
Das Konzept des Emissions-Budgets hat tiefgreifendere Folgen für die Wahrnehmung unserer Rolle in der Welt, als es zunächst erscheinen mag. Erst seit kurzem hat es Eingang in die öffentliche Diskussion gefunden. Ein bislang unterschätzter Meilenstein war das Urteil des deutschen Bundesverfassungsgerichts vom 24. März 2021 zur Klimapolitik. Das höchste deutsche Gericht sah elementare Grundrechte der jungen Kläger dadurch verletzt, dass das damalige Klimaschutzgesetz bis 2030 geringe Emissionsminderungen vorsah: „Ein umfangreicher Verbrauch des CO2-Budgets schon bis 2030 verschärft jedoch das Risiko schwerwiegender Freiheitseinbußen, weil damit die Zeitspanne für technische und soziale Entwicklungen knapper wird, mit deren Hilfe die Umstellung von der heute noch umfassend mit CO2-Emissionen verbundenen Lebensweise auf klimaneutrale Verhaltensweisen freiheitsschonend vollzogen werden könnte.“
Das deutsche Klimaschutzgesetz wurde daraufhin innerhalb von einem Monat geändert – die Ziele und Maßnahmen reichen allerdings immer noch nicht aus. Damit bekommen die Zeit und in der Zukunft lebende Generationen eine andere Rolle. Politik auf Zusehen, Absichtsbekundungen und gute Bemühungen reichen nicht mehr aus. In einem anderen Gerichtsbeschluss in den Niederlanden wurde die Firma Shell, das größte Europäische Ölunternehmen mit einer ähnlichen Argumentation dazu verpflichtet, bis 2030 seine eigenen und die Emissionen seiner Kunden um 45 Prozent zu senken.
Damit hat die Wissenschaft möglicherweise rund hundert Jahre nach der Umwälzung des naturwissenschaftlichen Weltbildes durch die Quantentheorie eine weitere kopernikanische Wende vollbracht und dem Menschen in der Natur eine wesentlich bescheidenere Rolle zugewiesen, die den unbändigen materiellen Expansionsdrang der letzten hundert Jahre einhegt. Ob die notwendige Wende in der gesellschaftlichen Realität umsetzbar ist, ist eine andere Frage…
Wieviel Risiko ist vertretbar?
Die Abhängigkeit von fossilen Energien ist hoch, und tief in der Entstehung des Industriesystems verwurzelt. Heute decken sie 77% des weltweiten Primärenergie-Verbrauchs. Vor hundert Jahren (1920) lieferten sie bereits 60% des damals noch fast zehnmal geringeren Konsums. In den Industrieländern ist die Abhängigkeit schon viel älter: Sogar unter Einbeziehung der Muskelkraft wurden in Großbritannien schon um 1800 rund 77% des Primärenergiebedarfs mit Kohle gedeckt, in Frankreich und Deutschland waren es erst Anfang der 1860er Jahre 50%. Diese Abhängigkeit in rund zwanzig Jahren auf Null herunterzufahren (siehe Grafik oben) ist nach Ansicht des IPCC nicht mehr realistisch.
Deshalb wird inzwischen berechnet, wann das 1,5-Grad-Ziel überschritten wird. In den vom IPCC erwogenen Szenarien wird das schon Anfang der 2030er Jahre der Fall sein. Weil die Erwärmung anschließend weitergeht, wird darauf gesetzt, dass später bereits erfolgte Emissionen mit heute noch nicht verfügbaren Technologien aus der Atmosphäre zurückgeholt werden, damit das 1,5-Grad-Ziel nur zeitweilig überschritten wird („negative Emissionen“). Ob das gelingen kann, ist angesichts des ungeheuren dafür notwendigen Aufwandes alles andere als sicher.
Die internationale Energie-Agentur IEA, die von den reichen OECD-Ländern als Antwort auf das Erdöl-Kartell der OPEC nach der Ölkrise 1973 gegründet wurde, hat aufschlussreiche Szenarien durchgerechnet: Wenn die bereits beschlossenen politischen Maßnahmen umgesetzt werden, bleiben die Emissionen in etwa gleich hoch. Das schärfste, von der IEA vorgeschlagene und mit Maßnahmen hinterlegte Szenario NZE sieht vor, dass die Emissionen bis 2050 auf Null abgesenkt werden – wobei auch „negative Emissionen“ zum Einsatz kommen. Damit wird das Carbon Budget ausgeschöpft, das nach den Berechnungen des IPCC ausreicht, um mit einer Wahrscheinlichkeit von 50% (nicht 66%) die 1,5-Grad-Grenze einzuhalten. Eine wachsende Zahl junger Menschen hält es für völlig unverantwortlich, mit 50%iger Wahrscheinlichkeit zu riskieren, dass diese Grenze nicht eingehalten wird.
Sinnlich nicht fassbaren Gefahren und lange Zeithorizonte drohen uns zu überfordern
In jedem Fall erfordert die Bewältigung des Klimaproblems eine weltweite Anstrengung, wie sie menschliche Gesellschaften nur geographisch begrenzt und in Ausnahmesituationen geleistet haben. Dafür ist vor allem eine starke, sowohl rationale als auch emotionale Überzeugung notwendig, dass die drohenden Gefahren einerseits so groß und die Chancen, sie zu überwinden, andererseits so überzeugend sind, dass es sich lohnt, mit großer Entschlossenheit alte Gewohnheiten, etablierte Besitzstände, mächtige Interessen, alte Konflikte und eingefleischte Überzeugungen in Frage zu stellen.
Beides hat mehr mit der naturwissenschaftlich-technischen Entwicklung der letzten hundert Jahre zu tun, als die gegenwärtige Diskussion erahnen lässt. Der ungeheure Erkenntnis- und Machtzuwachs durch die neuen, nanowissenschaftlich fundierten Technologien ist uns in seinen Konsequenzen sinnlich nur schwer nachvollziehbar und überfordert mit seiner Geschwindigkeit und Reichweite unseren erlernten Umgang mit Zeithorizonten. Das hat zu schwerwiegenden Defiziten beim Erkennen von systemischen Gefahren und beim Ergreifen neuer Chancen geführt. In den kommenden Folgen dieser Serie wird es vor allem um die neuartigen, bisher unterschätzten technologischen Chancen für einen naturkompatiblen Wohlstand gehen – hier aber möchte ich zunächst die Schwierigkeiten, unsere Lage zu erkennen, genauer in den Blick nehmen.
Wir sind evolutionär und gesellschaftlich darauf eingestellt, die Gegenwart, das uns Naheliegende, das direkt Erfahrbare weit höher zu bewerten, als die Ergebnisse von Modellrechnungen, die mit hochkomplizierten Methoden aufgrund von Messungen gewonnen wurden, die sinnlich nicht nachvollziehbar sind. Seit nach dem zweiten Weltkrieg die Nanowissenschaften zunehmend wirksam wurden, hinkt die (zunehmende) Wahrnehmung der abstrakten Folgen menschlichen Handelns für das Erdsystem der Wertschätzung der sinnlich wahrnehmbaren Annehmlichkeiten der Technologien immer gefährlicher hinterher.
Was die Klimafolgen angeht, müssen wir grob zwei Ebenen unterscheiden. Einerseits die schon heute spürbaren, immer heftiger werdenden extremen Wetterereignisse, die zunehmenden Klimaverschiebungen, die Veränderungen von Flora und Fauna, Veränderungen im Wasserhaushalt, Austrocknung ganzer Landstriche etc. die zu riesigen Schäden und schlussendlich zu massiver Migration führen können.
Das sind alles Veränderungen, die auf vergangene Emissionen zurückzuführen sind – schließlich ist die Erdtemperatur seit der vorindustriellen Zeit schon um mehr als 1,1 Grad gestiegen. Das Klimasystem ist träge. Zwischen der Emission und der dadurch verursachten Erwärmung liegen mehrere Jahrzehnte – die Zeitverschiebung ist abhängig vom Umfang der Emission und hängt mit verschiedenen Rückkopplungsvorgängen und Sekundäreffekten zusammen. Die Gründe für die Schäden der nächsten Jahrzehnte liegen deshalb schon alle in der Vergangenheit. Wenn wir in der Emissionskurve sehen, wie stark die Emissionen in den letzten Jahrzehnten angestiegen sind, dann lässt sich erahnen, was uns bevorsteht, ohne dass wir noch etwas daran ändern können. Was wir jetzt langsam zu spüren bekommen, sind alles noch graduelle regionale Veränderungen, denen man jetzt zunehmend mit „Anpassungsmaßnahmen“ begegnen will. Sie werden zunehmend massive Probleme in der Landwirtschaft, in den küstennahen Städten, für die Gesundheit, oder millionenfache Migration bringen. Aber sie bedrohen die Menschheit und die Erde noch nicht existentiell.
Das wird aber der Fall sein, wenn die durch die Emissionen der nächsten Jahre angeschobene Temperaturerhöhung mit einigen Jahrzehnten Verspätung eintritt und dann Kippeffekte auslöst, die zu existenziell bedrohlichen disruptiven globalen Veränderungen führen, die die Bewohnbarkeit großer Teile der Erdoberfläche ernsthaft beeinträchtigen und damit die Existenz unserer Zivilisation in Frage stellen. Wir tendieren dazu, von relativ kontinuierlichen Entwicklungen auszugehen. Die Klimaforscher aber weisen uns immer eindringlicher auf eine Reihe immer wahrscheinlicher werdende, plötzliche und irreversible Veränderungen hin, z.B.:
Bei einer Temperaturerhöhung zwischen 0,8 und 3 Grad wird es wahrscheinlich, dass das Grönland-Eis vollständig schmilzt. Das kann allerdings mehr als tausend Jahre dauern – doch die Konsequenzen wären eine existenzielle Bedrohung: der Meeresspiegel würde um sieben Meter steigen und die Meeresströmungen, die das Klima in vielen Weltregionen bestimmen, würden durcheinandergeraten. Ähnliches droht anderen Eisschilden, so z.B. in der Westantarktis.
Ab einem Schwellenwert von etwa 1,5 Grad Temperaturerhöhung (zwischen 1 und 2,3 Grad) werden die borealen Permafrostböden innerhalb von 200 Jahren auftauen und möglicherweise einen schnelleren Kollaps der Permafrostböden auslösen, der wegen der Freisetzung von Methan zu einer zusätzlichen Erderwärmung um 0,2 bis 0,4 Grad führen würde.
Bei einer Temperaturerhöhung zwischen 1,4 und 8 Grad kann die atlantische Umwälzzirkulation (der Golfstrom) innerhalb von 50 Jahren zusammenbrechen, was zu einer Erwärmung der Südhalbkugel und dramatischen Klimaverschiebungen insbesondere im Atlantikraum führen würde
Anders als die zunehmend spürbaren graduellen Klimaveränderungen, betreffen die existenziellen Konsequenzen dieser Kipp-Effekte wohl erst künftige Generationen. Aber ob sie eintreten, wird schon heute entschieden. Wichtig ist dabei, dass die Schwellenwerte bisher nicht genau bestimmt werden können, und dass das Umkippen eines Subsystems das Umkippen von anderen auslösen kann. Bei einer ganzen Reihe von Kipp-Effekten scheint die auslösende Temperaturschwelle zwischen 1,5 und 2 Grad Erwärmung zu liegen. Bei linearer Fortsetzung des immer noch ansteigenden Trends der letzten fünf Jahre ist auch das Carbon-Budget für zwei Grad Erwärmung schon im Jahr 2044 erschöpft.
Es ist zu hoffen, dass die heute sichtbar werdenden Klimaschäden, deren Ursache schon in der Vergangenheit liegt, die Menschheit dazu bringen, das weitere Verbrennen fossiler Brennstoffe schnell zu stoppen, damit unsere Zivilisation nicht riskiert, mit einer Zeitverzögerung von vielleicht ein, zwei Jahrhunderten unterzugehen. Vor dem Eintreten der menschheitsbedrohenden Kippeffekte haben wir es mit kontinuierlichen Entwicklungen und kleineren Kippeffekten zu tun. Je schneller wir umsteuern, desto geringer werden auch die in den nächsten Jahrzehnten auftretenden Probleme werden. Wir kommen nicht umhin, unsere Wahrnehmungsfähigkeit auf die Höhe unserer technischen Möglichkeiten zu bringen. Das wird, wenn wir keine Diktaturen wollen, auch gewaltige Bildungsanstrengungen erfordern.
Gemeinsame Strategien für eine heterogene Menschheit erfordern ein bisher unbekanntes Maß an Kooperation
Nun ist es ja nicht so, dass man seit den neunziger Jahren nichts gegen den Klimawandel getan hätte. Seit ein paar Jahren ist das bei allen internationalen Begegnungen und sogar in der Finanzwelt eines der Hauptthemen. Und doch steigen die klimaschädigenden Emissionen weiter an. Die detaillierte Analyse der globalen Zahlen ergibt zusätzliche Herausforderungen für unseren Umgang mit Zeithorizonten.
Die Entwicklung der Emissionen gegliedert nach Weltregionen zeigt einen gewaltigen Anstieg in China und anderen weniger reichen Ländern. Nach wie vor sind die Unterschiede in den CO2-Emissionen pro Kopf riesig: Während der Weltdurchschnitt bei 4,5 Tonnen im Jahr 2021 liegt, stießen die USA im Schnitt pro Einwohner mehr als 3,4 mal so viel, nämlich 15 t aus, Deutschland 8,1 t, China 7,3 t, Italien 5,6 t, die Schweiz mit 4,0 t weniger als der Weltdurchschnitt und Indien 1,7 t. Berücksichtigt man zusätzlich die historische Summen der von den Ländern emittierten Mengen pro Kopf, dann steht China im Verhältnis wesentlich besser da, und die USA noch schlechter. Das macht eine Einigung auf Zielwerte für jedes Land sehr schwierig.
Eine Analyse der Treiber der Veränderungen seit 1990 zeigt, dass die Unterschiede der Weltregionen in Bezug auf Bevölkerungs- und Einkommenswachstum ganz unterschiedliche Herausforderungen bei der Bekämpfung des Klimawandels zur Folge haben. Die deutliche Verringerung der Energieintensität (Energieeinsatz pro Einheit der Wirtschaftsleistung), also die Verbesserung der Energieeffizienz, konnte den Effekt des Bevölkerungswachstums weltweit nicht kompensieren (wohl aber in China, wo sie mehr als fünfmal so starken Einfluss hatte) und erst recht nicht die deutlich gestiegenen privaten Einkommen. In wenig wachsenden, reichen Ländern geht es vor allem darum, fossile Energieträger durch Einsparungen oder neue Energiequellen in bestehenden Strukturen zu ersetzten. Das kann angesichts der inzwischen kurz gewordenen Fristen und der langen Lebensdauer von energietechnischen Anlagen dazu führen, dass funktionsfähige, kapitalintensive Anlagen stillgelegt werden müssen – entsprechend groß ist der Widerwille und Widerstand der betroffenen Industrien und Investoren. In armen Ländern dagegen, wo die Einkommen oder die Bevölkerung oder beide schnell wachsen, muss die erste Priorität darauf liegen, den zusätzlichen Energiebedarf effizient und mit Erneuerbaren zu decken und den Aufbau von späteren „stranded assets“ zu vermeiden. Wenn neue, klimaneutrale Anlagen zudem günstiger produzieren, ergibt sich dadurch ein langfristiger Wettbewerbsvorteil.
Bemerkenswert ist zudem, dass in der Periode seit 1990 die Verschiebung im Energiemix – also der Ersatz der fossilen durch andere Energiequellen – weltweit viermal weniger brachte als die Reduzierung der Energieintensität (in China zehnmal weniger). Das hat sich allerdings in den letzten zehn Jahren durch den Zubau von Photovoltaik und Wind etwas verschoben. Energieeffizienz ist und bleibt damit für die Eindämmung des Klimawandels von ganz zentraler Bedeutung.
Die Bedeutung des Wachstums von Bevölkerung und Einkommen wird durch die folgenden Grafiken verdeutlicht.
In Asien wird die Bevölkerung bald nicht mehr wachsen, während sie in Afrika, wo die Einkommen wesentlich geringer sind, weiterhin stark ansteigen dürfte. Was das potentielle Wachstum von Treibhausgas-Emissionen angeht, ist daher insbesondere in Afrika darauf zu achten, dass von vornherein eine klimaneutrale Energieversorgung mit den neuesten Technologien und den entsprechenden beruflichen Fähigkeiten aufgebaut wird.
Dramatische Herausforderungen erlauben keine Verzögerungen bei der Wahrnehmung neuer Chancen
Die Klima- und Energiekrise ist mit anderen drängenden Krisen eng verflochten und hat vielfältige politische, soziologische und psychologische Aspekte - aber das kann in dieser Serie immer nur am Rande ein Thema sein. Hier geht es vor allem darum, darzustellen, wie die Geschichte von Naturwissenschaft und Technik zur heutigen Situation beigetragen hat, und herauszuarbeiten, welche Optionen sich daraus ergeben.
Die Klimawissenschaften und die Proteste der jüngeren Generationen zeigen uns, dass die notwendige Umsteuerung mit einer in der Industriegeschichte nie dagewesenen Geschwindigkeit erfolgen muss – sogar die Umstellung der Telekommunikationsindustrie in Folge von Mikroelektronik und Internet war demgegenüber langsam. Die zu mobilisierenden Kapitalinvestitionen sind riesig. Vor dem Überfall Russlands auf die Ukraine kamen 5% des weltweiten Verbrauchs an fossiler Energie aus Russland. Die Verwerfungen, die der Versuch, diese Mengen einzusparen, auf den Weltmärkten ausgelöst hat, geben einen Vorgeschmack auf die bevorstehenden Herausforderungen.
Angesichts der Dringlichkeit des Klimaproblems wird allein schon an den Zeithorizonten deutlich, dass neue Atomkraftwerke hier keinen sinnvollen Beitrag leisten können. Bis die ersten von ihnen zur Verfügung stehen könnten, müssen die Emissionen schon fast ganz unten sein. Photovoltaik-Kraftwerke, Windturbinen und Speicherbatterien lassen sich viel schneller bauen. Jede Million, die in Kernkraft anstatt in Photovoltaik gesteckt wird, ist für die Lösung des vielleicht gefährlichsten Problems der Menschheit verloren.
Zunehmende lokale Katastrophen werden zu einer verstärkten Wahrnehmung der Klimaproblematik führen. Die Aufmerksamkeit variiert jedoch sehr stark: Die Überschwemmung in Pakistan von diesem Sommer, die eine Fläche von der Größe Italiens erfasste und 33 Millionen Menschen aus ihren Wohnungen vertrieb, wurde vor dem Hintergrund des Ukraine-Kriegs in Europa kaum wahrgenommen. Die sehr unterschiedliche Fähigkeit und Bereitschaft, die drohenden Gefahren wahrzunehmen und entsprechende Maßnahmen zu ergreifen oder zu akzeptieren, wird überall gesellschaftliche Spannungen verschärfen.
Wie wir noch ausführlicher in den nächsten Folgen dieser Serie sehen werden, sind neue, klimafreundliche Technologien nicht nur notwendig, sondern auch kostengünstiger. Wer schneller auf neue, klimafreundliche Technologien setzt, ist im Vorteil. Das gilt auch für Länder und Kontinente, die durch die Subvention veralteter Technologien überholte Strukturen am Leben erhalten. China ist heute ein Vorreiter bei den erneuerbaren Energien. In Europa, das technologisch führend war, haben alte Industrien die Umstellung auf Erneuerbare jahrzehntelang hintertrieben.
Die Geschichte der Nutzung von Kohle Öl und Gas in der nächsten Folge dieser Serie wird einerseits illustrieren, wie groß die Schwierigkeit ist, die Trägheit existierender Systeme, Communities, Gewohnheiten, Überzeugungen und Industrien zu überwinden, und andererseits aber auch zeigen, welche neuen technischen Ansätze die neuen Wissenschaften in diesen Bereichen angestoßen haben.
Für Kommentare bin ich dankbar - siehe Link hier unten.