Die Geschichte der fossilen Energieversorgung, Grundlage der Industrialisierung
Geschichte der Energietechnik (8) – Die Entdeckung der Nanowelten ermöglicht eine erneuerbare Energieversorgung für Alle
Kohle, Erdöl und Erdgas waren die Grundlage und sind die immer noch dominierenden Energiequellen unserer industriellen Zivilisation. Erst durch den Beitrag der Nanowissenschaften konnten vor allem Öl- und Gasproduktion zum heutigen Volumen anwachsen. Obwohl die klimaschädigende Wirkung der fossilen Brennstoffe seit mehr als einem halben Jahrhundert bekannt ist, gelang es den großen fossilen Industrien, ihre dominierende Machtstellung bis heute zu bewahren. Was können wir aus ihrer Geschichte lernen? Haben sie auch Technologien hervorgebracht, die für eine nicht-fossile Zukunft brauchbar sind?
Diese Serie erkundet die weitreichenden Folgen des Umbruchs der Naturwissenschaften am Anfang des letzten Jahrhunderts für die Energietechnik und Energieversorgung. Die ersten Folgen beschäftigten sich mit der Atomenergie, die ein frühes Produkt dieses Umbruchs war, um sich dann neueren Entwicklungen zuzuwenden, die bessere Optionen eröffnen, um der Klimakrise zu begegnen.
Die Kohle – Ursprung der industriellen Energiewirtschaft
Die erste Phase der Industrialisierung beruhte auf der Kohle – in Europa, in den USA, später auch in China, Australien, Indien, Indonesien… Schon die Römer bauten Kohle in Britannien ab. Und im 13. Jahrhundert wurde in China Kohle für die Energiegewinnung genutzt. Auch in Europa ist die Nutzung von Kohle seit dem 13. Jahrhundert belegt. Doch noch am Ende des 18. Jahrhunderts wurde technisch genutzte Energie ganz vorwiegend aus Biomasse gewonnen.
Die industrielle Nutzung von Kohle begann in England. Schon im 16. Jahrhundert wurde in London die leicht zu gewinnende Kohle zum Heizen verwendet. Ab dem 17. Jahrhundert war sie die Grundlage für die beginnende Industrialisierung. James Watt entwickelte ab 1760 ganz wesentliche Verbesserungen der zuvor recht ineffizienten Dampfmaschinen und macht damit kohlebefeuerte mechanische Antriebe konkurrenzfähig gegenüber Wind- und Wassermühlen oder Pferden. Das erste funktionsfähige Dampfschiff fuhr 1783 und die erste Lokomotive auf Schienen im Jahr 1804. Doch es dauerte viele Jahrzehnte, bis sich diese Technologien allgemein durchsetzten – nicht zuletzt deshalb, weil parallel die Eisen- und Stahlindustrie entwickelt werden musste, die die effiziente Konstruktion von haltbaren Maschinen ermöglichte.
Für die Entwicklung der Stahlindustrie war Kohle von ganz zentraler Bedeutung. Als Energielieferant, aber bis heute auch als chemischer Grundstoff für die Reduktion des im Eisenerz enthaltenen Eisenoxids zu Roheisen (d.h. die Bindung des im Eisenoxid mit dem Eisen verbundenen Sauerstoffs). Daher bildeten sich dort wo Kohle und Eisen im Boden vorkamen, sogenannte Montanregionen, wie z. B. in den englischen Midlands, in Wales, in Lothringen, im Saarland, im Ruhrgebiet, in Pennsylvania. Sie waren über ein Jahrhundert die Kraftzentren der industriellen Entwicklung, und brachten einerseits große Industriekonzerne und eine starke Arbeiterbewegung, andererseits aber auch eine starke Umweltbelastung und eine einseitige Abhängigkeit großer Industrielandschaften von der Kohle- und Stahlindustrie hervor. Zu dieser Zeit war Kohle nicht mehr leicht zugänglich. Der Bergbau in größeren Tiefen wäre ohne dampfbetriebene Pumpen, die mit Kohle befeuert wurden, nicht möglich gewesen. Ein Paradebeispiel für eine technologische Co-Entwicklung.
Ab 1812 wurde im ersten kommerziellen Gaswerk in London Gas aus Kohle für die Beleuchtung mit Gaslampen erzeugt – eine Technik, die sich schnell ausbreitete, eine deutliche Verlängerung der Arbeitszeiten ermöglichte und auch die privaten Lebensgewohnheiten stark veränderte. Ab 1880 begann der Siegeszug der Elektrizität mit verbesserten Dynamos und 1893 dem Triumph der von Nikola Tesla erfundenen und von Westinghouse kommerzialisierten Wechselstrom-Technik gegenüber dem von Edison favorisierten Gleichstrom. Elektrische Glühbirnen begannen die Gaslampen zu verdrängen – doch in der Industrie sowie für das Kochen und Warmwasser stieg der Gasverbrauch weiter. Mit Wechselstrom konnte Elektrizität über größere Strecken übertragen werden und wurde wegen ihrer Flexibilität und Sauberkeit immer mehr für mechanische und thermische Anwendungen eingesetzt.
Um 1900 war Kohle die dominante technische Energiequelle – für Wärme, mechanischen Antrieb und Elektrizität. Sie lieferte 96 Prozent der fossilen Energie – Öl war noch unwichtig. Daneben hatte nur Elektrizität aus Wasserkraft eine gewisse regionale Bedeutung. Trotz des Aufkommens anderer Energiequellen stieg der Verbrauch von Kohle weltweit bis 2014 unaufhaltsam an.
Neue Technologien haben nach dem zweiten Weltkrieg bei der Gewinnung und Nutzung von Kohle graduell, aber nicht grundlegend, zu Effizienzsteigerungen und geringeren Umweltbelastungen geführt. Zunehmend konzentrierte sich die Verwendung auf die großtechnische Erzeugung von Strom und Wärme. Eine wichtige Verbesserung war seit den 1970er Jahren die Rauchgasreinigung. Proteste gegen die schlechte Luft in den Ballungszentren und dann das Waldsterben erzwangen in den westlichen Ländern gesetzliche Regelungen, die zum Bau von milliardenschweren Anlagen für die Entfernung von Staub und Schwefel aus den Abgasen der Kraftwerke dienen. Die heute niedrigeren Energiepreise und der hohe Kohleverbrauch in Asien sind zum großen Teil darauf zurückzuführen, dass entsprechende Auseinandersetzungen dort noch im Gange und gesetzliche Reinigungsvorschriften dort wesentlich schwächer sind als in den OECD-Ländern.
Heute wird Kohle im Wesentlichen für die großtechnische Wärmeerzeugung in Kraftwerken und Industrieanlagen, sowie für die Stahlherstellung genutzt. Die grundlegenden materialbezogenen Technologien sind seit der Mitte des letzten Jahrhunderts die gleichen. In den Ursprungsländern der Industrialisierung ist die Kohleförderung ist wegen hoher Kosten und Umweltauflagen stark zurückgegangen. Hocheffizienter, großräumiger Kohleabbau in Australien und Kohleminen mit geringeren Umweltauflagen in Asien sind billiger.
Hunderte von Milliarden an Subventionen sind in die Verlängerung der marktwirtschaftlich nicht mehr rentablen Kohleförderung in Europa und den USA geflossen. 1957 arbeiteten 600‘000 Arbeiter in Westdeutschlands Bergwerken, schon damals war jede zweite Zeche im Ruhrgebiet unrentabel. Allein 1950 bis 2008 wurden für die Kohlesubventionen in Deutschland 295 Milliarden Euro ausgegeben – ohne Anrechnung der Umweltschäden. Gegenwärtig wird jährlich noch deutlich über eine Milliarde aufgewendet. Das zeigt, wie groß die Beharrungskraft alter Industrien ist.
2002 bis 2012 stieg der weltweite Kohleverbrauch vor allem wegen der Entwicklung in Asien stark an und erreichte 2014 seinen Höhepunkt. Wegen der besonders hohen CO2-Emissionen, aber auch wegen der auch in Europa noch erheblichen lokalen Luftverschmutzung durch Kohle, wird überall eine Reduktion des Kohleeinsatzes angestrebt.
Die in manchen Weltgegenden leicht abzubauende Kohle ist verführerisch. Die Lagerstätten enthalten viel mehr Kohlenstoff als die Atmosphäre vertragen kann.
Erdöl konnte nur dank neuer Technologien das Produktionsniveau halten
Bei Erdöl und Erdgas gab es bedeutendere technologische Entwicklungen. Mit dem Aufkommen der Verbrennungsmotoren ab den 1880er Jahren nahm die Verwendung von Erdölprodukten langsam zu. 1920 betrug sie 8% des gesamten fossilen Energieverbrauchs. Ab 1940 setzte ein anhaltender Boom des Erdöls ein. 1950 lieferte es etwa halb so viel Energie wie Kohle. 1965 war es schon gleichviel. Zwischen 1950 und 1970 stieg die Erdölproduktion auf fast das Fünffache (+370%).
1973, im Jahr der ersten Ölkrise, lag der Anteil an den fossilen Energien mit gut 54% am höchsten, dann nahm er ab. Die Die Förderkürzung durch das OPEC-Kartell hatte deutlich gemacht, dass die Reserven endlich waren. 1979 gab es einen zweiten Ölpreisschock, bei dem – ausgelöst durch die Revolution im Iran – die Ölpreise zwischen 1978 und 1981 auf das 2,7-fache anstiegen. Das hatte weltweit starke wirtschaftliche Folgen, aber der Ölkonsum stieg nach einem kurzen Einbruch weiter an.
Absolut gesehen stieg die jährliche Erdölproduktion von 1973 bis zum vorläufigen Höhepunkt 2018 weiter auf mehr als das Anderthalbfache (+55%). Dafür waren angesichts immer schwieriger auszubeutender Lagerstätten erhebliche Fortschritte bei der Erkundung und Gewinnung notwendig, die ohne neueste Entwicklungen in Sensorik und Datenverarbeitung, ohne neuartige Materialien und neue Erkenntnisse zu nanoskaligen Prozessen im Untergrund undenkbar gewesen wären.
Durch verbessertes „Fracking“ (unterirdisches Aufbrechen von Schieferformationen durch Hochdruck-Injektion von Chemikalien), sowie durch ferngesteuerte Bohrtechniken, die „horizontal drilling“ und unterirdische Abzweigungen erlauben, konnten die USA zwischen 2007 und 2016 ihre Erdölproduktion um 75% und die Erdgasproduktion um 39% steigern – nicht ohne zunehmende Kontroversen über lokale und globale Umweltauswirkungen.
Ab den neunziger Jahren gab es eine Diskussion über „Peak Oil“ – der Hypothese, dass die maximale Förderung von Erdöl schon oder bald erreicht sei, weil die förderbaren Vorräte zu Ende gehen. Dank der neuen Technologien ist die Produktion bis 2019 allerdings kontinuierlich gestiegen. Die Investitionen in Öl und Gas sind schon seit 2014 deutlich, aber nicht dramatisch zurückgegangen. 2019 sind die Ölproduktion und die gesicherten Reserven zum ersten Mal leicht gesunken. In der Energiekrise seit der russischen Invasion in die Ukraine hat sich gezeigt, dass die Öl- und Gasproduktion deutlich weniger ausgeweitet werden konnte als zuvor allgemein angenommen. Die massiven Gewinne der Nationalen Ölgesellschaften in diesem Jahr könnten allerdings einen weiteren Rückgang der Öl-Investitionen bremsen. Nach Schätzungen des Internationalen Währungsfonds könnten sich die zusätzlichen Öleinnahmen der Energieexporteure im Nahen Osten und in Zentralasien allein im Jahr 2022 auf 320 Mrd. USD belaufen.
Aufschlussreich ist der Vergleich der historischen Wachstumsraten der verschiedenen Energiequellen in der untenstehenden Abbildung.
Das Wachstum des Ölproduktion stürzte 1973 ab und erholte sich ab Ende der 1980er Jahre ein wenig. Die Atomenergie wuchs ab Mitte der sechziger Jahre zunächst sehr stark, verlor dann aber schnell an Geschwindigkeit. Die Erneuerbaren zeigten seit Mitte der sechziger Jahre ein stärkeres Wachstum als die fossilen Energiequellen und schossen ab der Jahrtausendwende nach oben, weil vor allem die Photovoltaik mit jährlich über 35% ein Wachstum vorlegte, das zuvor von keiner Energietechnik erreicht worden war.
Die Ölindustrie und das Auto
Der Straßenverkehr verbraucht inzwischen die Hälfte der weltweiten Ölproduktion. Das ist ein beachtlicher Erfolg der gemeinsamen Bemühungen der Erdöl- und der Autoindustrie. Über ihre Anstrengungen, vielerlei Anreize und Vorteile für das Privatauto zu schaffen, den öffentlichen Verkehr zu behindern, schärfere Abgasvorschriften zu verzögern, alternative Antriebe schlechtzureden und Zweifel am Klimawandel zu säen, ist viel geschrieben worden – das soll hier nicht wiederholt werden. 2012 wurden die externen Kosten des Autoverkehrs in der EU auf 370 Millarden Euro pro Jahrgeschätzt. Eine jüngere Studie ergab, dass größere Autos in Deutschland jährlich mit je ca. 5000 € von der Gesellschaft subventioniert werden.
Doch nun scheint ein Kipp-Punkt erreicht zu sein. Die Einführung von elektrischen Fahrzeugen beschleunigt sich. In der EU dürfen nach 2035 keine Verbrenner mehr verkauft werden. Nun setzt ein schnellerer Wertverlust für Verbrenner-Fahrzeuge ein, der dazu führen könnte, dass sich die Abkehr vom individuellen Verbrenner-Fahrzeug immer mehr beschleunigt. Anders als früher können die etablierten Autokonzerne das Geschehen nicht mehr kontrollieren: als Ersatz für die noch nicht lieferfähige europäische Autoindustrie stehen zunehmend asiatische Hersteller bereit. Und dann droht das autonome Fahren erhebliche Kostenvorteile für intensiver genutzte Mietfahrzeuge und flexible Shuttles zu bieten. In Asien setzen sind bereits Millionen elektrischer Zweirad-Fahrzeuge unterwegs – Marktanalysten rechnen für 2029 mit 266 Millionen Einheiten. Damit scheint es nicht ausgeschlossen, dass technologische Entwicklungen, auf die wir in den nächsten Folgen dieser Serie eingehen werden, die Macht der Ölindustrie schneller einbrechen lassen als bisher angenommen.
Erdgasboom dank neuer Technologien
Wie oben erwähnt, wurde ab der Mitte des 19. Jahrhunderts Stadtgas aus Kohle hergestellt und mit Rohrnetzen verteilt – zunächst für Beleuchtungszwecke und dann auch zum Kochen und für die Warmwasserbereitung. Erdgas aus natürlichen Quellen war schon vor unserer Zeitrechnung in China bekannt. Kommerziell genutzt wurde es erstmals in den 1820er und 1830er Jahren in den USA, wo einige Quellen leicht zugänglich waren. Lange Zeit wurde es als Nebenprodukt der aufkommenden Erdölförderung nur lokal verwendet und wegen des aufwändigen Transports zum großen Teil abgefackelt.
Der Gasverbrauch entwickelte sich zunächst vor allem in den USA: 1965 betrug der Anteil der USA am weltweiten Gasverbrauch 66%, beim Öl waren es 36%. Dabei lag der Gasverbrauch schon bei zwei Dritteln des Ölverbrauchs. In Deutschland betrug der Gasverbrauch damals nur 3% des Ölverbrauchs, auch in den Niederlanden – wo man gerade erst Erdgas entdeckt hatte – nur 5%, in Italien bereits 12%. In Folge des 1970 abgeschlossenen Röhrengeschäfts zwischen Deutschland und der Sowjetunion, bei dem in großem Umfang Stahlrohre für Pipelines gegen Erdgaslieferungen getauscht wurden, stieg der Erdgasverbrauch in Deutschland innerhalb eines Jahrzehnts auf das Dreifache – das war der Anfang der heutigen Gasabhängigkeit Europas von Russland.
Erdgas ist wesentlich teurer zu transportieren als Erdöl, denn es hat unter Normalbedingungen eine tausendmal geringere Energiedichte. Die Kosten des Transports von Erdgas machen im internationalen Gashandel meist über die Hälfte der Kosten der gesamten Lieferkette aus. 1970 wurde weniger als 1% des weltweiten Erdgasverbrauchs international gehandelt, heute ist es etwa ein Fünftel – beim Erdöl etwa die Hälfte.
Für internationale Verbreitung des Erdgas-Einsatzes waren beträchtliche Infrastruktur-Investitionen und technische Entwicklungen notwendig. Auf Distanzen von weniger als einigen tausend Kilometern ist der Transport in Hochdruck-Pipelines am günstigsten. Für größeren Distanzen lohnt es sich, das Gas zunächst in riesigen Anlagen bei hohem Druck und tiefen Temperaturen zu verflüssigen, das so gewonnene LNG (Liquefied Natural Gas) in Spezialschiffen bei minus 163 Grad zu transportieren und schließlich wieder in Gas umzuwandeln, das zur Verteilung in ein Rohrsystem eingespeist wird.
Für die problemlose Kompression und erst recht die Verflüssigung, sowie die saubere Verbrennung in standardisierten Geräten muss das rohe Erdgas, das überwiegend aus Methan besteht, gereinigt werden. Dazu werden alle anderen Komponenten außer Methan in mehreren Stufen abgeschieden. Für diese Prozesse verwendet man sogenannte Molekularsiebe, die die Gasmoleküle selektiv in komplexen Kristallstrukturen anlagern können. Nachdem seltsame Eigenschaften von Mineralien, die Zeolithe genannt werden, schon früher aufgefallen waren, konnten geeignete Molekularsiebe mit unterschiedlichen Porengrößen erst ab den fünfziger Jahren mit Hilfe der neuen Nanowissenschaftenentwickelt werden.
Das Resultat dieser Entwicklungen war ein fossiler Energieträger, der sich wegen seiner sauberen und einfachen Verbrennung im Vergleich zu Öl und Kohle großer Beliebtheit erfreute – wenn erst einmal die Leitungen lagen, die auch die private Brennstofflagerung ersetzten.
Die Technik für die Herstellung von geeigneten Stahlrohren und Kompressoren war konventioneller, entwickelte sich aber ebenfalls erst im Laufe der Zeit. Bemerkenswert aber sind, sowohl auf der Pipeline- als auch auf der LNG-Route, die erforderliche riesigen, langlebigen Investitionen – die laufenden Kosten sind relativ gering. Die Lebensdauer der entsprechenden Anlagen übersteigt die von Atomkraft-, Photovoltaik- oder Windkraftwerken. Deshalb ist die Gasindustrie, die in Europa im Wesentlichen mit dem Transport befasst ist, äußerst interessiert daran, ihre Investitionen möglichst lange zu nutzen.
In Zeiten der Klimakrise hofft sie auf grünen Wasserstoff, der (teilweise) dem Methan nachfolgen sollte. Das wäre allerdings mit erheblichen Mehrkosten verbunden: Wasserstoff braucht wegen seiner geringeren Energiedichte doppelt so viele Pipelines und wesentlich größere Kompressoren, wegen der niedrigeren Siedetemperatur ist der Schiffstransport ungleich aufwändiger, Wasserstoff dringt durch kleinere Poren als Methan und führt zur Versprödung wichtiger Werkstoffe… dazu ein andermal mehr.
Neue Überkapazitäten werden die Abkehr vom Erdgas weiter erschweren: Als Reaktion auf die Gaskrise nach dem Überfall Russlands auf die Ukraine wurde der Bau zusätzlicher LNG-Kapazitäten beschlossen, die mehr als doppelt so groß sind, wie die gesamten russischen Gas-Exporte 2021 - ein klimapolitischer Alptraum.
Unterirdische Einlagerung von CO2 – neue Einnahmequelle für die Öl- und Gasindustrie?
Unter dem Druck der Klimadebatte suchen die großen Öl- und Gasfirmen weniger klimaschädigende Einnahmequellen und versuchen dabei, ihre hochentwickelten Technologien einzusetzen. Prozesstechnik und unterirdischen Erkundungs- und Bohrtechniken sollen es ermöglichen, das bei der Verbrennung entstehende klimaschädliche Kohlendioxid in unterirdische Hohlräume oder Gesteine zu verpressen. Dazu muss das Abfall-Gas zunächst eingefangen werden, was dort einfacher ist, wo es in großen Mengen anfällt, wie z.B. in fossilen Kraftwerken.
Ein solches Verfahren – Carbon Capture and Storage (CCS) oder Carbon Capture Utilisation and Storage (CCUS) genannt – würde es erlauben, die Verwendung von fossilen Brennstoffen zu verlängern. Darauf hofft natürlich die Ölindustrie. Angesichts der schnellen Klimaveränderung setzen auch die Szenarien des IPCCund der Internationalen Energie-Agentur IEA zu einem Teil auf CCS. Dabei geht es um riesige Mengen CO2.
Entgegen früheren Hoffnungen haben sich alle Versuche, CO2 abzuscheiden und unterirdisch sicher einzulagern, aber als so energieaufwendig und teuer erwiesen, dass eine Energiegewinnung mit fossilen Brennstoffen und anschließender CO2-Entsorgung keine Aussicht hat, mit erneuerbaren Energiequellen zu konkurrieren.
Das ist einleuchtend, denn die entstehenden Gasmengen sind riesig: Bei der Verbrennung verbindet sich ein Kohlenstoffatom (Atomgewicht 12) mit zwei Sauerstoffatomen (Atomgewicht je 16). Deshalb entstehen bei der Verbrennung von einem Kilogramm Kohlenstoff (etwa 1,25 kg Steinkohle) ca. 3,7 kg Kohlendioxid. Da die üblicherweise einfach in die Luft entweichen, ist uns das kaum bewusst. Und aus einem Kubikmeter Erdgas (Methan, CH4) entsteht ein Kubikmeter Kohlendioxid, das aber 2,75 mal so viel wiegt. Ein Kilogramm Kohlendioxid (so viel entsteht etwa bei der Erzeugung von einer Kilowattstunde Strom aus Braunkohle) misst gasförmig bei Atmosphärendruck einen halben Kubikmeter. Unter hohem Druck kann man es zu einem halben Liter Flüssigkeit verflüssigen. Da das schwere Abgas zunächst abgeschieden und dann im Zweifelsfall über größere Strecken (z.B. von Deutschland zur norwegischen Küste) transportiert und schließlich verpresst werden müsste, wäre die Entsorgung oft aufwändiger als die Brennstoffbeschaffung. Trotzdem ist es denkbar, dass bei industriellen Prozessen wo die Entstehung nur schwer vermieden werden kann, wie etwa der Zementproduktion, ein solches Verfahren vorübergehend sinnvoll ist.
Seit den 1970er Jahren wird CO2 in der Erdölförderung eingesetzt (enhanced oil recovery, EOR): durch unter Hochdruck verpresstes CO2 wird in weitgehend erschöpften Erdöl-Lagerstätten noch einmal Oel gewonnen, das sonst nicht mehr gefördert werden könnte. Die größeren CO2-Einlagerungs-Projekte sind in diesem Zusammenhang entstanden. Wie auch die IEA berichtet, sind die tatsächlich operativen Projekte in den letzten Jahrzehnten trotz großer Ankündigungen aber kaum vorangekommen. Insgesamt betrug die Einlagerung 2021 weltweit nur 41 Megatonnen CO2 – das entspricht dem CO2-Ausstoß von weniger als zehn großen Kohlekraftwerken. Nur ein Viertel davon in Pilotprojekten, die nicht mit der Ölförderung gekoppelt sind. Auch die Kapazitäten der Abscheideeinrichtungen, die auch CO2 für verschiedene Industrien liefern, sind seit mehr als einem Jahrzehnt etwa konstant. Abscheidung und Einlagerung kosten nicht nur viel, sondern sind auch sehr energieaufwändig: der Energieverbrauch bei der Verstromung würde sich dadurch um ca. 40% erhöhen. Zudem bleibt die Abscheidung immer unvollständig.
Trotzdem rechnet die IEA im Net Zero Emission Szenario 2050 des letzte Woche erschienenen World Energy Outlook 2022 schon für 2030 mit einer dreißigmal höheren Einlagerungskapazität (1,2 Gt) und für 2050 mit einer nochmaligen Verfünffachung (6,2 Gt, das sind 18 Prozent der CO2-Emissionen 2021). Immerhin ist das deutlich weniger als in vergleichbaren 1,5-Grad-Szenarien des IPCC. Die Kosten für die Abtrennung von CO2 können bis zu drei Vierteln der Kosten von CCUS ausmachen und variieren beträchtlich: zwischen 20 und 200 Dollar pro Tonne CO2. Dazu kommen Transport und Einlagerung. Die IEA vermeidet jegliche Kostenangaben. Rechnet man optimistisch für den gesamten CCUS-Zyklus mit 100 Dollar pro Tonne CO2, dann entspräche die von der IEA für 2050 angepeilte Menge 620 Milliarden, das sind etwa zehn Prozent des Öl- und Gasmarkts im letzten Jahr.
Erst recht aufwändig ist es, das Kohlendioxid nachträglich aus der Luft abzuscheiden (also nachdem es auf unter 1 Promille verdünnt wurde), um es dann unterirdisch einzulagern. Heute kostet das 250 bis 600 Dollar pro Tonne CO2 – man hofft, die Kosten in den nächsten Jahren auf 150 bis 200 senken zu können. Im IEA Net Zero Emission Szenario wird für 2050 mit 600 Megatonnen CO2 sogenanntem „Direct Air Capturing“ gerechnet. Dafür gibt es Pilotanlagen an Orten, wo die direkte Einlagerung relativ kostengünstig und sicher ist.
Die Erzeugung einer Kilowattstunde Strom in einem Kohlekraftwerk ergibt ungefähr ein Kilogramm CO2. Das abzuscheiden und einzulagern, wird also mittelfristig 10 bis 20 Cent pro Kilowattstunde kosten. Die IEA schätzt in ihrem neuesten Bericht die Stromkosten aus Photovoltaik im Jahr 2030 auf 2 bis 3 Cent pro Kilowattstunde. Das Verzögern der Wende führt nicht nur zu massiven Klimaschäden, sondern verteuert auch die Energieversorgung.
Sinnvoller, aber megaloman: Off-shore Windenergie braucht Hochtechnologie und große Mengen Stahl
Eine andere Chance, die technologischen Fähigkeiten der Ölindustrie nutzbar zu machen, ist die Offshore-Windindustrie. Da müssen riesige Strukturen aus Stahl und Beton auf hoher See aufgebaut und gewartet werden. Bisher geht es um Offshore-Windkraftwerke, die fest im Meeresboden verankert werden. Eine 8 MW-Turbine braucht 1‘000 Tonnen Stahl. Heute werden 16 MW-Turbinen gebaut, die proportional weniger brauchen. Auf die produzierte Strommenge bezogen liegt der Stahlbedarf in ähnlicher Höhe wie bei Photovoltaik-Kraftwerken, jedoch niedriger als bei Windkraftwerken an Land, wo die Windverhältnisse weniger vorteilhaft sind.
In Zukunft sollen schwimmende Windkraftwerke entstehen. Ihr Vorteil ist, dass sie in größeren Wassertiefen verankert werden können, wo der Wind kräftiger und konstanter bläst. Vor vielen stark bevölkerten Küsten sind ausgedehnte derartige Gebiete zu finden. So wird das technische Potential vor den Küsten der USA auf etwa das Dreifache der heutigen Stromproduktion in den USA geschätzt.
Für die Konstruktion der geplanten Schwimmer müssen spezielle Werften und Häfen erst noch gebaut werden, weil die bisherigen Strukturen nicht ausreichen, um die riesigen Stahl- und Betonstrukturen effizient zu fertigen. Man hofft, die Kosten des Unterbaus eines schwimmenden Windkraftwerks vom Fünffachen auf das Doppelte eines fest installierten Offshore-Kraftwerks senken zu können. Führend in dieser Technologie ist die norwegische Ölfirma Equinor, die seit zwanzig Jahren mit schwimmenden Windkraftwerken experimentiert und für 2030 mit der Konkurrenzfähigkeit der technologisch hochgerüsteten Kraftwerke rechnet. Nur mächtige Industriekonsortien können da mitspielen.
Ein wertvoller Beitrag zur Wärmewende: Tiefen-Geothermie
Um kleinere Einheiten, aber insgesamt beachtliche Potentiale handelt es sich bei einer andersartigen Technologie, bei der die geologischen und bohrtechnischen Fähigkeiten der Ölindustrie gefragt sind: der tiefen Geothermie. Die von einer breiten Kooperation staatlicher Forschungsinstitute erarbeitete deutsche Roadmap Tiefe Geothermie rechnet damit, dass mit einem Potential von 70 GW bis zu 25% des kommunalen Wärmebedarfs (170 TWh/a) und bis zu 25% des industriellen Wärme- und Kältebedarfs (130 TWh/a) in Deutschland mit dieser Technologie gedeckt werden können.
Dafür müssen in geeigneten geologischen Formationen Bohrungen in 3000 bis 5000 Meter niedergebracht werden. In einem geschlossenen Wasserkreislauf wird Wärme aus der Erde gefördert, so dass keine Schadstoffe austreten, wie das bei der historischen Geothermie-Nutzung z.B. bei Larderello in der Toscana der Fall ist. Gegebenenfalls mit Hilfe von Wärmepumpen können die für verschiedene Wärmeanwendung in kommunalen Netzen oder in der Industrie erforderlichen Temperaturniveaus bis 200° erreicht werden. Die Roadmap rechnet mit Energiekosten von nur 2,5 bis 3 ct/kWh.
Dafür sei ein massiver Ausbau der bestehenden Erkundungs- Bohr- und anlagentechnischen Kapazitäten notwendig, sowie eine Ausfallversicherung für erfolglose Bohrungen, denn trotz raffinierter Erkundungstechniken führten bis zu 20% der Bohrungen nicht zum gewünschten Erfolg. Für 1 Gigawatt sind ca. 100 Bohrungen notwendig. Außerdem müsse eine industrielle Serienfertigung von Großwärmepumpen aufgebaut werden, sowie geeignete kommunale Wärmenetze.
Die Entwicklungsdauer von Geothermie-Projekten von drei bis sieben Jahren soll mit verschiedenen Maßnahmen verkürzt werden. Damit handelt es sich um eine relativ schnell einsetzbare Technologie. Bisher war ich wegen ernsthafter Probleme bei unsachgemäß durchgeführten Geothermie-Projekten (Basel, Staufen, Diskussion in der Toscana) sehr skeptisch. Nach neueren Untersuchungen und den Erfahrungen in Bayern scheint es mir jedoch gerechtfertigt, bei sorgfältigem und wissenschaftlich abgesichertem Vorgehen die tiefe Geothermie als ernstzunehmende, erneuerbare Energie für Wärmeanwendungen anzusehen. Sie könnte für eine schnelle Energiewende einen wichtigen Beitrag leisten, denn mithilfe lokaler Wärmenetze ist sie mit anderen Technologien gut zu verknüpfen.
Aus der Erfahrung mit der mächtigen fossilen Industrie lernen
Viele der neuen Entwicklungen in der Öl- und Gasindustrie, die in den letzten sieben Jahrzehnten auf der Grundlage der Nanotechnologie stattgefunden haben, können auch einen wichtigen Beitrag zu den erneuerbaren Energien leisten. Anfang der siebziger Jahre und auch noch in den Achtzigern konnte man fossile Brennstoffe noch als Brückentechnologien ansehen. Heute, fünfzig Jahre später und mit einem fossilen Verbrauch, der weit mehr als das Doppelte beträgt, stehen wir aber am Ende der Brücke und sind nach wie vor weitgehend von Kohle, Öl und Gas abhängig.
Daran sind im Wesentlichen die fossilen Industrien schuld. Sie haben über Jahrzehnte Abhängigkeiten geschaffen, Subventionen kassiert, das Klimaproblem geleugnet oder heruntergespielt, Alternativen hintertrieben, wo sie nur konnten. Viele der Akteure sogar in gutem Glauben, weil sie in einer technologischen Tradition und in organisatorischen Strukturen gefangen waren, in denen andere Ansätze oft immer noch nicht denkbar sind. Zu dieser Tradition gehören Glaubenssätze wie die von den notwendigen hohen Energiedichten, von langen Entwicklungszeiten, von der Notwendigkeit träger, grundlastfähiger Wärmekraftwerke.
In diesem Rahmen haben die Ingenieure der Öl- und Gasindustrie staunenswerte Spitzenleistungen vollbracht, die unsere Gesellschaften jetzt ruinieren. Dabei schaffen es die unabhängigen Ölkonzerne und inzwischen vor allem auch die National Oil Companies hervorragend, auch mit Hilfe der neuesten Krise in kurzer Zeit Hunderte von Milliarden in ihre Kassen zu lenken. Angesichts ihrer politischen und finanziellen Macht bleibt es notwendig, sie für eine drastische Kursänderung in der Energiepolitik zu gewinnen, auch wenn riesige schwimmende Windkraftwerke nicht zu den besten und am schnellsten realisierbaren Ideen gehören, um fossile Energiequellen zu ersetzen.
Mächtige Industrien können lange überleben, auch wenn sie gesellschaftlich schädlich und ökonomisch unsinnig sind. Bei der Atomenergie zeigte sich innerhalb von zwei Jahrzehnten, dass sie nicht nur erhebliche Risiken birgt, sondern auch ökonomisch unsinnig ist, aber ihre großtechnisch orientierte Industriestruktur, die Faszination riesiger, gefährlicher Maschinen und die in Jahrzehnten gewachsene kapillare politische Vernetzung haben sie bis heute in der Diskussion gehalten. Daran sehen wir, wie schwer es sein wird, die ungleich mächtigeren fossilen Industrien innerhalb weniger Jahre umzubauen. Immerhin – das Beispiel der Autoindustrie lässt hoffen, dass positive Kipp-Effekte uns helfen könnten.