News und Termine

Wie Algen und Kohlefasern die Kohlendioxidkonzentration in der Atmosphäre nachhaltig senken könnten

Pressemitteilung der Technische Universität München vom 13. November 2018:

—————

Wie Algen und Kohlefasern die Kohlendioxidkonzentration in der Atmosphäre nachhaltig senken könnten

Zusammen mit Forscherkollegen haben Chemiker der Technischen Universität München (TUM) einen Prozess entwickelt, der nach ersten Berechnungen eine wirtschaftliche Entfernung des Treibhausgases Kohlendioxid aus der Atmosphäre ermöglichen könnte. Der aktuellste Weltklimareport (IPCC Special Report on Global Warming of 1.5 °C) hält das Verfahren für global relevant.

Um die Erderwärmung wenigstens noch halbwegs eindämmen zu können, besteht akuter Handlungsbedarf. In diesem Zusammenhang weist der aktuelle Weltklimabericht auf eine Technologie von Chemikern der TU München hin, die als Möglichkeit einer Netto-Kohlenstoffsenke das Problem der Aufheizung der Atmosphäre quasi an der Wurzel packt. Algen verwandeln dabei Kohlendioxid aus der Atmosphäre, aus Kraftwerken oder Abgasen der Stahlindustrie in Algenöl. In einem zweiten Schritt werden daraus wertvolle Carbonfasern erzeugt – und das auch noch wirtschaftlich, wie erste Analysen zeigen.

Ein klimaneutrales Verfahren

Wichtige technologische Grundlagen legten Professor Thomas Brück und sein Team am Algentechnikum der TU München. Die dort untersuchten Algen erzeugen nicht nur Biosprit, sondern aus ihnen lassen sich auch sehr effizient Polyacrylnitrilfasern (PAN) herstellen. Die Energie von Parabol-Sonnenspiegeln verkohlt anschließend die PAN-Fasern CO2-neutral zu Kohlefasern. Mit Kohlefasern lassen sich leichte und hochfeste Werkstoffe herstellen. Am Ende des Lebenszyklus der Carbonfasern könnte man diese in leere Kohleflöze einlagern und entzöge damit die entsprechenden Kohlendioxid-Äquivalente dauerhaft der Atmosphäre.

Ein klimafreundliches Wirtschaftsmodell

Brücks Kollegen Prof. Dr.-Ing. Uwe Arnold und Dipl.-Ing. Kolja Kuse prüften auch die wirtschaftliche Seite, die technischen Anwendungsmöglichkeiten und die Umweltbilanz des gesamten Prozesses. „Das ist ein neues, klimafreundliches Wirtschaftsmodell, bei dem wir gängige Verfahren sinnvoll mit Innovationen kombinieren“, sagt Arnold. „Stellt man aus Kohlendioxid Kunststoffe her, so ist es über die Müllverbrennungsanlage nach wenigen Jahren Nutzung schnell wieder in der Atmosphäre“, sagt Kolja Kuse. „Mit der sicheren Einlagerung am Ende entziehen wir der Atmosphäre das Kohlendioxid auf Jahrtausende. Damit sind wir auch der Abtrennung und Speicherung von CO2 in der Erde (Carbon Capture and Storage, CCS) eindeutig überlegen.“ Die Kohlefasern aus Algen unterscheiden sich nicht von herkömmlichen Fasern und können daher in allen bereits bestehenden Prozessen eingesetzt werden. Ein weiteres wichtiges Einsatzfeld ist die Bauindustrie, die für einen erheblichen Teil des weltweiten Kohlendioxidausstoßes verantwortlich ist. In Baustoffen können Kohlefasern Baustahl ersetzen. Dank ihrer Festigkeit sparen sie Zement, und aus mit Kohlefasern verstärktem Granit lassen sich sogar Träger herstellen, die bei gleicher Tragfähigkeit wie Stahl so leicht wie Aluminium sind.

Algenfarmen von der Größe Algeriens

Brück will nun die Algentechnologie weiterentwickeln. Großanlagen seien in Südeuropa und Nordafrika denkbar. „Das System ist leicht auf große Flächen skalierbar“, sagt Brück. „Weltweit ließen sich Anlagen von in Summe der Größe Algeriens bauen und so beispielsweise die CO2-Emissionen Luftfahrt ausgleichen.“ Vorwürfe, man würde wie beim Biogas mit landwirtschaftlichen Flächen konkurrieren, weist Brück zurück. „Die Salzwasser-Algen gedeihen idealerweise in sonnenreichen Gegenden. Beispielsweise in Nordafrika gibt es genügend Flächen, auf denen Landwirtschaft nicht sinnvoll ist.“

Weitere Informationen: Die Forschungsarbeiten wurden gefördert von der Werner Siemens Stiftung und dem European Business Council for Sustainable Energy e.V.. Beteiligt waren neben dem Werner Siemens Lehrstuhl für Synthetische Biotechnologie der Technischen Universität München die AHP GmbH & Co. KG (Berlin), die TechnoCarbonTechnologies GbR (München) und das Institut für Textiltechnologie der RWTH Aachen.

Publikationen:

Carbon Capture and Sustainable Utilization by Algal Polyacrylonitrile Fiber Production: Process Design, Techno-Economic Analysis, and Climate Related Aspects. Uwe Arnold, Thomas Brück, Andreas De Palmenaer und Kolja Kuse, Industrial & Engineering Chemistry Research 2018 57 (23), 7922-7933, DOI: 10.1021/acs.iecr.7b04828

Energy-Efficient Carbon Fiber Production with Concentrated Solar Power: Process Design and Techno-economic Analysis. Uwe Arnold, Andreas De Palmenaer, Thomas Brück und Kolja Kuse. Industrial & Engineering Chemistry Research 2018 57 (23), 7934-7945, DOI: 10.1021/acs.iecr.7b04841

Zitiert in “IPCC Special Report on Global Warming of 1.5°C”, Chapter 4: Strengthening and implementing the global response; http://report.ipcc.ch/sr15/pdf/sr15_chapter4.pdf

 

Guter Klimarealismus braucht Förderer: Unterstützer für das Kalte-Sonne-Blog gesucht

UPDATE 20.12.2018:
Allen Spendern der letzten Wochen ein ganz herzliches Dankeschön! Mit Ihrem Beitrag helfen Sie, den Betrieb des Kalte-Sonne-Blogs aufrecht zu erhalten. Falls Sie noch nicht die Gelegenheit hatten sich zu beteiligen: Wir freuen uns weiterhin über alle Spenden zur Förderung einer fairen Klimadebatte.

—————-

Liebe Leser,

Seit Februar 2012 berichten wir hier im Kalte-Sonne-Blog täglich über aktuelle Klimathemen aus einer klimarealistischen Sichtweise, die in anderen Medien oft zu kurz kommt. Wir kommentieren, kritisieren oder loben, ohne durch eine übergeordnete Institution eingeschränkt zu sein. Dabei erlauben wir uns, allein der wissenschaftlichen Logik und dem Common Sense zu folgen. Diese Freiheit bedeutet jedoch auch, dass uns keine staatlichen oder anderweitigen Fördergelder zur Verfügung stehen.

Im Gegensatz zu anderen Blogs wie etwa dem aktivistischen Klimareporter° werden unsere Autoren auch in Zukunft ehrenamtlich für Sie tätig sein. Allerdings gibt es andere Kosten, wie etwa den Webseitensupport, mobilen Internetzugang, Bildrechte oder Fachliteratur, für die wir bei Ihnen um Unterstützung werben wollen. Falls Sie unsere Arbeit fördern möchten, freuen wir uns über Ihre Spende – egal ob klein oder groß.

Spenden über Paypal:

 

Wer lieber per Bankkonto überweisen möchte: Kontoinformationen gibt es über das Kontaktformular.

Vielen Dank für Ihre Hilfe im voraus!

Mit den besten Grüßen
Ihr Kalte-Sonne-Team

 

EEG: Die planwirtschaftliche Simulation einer Marktwirtschaft kommt uns ziemlich teuer

Von Uli Weber

Die globale Klimakirche, bestehend aus Politik, Wissenschaft, Kirchen, NGOs und ihren Claqueuren aus der Industrie, will die Welt durch eine „globale Dekarbonisierung“ bis zum Jahre 2100 vor einer menschengemachten Klimakatastrophe retten. Die Bundesregierung hat nach den guten Erfahrungen mit einer „Ethikkommission“ (2011) im Juni 2018 eine sogenannte „Kohlekommission“ eingesetzt, um unter Berücksichtigung von Versorgungssicherheit, Systemstabilität und stabiler Preise jetzt auch den Ausstieg aus der Kohleverstromung einzuleiten. Man kann sich in einer ruhigen Minute ja mal spaßeshalber die Mühe machen, diese Kohlekommission auf die dafür erforderliche Fachkompetenz ihrer Mitglieder hin zu überprüfen. Tatsächlich liegt in Deutschland die installierte Leistung für eine „erneuerbare und klimaneutrale“ Stromerzeugung bereits heute bei etwa 120 Gigawatt, wie die nachstehende Abbildung von der Internetseite der Bundesnetzagentur beweist:

 

Abbildung: Installierte Leistung der alternativen Stromerzeuger im Dezember 2018
Quelle: Bundesnetzagentur, Screenshot vom 25.12.2018 (1.000 Megawatt = 1 Gigawatt)

 

Da nun der Stromverbrauch in Deutschland tageszeitabhängig zwischen etwa 50 und 80 Gigawatt schwankt, wäre für eine ökologische Stromproduktion also theoretisch bereits ausreichend Erzeugungsleistung inklusive einer Sicherheitsreserve von mindestens 50 Prozent vorhanden. Damit dürfte es bei einer Abschaltung unserer Kohlekraftwerke eigentlich zu keinerlei Problemen kommen, wie uns unsere Politiker ja auch immer wieder gerne vorbeten. Wenn wir uns unseren Stromverbrauch und die zugehörige Erzeugungsleistung allerdings einmal genauer anschauen, gilt diese Aussage tatsächlich nur „eigentlich“:

Abbildung: Stromerzeugung und -verbrauch in Deutschland im Zeitraum 15. bis 25.12.2018
Quelle: Bundesnetzagentur (https://www.smard.de/home), Screenshot vom 25.12.2018, 11:34 Uhr

 

Man erkennt, dass Erzeugung und Verbrauch tageszeitabhängig starken Schwankungen unterworfen sind.
Nun ist die Verbrauchskurve aber nicht nur ein marktwirtschaftliches Erfordernis, sondern auch eine zwingende technische Vorgabe für eine funktionierende Stromversorgung, denn Erzeugung und Verbrauch müssen sich in einem Stromnetz mit stabilen 50 Hertz Netzfrequenz jederzeit entsprechen. Es ist also eine permanente Anpassung der Erzeugungskurve an den schwankenden Verbrauch erforderlich, denn wenn sich Erzeugung und Verbrauch dauerhaft unterscheiden, dann besteht die Gefahr eines Netzversagens, auch besser bekannt als „Blackout“.

Wenn wir uns die einzelnen Energieträger jetzt einmal näher anschauen, dann müssen wir feststellen:

Rot: Verbrauchskurve mit starken tageszeitlichen Schwankungen (Anforderung des Marktes). Wo der Verbrauch unter der Gesamterzeugung liegt, wird billig verkauft; wo er darüber liegt, wird teuer zugekauft.

Grün: Biomasse (planwirtschaftliche Zwangseinspeisung) liefert immerhin Grundlast.

Hellblau: Wasserkraft (Marktwirtschaft) liefert Grundlast.

Mittelblau und Dunkelblau: Windenergie, je nachdem, wie stark der Wind weht, gibt es erheblich schwankende On- und Offshore Stromeinspeisungen (planwirtschaftliche Zwangseinspeisung), die nicht mit der Verbrauchskurve korrelieren und die nicht grundlastfähig sind. Erstaunlich ist, dass die Offshore-Erzeugung, anders als die Onshore-Erzeugung, einen Plateauwert nicht übersteigt, denn beide Erzeuger müssten eigentlich vergleichbare Leistungsschwankungen aufweisen.

Gelb: Sporadische Solareinspeisung (planwirtschaftliche Zwangseinspeisung) um die Mittagszeit liefert keine Grundlast und kann nachts überhaupt keinen Beitrag leisten. Dadurch wurden aber die Gaskraftwerke aus der mittäglichen Verbrauchsspitze verdrängt und sind wegen dieser fehlenden Einnahmen unrentabel geworden.

Dunkelbraun, Hellbraun und Dunkelviolett: Kernenergie sowie Braun- und Steinkohle liefern Grundlast (Marktwirtschaft). Dabei schwankt im Tagesverlauf die Kernenergie sehr wenig, die Braunkohle mehr und die Steinkohle stark.

Grau: Gaskraftwerke (eigentlich Marktwirtschaft) sollten wegen ihrer hohen Erzeugungskosten eigentlich nur die Verbrauchsspitzen bedienen, liefern momentan aber offenbar Grundlast (inzwischen Planwirtschaft?). Dabei schwankt die Einspeisung von Gaskraftwerken deutlich weniger als die der Kohlekraftwerke. (*1)

Ganz Dunkelblau: Pumpspeicherwerke (Marktwirtschaft) stellen Spitzenbedarf zur Verfügung und puffern in geringem Maße Überproduktion ab (Speicher).

Dunkelgrau: Sonstige Konventionelle (wahrscheinlich Marktwirtschaft) bedienen offenbar die Grundlast.

 

Stromerzeugung aus Wind und Solar ist ohne Zwischenspeicher grundsätzlich nicht grundlastfähig und scheidet deshalb nach marktwirtschaftlichen Gesichtspunkten selbst als Ergänzung eines konventionellen Strommixes aus.
Für den EEG-Strom aus Wind und Solar muss für windarme Zeiten und Dunkelheit nämlich permanent konventionelle Kraftwerkskapazität in der Grundlast vorgehalten werden. Die zwingend erforderliche Anpassung zwischen Erzeugung und Verbrauch wird also noch dadurch erschwert, dass die erratisch anfallenden Beiträge von Wind und Solar völlig unabhängig vom Verbrauch schwanken und damit der notwendigen Anpassung der Grundlast zusätzlich entgegenarbeiten.

Für die gesamte installierte EEG-Leistung gilt nämlich ein Einspeisevorrang in das Stromnetz. Und damit moduliert die unvorhersehbar schwankende EEG-Einspeisung die unverzichtbaren konventionellen Kraftwerkskapazitäten zusätzlich zu den tageszeitabhängigen Verbrauchsschwankungen.

Die tageszeitliche Leistungsanpassung des konventionellen Kraftwerksparks verläuft bei zusätzlichen EEG-Erzeugungsschwankungen somit unter erschwerten technischen Bedingungen, für die konventionelle Kraftwerke niemals ausgelegt waren und maximieren somit deren Betriebs- und Instandhaltungskosten. Und offenbar lässt man inzwischen auch noch zusätzlich die in der Grundlast unwirtschaftlichen Gaskraftwerke auf Kosten der nicht privilegierten Stromverbraucher in der Grundlasterzeugung mitarbeiten, obwohl sie einstmals nur als teure, aber schnelle „Einsatzreserve“ für den Spitzenverbrauch gedacht waren. Die Philosophie hinter der Energiewende ist also streng antimarktwirtschaftlich:

Das EEG ist eine Dreifachgeldvernichtungsmaschine, wir bezahlen Prämien für EEG-Strom, egal, ob er produziert wird oder nicht, wir bezahlen dessen Entsorgung und müssen teuer zukaufen, wenn Wind und Solar nicht liefern und die Konventionellen nicht schnell genug hochgefahren werden können. Und damit fahren wir unseren konventionellen Kraftwerkspark voll auf Verschleiß, während wir die teuren Gaskraftwerke inzwischen offenbar zusätzlich in der Grundlast auf Kosten der Kohlekraftwerke produzieren lassen…

Diese Darstellungen der Bundesnetzagentur im Internet sollten jedenfalls ausreichen, um das Problem von Angebot und Nachfrage auf dem Strommarkt selbst für Berufspolitiker hinreichend zu beschreiben und den Nachweis zu führen, dass unsere Grundlastkraftwerke gar nicht abgestellt werden können. Aber solche Zusammenhänge kann man natürlich auch sehr viel positiver darstellen. Schauen wir einmal auf das sogenannte „Agorameter“ von „Agora Energiewende“:

 

 

Abbildung: Stromerzeugung und -verbrauch in Deutschland im Zeitraum 18. bis 25.12.2018
Quelle: Agorameter(*2), Screenshot vom 25.12.2018, 11:31 Uhr

 

Der AGORA-Plot zeigt im Gegensatz zur Bundesnetzagentur genau das, was uns MINT-ferne Politiker immer wieder gerne erklären:
Wir produzieren eigentlich fast immer genug Strom und könnten daher die „klimaschädlichen“ Kohlekraftwerke jederzeit abstellen. Dazu passt der nachfolgende Witz mit seinem ultralangen Bart recht gut:
Was ist Kapitalismus? – Die Ausbeutung des Menschen durch den Menschen. Und was ist Kommunismus? – Das Gegenteil in einer Mangelwirtschaft.

Ein marktwirtschaftlich orientierter Unternehmer produziert sein Produkt kostengünstig und erzielt mit dem Verkauf einen wirtschaftlichen Gewinn. Wir machen das jetzt mal genau umgekehrt, um die ganze Welt zu retten – und das ist weder marktwirtschaftlich, noch ökologisch (*3) oder gar nachhaltig (*4).
Also keine Angst vor der Zukunft und ein schönes neues Jahr, schließlich haben wir ja auch noch eine planwirtschaftliche Verkehrswende und eine planwirtschaftliche Agrarwende vor uns…

 

(*1) Gaskraftwerke: Die von den Erzeugungspreisen her unwirtschaftlichen Gaskraftwerke liefern momentan etwa so viel Strom wie die Kernkraft und schwanken in der Leistungsabgabe deutlich weniger als die Steinkohle. Offenbar hatten sich die Grundlagen der statistischen Erhebung und/oder die wirtschaftlichen Rahmenbedingungen zum Jahreswechsel 2017/2018 erheblich verändert:

Abbildung: Stromerzeugung und -verbrauch im Zeitraum 15.12.2017-15.01.2018
Quelle: Bundesnetzagentur (https://www.smard.de/home), Screenshot vom 26.12.2018

 

In dieser Grafik ist eindeutig zu beobachten, dass am 01. Januar 2018 eine erhebliche und dauerhafte Verschiebung von den „Sonstigen Konventionellen“ hin zu „Gas“ stattgefunden haben muss.

Frage: Was ist der tiefere Grund für dieses „Erstarken“ der Gaskraftwerke?

 

(*2) Über Agora Energiewende, Zitat: „Agora Energiewende wurde im Jahr 2012 von der European Climate Foundation und der Stiftung Mercator ins Leben gerufen, um die Herausforderungen der Energiewende anzupacken. Unser Mandat besteht darin, akademisch belastbare und politisch umsetzbare Wege zu entwickeln, wie sich die Energiesysteme in Deutschland und zunehmend weltweit in Richtung sauberer Energie transformieren lassen – und Energie gleichzeitig sowohl bezahlbar als auch sicher bleibt. Dabei orientieren wir uns an den Klima- und Energiezielen der Bundesregierung und der Europäischen Union.“

Bei der European Climate Foundation gibt es übrigens ein klares Statement für „Die Entwicklung einer klimafreundlichen Gesellschaft“, und die Schwerpunkte der Stiftung Mercator sind Europa, Integration und Klimawandel. Agora Energiewende wird nach eigenen Angaben seit 2016 von der GIZ GmbH gefördert. Die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) GmbH ist eine staatliche Entwicklungszusammenarbeitsorganisation der Bundesrepublik Deutschland, was man ihrem Internetauftritt aber so nicht ohne weiteres ansieht. Und hier schließt sich dann der Kreis…

(*3) Nicht ökologisch: Die Erzeugung von Strom aus Wind- und Sonnenenergie geht mit einem extremen Landschaftsverbrauch einher. Die Stromerzeugung durch Windenergie führt zur Zerstörung von Naturlandschaften und zu erheblichen Opfern bei Vögeln und Fledermäusen, während sogenannte „Solarparks“ ständig von Bewuchs freizuhaltende ökologische Wüsten sind. Und die Erzeugung von Strom aus Biomasse führt zu einer Reduzierung der Artenvielfalt durch Monokulturen und zu einem Nitratproblem im Grundwasser.

(*4) Nicht nachhaltig: Unter dem Begriff „nachhaltig“ wird eine Minimierung von Ressourcenverbrauch, Eingriffstiefe und/oder Eingriffsdauer verstanden. Wir leisten uns im Gegenteil zwei unabhängige Erzeugungssysteme für elektrischen Strom, die von der installierten Leistung her beide unseren Stromverbrauch ganz alleine decken könnten. Die systembedingte Leistungskurve der sogenannten „Erneuerbaren“ lässt sich aber ohne ausreichende Speicher niemals mit der angeforderten Verbrauchskurve synchronisieren, sodass zur Gewährleistung der Versorgungssicherheit ständig die volle konventionelle Grundlast vorgehalten werden muss.

 

Warum sich Teheran gefährlich absenkt

Pressemitteilung des Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ vom 7.12.2018:

—————

Warum sich Teheran gefährlich absenkt

Mahdi Motagh und Mahmud Haghshenas Haghighi aus der Sektion Fernerkundung des Deutschen GeoForschungsZentrums GFZ in Potsdam berichten im Fachjournal Remote Sensing of Environment über die Absenkungen der Erdoberfläche in der Region Teheran. Sie fanden heraus, dass sich dort zwischen 2003 und 2017 drei Gebiete mit Geschwindigkeiten von teils über 25 Zentimetern pro Jahr insgesamt um mehrere Meter abgesenkt haben. Die Studie zeichnet damit erstmals detailliert und mit präzisen Messungen den zeitlichen Verlauf der Absenkungen in der Region über einen längeren Zeitraum nach.

Der Iran hat ein Wasserproblem. Die Reserven in vielen Grundwasserbecken sind stark erschöpft. Das Land investiert seit etwa vierzig Jahren viel Geld in die Entwicklung der Landwirtschaft und strebt an, bei der Lebensmittelversorgung unabhängig zu sein. Um den erhöhten Wasserbedarf zu decken, werden in erheblichem Maß und staatlich kaum reguliert Grundwasserbecken ausgebeutet.

Zudem hat die Regierung viele Staudämme errichten lassen, um Wasser für bestimmte Zwecke, insbesondere in der Landwirtschaft, zu speichern. Diese schränkten jedoch den natürlichen Zufluss in die Grundwasserbecken in den stromabwärts liegenden Gebieten ein und trugen damit zu Wüstenbildung und zu ernsten Umweltproblemen bei. Dazu gehören die voranschreitende Austrocknung des Urmiasees im Nordwesten des Iran, des zweitgrößten Salzsees der Welt, und häufige Staub- und Sandstürme in den vergangenen Jahren in der Provinz Khuzestan im Südwesten.

In der Region um die Hauptstadt Teheran mit ihren etwa acht Millionen Menschen nahm der Wasserbedarf außerdem durch den Zuzug vieler Einwohner in den letzten vierzig Jahren stark zu. Die Zahl der Brunnen dort stieg von knapp 4000 im Jahr 1968 auf mehr als 32.000 Wasserentnahmestellen im Jahr 2012. Hinzu kommen ausbleibender Regen in Dürreperioden, die es in den letzten Jahren immer häufiger gegeben hat. Das alles führte zu einem starken Rückgang des Grundwasserspiegels – in Teheran beispielsweise um zwölf Meter zwischen 1984 und 2011.

Teile Teherans haben sich um mehrere Meter abgesenkt

Daraus folgt ein weiteres Problem: Der Boden über den Grundwasserbecken senkt sich. Wie groß dieser Effekt ist, berichten Mahdi Motagh und Mahmud Haghshenas Haghighi aus der Sektion Fernerkundung des Deutschen GeoForschungsZentrums GFZ in Potsdam in einer Studie im Fachjournal Remote Sensing of Environment. In Daten von vier verschiedenen Radarsatelliten-Systemen haben die beiden Forscher die Absenkungen der Erdoberfläche in der Region Teheran vermessen. Sie fanden heraus, dass sich dort zwischen 2003 und 2017 drei Gebiete mit Geschwindigkeiten von teils über 25 Zentimetern pro Jahr insgesamt um mehrere Meter abgesenkt haben. Die Studie zeichnet damit erstmals detailliert und mit präzisen Messungen den zeitlichen Verlauf der Absenkungen in der Region über einen längeren Zeitraum nach.

Spalten im Grund und Risse in Gebäudewänden seien beispielsweise Folgen der Verformungen, sagen Haghshenas Haghighi und Motagh. Sie fanden auch heraus, dass die Grundwasserbecken in bestimmten Bereichen durch die Ausbeutung irreversibel geschädigt wurden. Sie können in Zukunft nicht mehr so viel Wasser speichern wie früher. Wissenschaftlich fundierte Pläne für die Wasserwirtschaft könnten die Situation jedoch entschärfen helfen, sagen die beiden Forscher. „Für eine nachhaltige Entwicklung können Wissenschaft und Forschung die iranischen Verwaltungen und Regierungen dabei unterstützen, ihre Wasserbewirtschaftungspolitik zu überarbeiten“, sagt Motagh.

Echtzeit-Daten für Georisiken

Für ihre Analyse verwendeten Haghshenas Haghighi und Motagh die Radarinterferometrie-Methode InSAR (Interferometric Synthetic Aperture Radar). Mit diesem Messverfahren lässt sich aus von Satelliten aufgezeichneten hochpräzisen Radarsignalen im Mikrowellenbereich ein Abbild der Topografie der Erdoberfläche erstellen. Um Veränderungen der Oberfläche zu dokumentieren, nutzten die Forschenden neun Datensätze der Satellitensysteme Envisat ASAR, ALOS PALSAR, TerraSAR-X und Sentinel-1 aus den Jahren 2003 bis 2017. Sie kombinierten die Datensätze, um die kurz- und langfristigen Reaktionen der Erdoberfläche auf Veränderungen beim Grundwasserniveau zu untersuchen.

Von besonderer Bedeutung waren die Satellitenbilder der Mission Sentinel-1, die seit 2014 alle 24 Tage und seit 2016 alle 12 Tage hochaufgelöste Radarbilder mit einer Kantenlänge von 250 Kilometern aus der Region Teheran liefert. „Dadurch ist es möglich, Georisiken wie etwa Landabsenkungen nahezu in Echtzeit zu analysieren“, sagt Motagh.

Als nächstes wollen die beiden Forscher das untersuchte Gebiet erweitern und die Absenkung des Landes auch außerhalb Teherans mit Sentinel-1 messen. „Solche Daten von Senkungen in großen Gebieten bringen neue Herausforderungen mit sich. Wir entwickeln Softwaretools, um die riesigen Mengen an Radardaten analysieren zu können“, sagt Haghshenas Haghighi.

Unterstützt wurde diese Forschung durch den Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft in der Helmholtz-Allianz „Remote Sensing and Earth System Dynamics“.

 

Originalstudie: Haghshenas Haghighi, M., Motagh M., 2018. Ground surface response to continuous compaction of aquifer system in Tehran, Iran: Results from a long-term multi-sensor InSAR analysis. Remote Sensing of Environment. DOI: 10.1016/j.rse.2018.11.003

 

Gerard Bond – Entdecker der klimatischen Millenniumszyklen

Gerard Bond (1940-2005), Entdecker der klimatischen Millenniumszyklen, in einer BBC-Doku

 

 

Feldexperiment zu Wolken und Niederschlag unter Reinluftbedingungen in Südchile gestartet

Pressemitteilung des Leibniz-Instituts für Troposphärenforschung (TROPOS) vom 20. Dezember 2018:

——————

Feldexperiment zu Wolken und Niederschlag unter Reinluftbedingungen in Südchile gestartet

Forscher aus Leipzig kooperieren mit Wissenschaftlern aus Punta Arenas (Chile), um mehr über die Zusammenhänge zwischen Luftverschmutzung, Wolken und Niederschlag zu erfahren

Wie wirken sich luftgetragene Partikel, sogenannte Aerosole, auf die Bildung und den Lebenszyklus von Wolken und Niederschlag aus? Um der Lösung dieser Frage einen Schritt näher zu kommen, werden Atmosphärenwissenschaftler des Leibniz-Instituts für Troposphärenforschung (TROPOS) und des Leipziger Instituts für Meteorologie (LIM) der Universität Leipzig für mindestens ein Jahr die Atmosphäre an einem der saubersten Orte der Welt beobachten. Dazu haben sie für das Projekt DACAPO-PESO zwei Container mit umfangreicher Messtechnik aus Leipzig nach Punta Arenas an der Magellanstraße in Südchile transportiert. Dort kooperieren die beiden Institute mit dem Labor für Atmosphärenphysik der Magellan Universität (UMAG), das neben der Bereitstellung der Infrastruktur für die Leipziger Instrumente auch mit eigenen Messungen zu dem Projekt beiträgt. Die Wahl fiel auf Punta Arenas weil die Stadt auf vergleichbarer geographischer Breite wie Deutschland liegt und damit Vergleiche zwischen Nord- und Südhemisphäre ermöglichen wird. Die Messkampapgne ist Teil des internationalen Jahres der Polarvorhersage (YOPP), mit dem durch intensive Messungen die Wetter- und Klimavorhersage für die Polarregionen verbessert werden soll.

„Das Experiment wird es uns ermöglichen, die beobachteten regionalen Unterschiede in der Effizienz der Eisbildung in Wolken genauer zu erklären und die Rolle der Aerosole detaillierter zu beschreiben“, sagt Dr. Patric Seifert, Wissenschaftler am TROPOS und Initiator von DACAPO-PESO. „Die Synergien der vielseitigen Fernerkundungsinstrumente sowie die darauf basierende Entwicklung von neuartigen Auswertealgorithmen werden genauere Einblicke in alle Schichten der Wolken geben. Ein Ziel wird z.B. sein, zu klären, ob die Eiskristalle in der aerosolarmen Atmosphäre von Punta Arenas häufiger durch Bereifung in Flüssigwasserschichten als durch Aggregation wachsen als in der Nordhemisphäre“, erklärt Jun.-Prof. Heike Kalesse von der Universität Leipzig .

Der Aufbau der Messstation in Punta Arenas erfolgte im November und Dezember 2018 durch drei Wissenschaftler von TROPOS und UMAG. Patric Seifert ist kurz vor Weihnachten nach Leipzig zurückgehrt und ist zufrieden mit dem bisherigen Verlauf: „Alle Messgeräte arbeiten zuverlässig und erste interessante Beobachtungen wurden bereits gemacht. So wurden reine Flüssigwasserwolken bei Temperaturen von um die -20°C beobachtet, was während vergleichbarer Messungen in Deutschland nur äußerst selten der Fall ist. Das könnte ein Indiz für wenig Eiskeime in der Südhemisphäre sein.“

Die Entstehung von Wolken und Niederschlag hängt im Wesentlichen von drei Parametern ab: Luftfeuchtigkeit, Temperatur, sowie die Verfügbarkeit und Art von Aerosolpartikeln, die als Keime für Wolkentropfen und Eiskristalle dienen. Auch wenn weithin akzeptiert ist, dass Wasserdampf und Temperatur die Wolkenprozesse dominieren, sind sich Wissenschaftler noch uneins über den tatsächlichen Einfluss der Aerosolpartikel auf das Wettergeschehen. Bekannt ist, dass jeder Wolkentropfen und jeder Eiskristall, der bei Temperaturen höher als -40°C entsteht, die Verfügbarkeit eines Tropfen- oder Eiskeims voraussetzt.

In Deutschland und anderen Regionen in den mittleren Breiten der Nordhalbkugel entsteht der meiste Niederschlag (in der freien Troposphäre) zwischen zwei und zwölf Kilometern über dem Boden. Diese Luftschichten sind durch Aerosolpartikel aus vom Menschen verursachter Luftverschmutzung, Wüstenstaub und Waldbränden geprägt. In den mittleren Breiten der Südhalbkugel fehlen diese Partikel größtenteils, weil dort mehr Ozeane und wesentlich weniger Industrie, Wüsten und Waldgebiete zu finden sind. Ändert sich die Menge der verfügbaren Aerosolpartikel in der Atmosphäre, verändert sich auch die Menge der gebildeten Wolkentropfen und Eiskristalle. So lässt sich erklären, dass Flüssigwasserwolken über den stark mit Aerosol belasteten Regionen Europas oder Südostasiens aus wesentlich mehr Tropfen bestehen. Im Gegensatz dazu bestehen Flüssigwasserwolken in  weniger verschmutzten Regionen wie über den Ozeanen oder den Polargebieten aus weniger und häufig auch größeren Tropfen.

Ein ähnlicher Einfluss von Aerosolpartikeln auf die Bildung von Eiskristallen wurde von Wissenschaftlern des TROPOS ebenfalls bereits in Wolken über Leipzig beobachtet: Wolken, die unter dem Einfluss von Saharastaub entstehen, bilden häufiger und bei höheren Temperaturen Eis als Wolken, die sich in sauberer Luft bilden. Das Leben einer Wolke nimmt so einen anderen Verlauf weil die Entstehung der winzigen Eiskristalle und Wolkentropfen der Anfang von zahlreichen Prozessen sind, die die Entwicklung der Wolke begleiten und letztlich zur Bildung von Niederschlag führen.

Das Wissen über die Zusammenhänge zwischen Aerosolpartikeln und Wolken stammt überwiegend aus Messungen in der verschmutzteren Nordhemisphäre. Darüber, wie diese Prozesse unter den deutlich saubereren Bedingungen der Südhemisphäre ablaufen, ist aber im Detail noch relativ wenig bekannt. Daher entstand am TROPOS die Idee zum Feldexperiment DACAPO-PESO (Dynamics, Aerosol, Cloud and Precipitation Observations in the Pristine Environment of the Southern Ocean), das einen Referenzdatensatz liefern soll. Um die Situation im Norden gut mit der im Süden vergleichen zu können, fiel die Wahl daher auf einen Standort, der ungefähr auf der gleichen geographischen Breite wie Deutschland liegt und deshalb ähnliche Temperatur- und Klimabedingungen hat. Die Südhalbkugel ist in diesen Breiten mit Ausnahme von Südamerika von Ozeanen bedeckt und Langzeitmessungen sind auf dem Meer in diesem Umfang nicht praktikabel. Daher fiel die Wahl auf Chile, wo die Forscher aus Leipzig (52°N) mit der Magellan-Universität in Punta Arenas (53°S) einen Kooperationspartner fanden. Südamerika steht gerade im Fokus der internationalen Atmosphärenforschung: Knapp 3000 km nördlich findet in Argentinien und dem südlichen Brasilien zur Zeit eine groß angelegte Messkampagne verschiedener Universitäten und Institutionen aus den USA statt: RELAMPAGO-CATI untersucht die Enstehung von Gewittern, um die Vorhersage von Hagel und Tornados zu verbessern.

In den letzten Jahren sind die verfügbaren Techniken für die kontinuierliche Beobachtung von Aerosolen und Wolken extrem fortgeschritten. Mit Lidar- und Radargeräten wie dem „Leipzig Aerosol and Cloud Remote Observation System“ (LACROS) lässt sich vom Erdboden aus die Struktur von Wolken- und Aerosolschichten sowie von Niederschlag mit hohen Auflösungen im Bereich von Sekunden und Metern erfassen. In der Messkampagne DACAPO-PESO kommen insgesamt drei Lidarsysteme zur Erfassung der Aerosoleigenschaften zum Einsatz. Zusätzlich beobachten drei unterschiedlich konfigurierte Radarsysteme  die Struktur von Wolken und Niederschlag. Die Radare sowie ein sogenanntes Doppler-Lidar liefern zudem Informationen über die für Wolkenbildung so wichtige Vertikalbewegung der Luft. Denn diese Vertikalbewegungen führen zu Abkühlung. Dadurch steigt die relative Luftfeuchtigkeit an und es kann zu Wolkenbildung kommen.  Regensensoren erfassen die Größe und Art des am Boden ankommenden Niederschlages, ein Mikrowellenradiometer bestimmt die in der Atmosphäre vorhandene Menge an Wasserdampf und Flüssigwasser, und Strahlungsmessgeräte dokumentieren den Einfluss der Aerosole und Wolken auf die auf der Erdoberfläche ankommende Energie. Die meisten der Geräte sind Teil der LACROS-Station des TROPOS, die durch ein neues Dopplerradar des LIM sowie ein Lidar der UMAG verstärkt wird. Alle Messungen zusammen liefern ein detailliertes Bild über das Wettergeschehen in der sauberen Atmosphäre über Punta Arenas. Durch die anvisierte lange Zeitreihe an Messungen von mindestens einem Jahr kommt somit ein umfassender Datensatz zusammen. Dieser wird den Wissenschaftlern als  Referenz für den Vergleich gegenüber dem Wettergeschehen in den stark von Aerosol belasteten gemäßigten Breiten der Nordhemisphäre dienen. Die Auswertung erfolgt dabei teilweise im Rahmen der Europäischen Infrastrukturprojekte ACTRIS, Cloudnet und EARLINET sowie in Kooperation mit dem Konsortium des Polarvorhesage-Jahres (Year of Polar Prediction, YOPP), dem Schwerpunktprogramm SPP2115 „PROM“ der Deutschen Forschungsgemeinschaft (DFG) und einem vom LIM geleiteten Projekts des Europäischen Sozialfonds (ESF).

Die Forscher am TROPOS widmen sich bereits seit dessen Gründung in den 1990er Jahren der Fragestellung, wie Aerosol und Wolken zusammenhängen. Sie fanden dabei beispielsweise heraus, dass sich in Wolken auf der Nordhalbkugel Eis bereits bei viel höheren Temperaturen als in Wolken auf der Südhalbkugel bildet. Das ging aus Laser-gestützten Untersuchungen am TROPOS, an der Magellan-Universität in Chile, der Stellenbosch-Universität in Südafrika und während transatlantischer Überfahrten des Forschungsschiffs Polarstern hervor, die bereits in den Jahren 2008-2010 gesammelt wurden. In Mitteleuropa bilden bereits rund 70 Prozent der Wolken bei Temperaturen um -18 Grad Celsius Eis. Im Süden Chiles und in Südafrika sind es hingegen bei gleicher Temperatur nur 20 bzw. 35 Prozent. Ursache für einen derartigen Kontrast ist höchstwahrscheinlich die größere Anzahl und größere Vielfalt an in der Luft schwebenden Aerosolpartikeln auf der Nordhalbkugel.

Die beiden Projekt-Koordinatoren Seifert und Kalesse sind zuversichtlich, dass DACAPO-PESO den Wissensstand zur Wechselwirkung zwischen Aerosolen, Wolken und Niederschlag maßgeblich erweitern wird. Insbesondere auch auf Grund der guten personellen Unterstützung. Dank bewilligter Projekte der DFG, des Europäischen Sozialfonds und Eigenmitteln von TROPOS und UMAG umfasst das DACAPO-PESO Team bereits zum Startzeitpunkt 4 promovierte Wissenschaftler und 4 DoktorandInnen. Der Datensatz wird eine bisher noch nie vorher gemessene Fülle an Informationen über die Aerosole und Wolken in den mittleren Breiten von Südamerika liefern.

 

Publikation: Foth, A., Kanitz, T., Engelmann, R., Baars, H., Radenz, M., Seifert, P., Barja, B., Kalesse, H., and Ansmann, A.: Vertical aerosol distribution in the Southern hemispheric Midlatitudes as observed with lidar at Punta Arenas, Chile (53.2° S and 70.9° W) during ALPACA, Atmos. Chem. Phys. Discuss., https://doi.org/10.5194/acp-2018-1124 , in review, 2018.

 

Uni Bonn: Mehr Bioplastik führt nicht zwingend zu mehr Klimaschutz

Pressemitteilung der Rheinischen Friedrich-Wilhelms-Universität Bonn (via idw):

———————

Mehr Bioplastik führt nicht zwingend zu mehr Klimaschutz

Bioplastik wird gerne als umwelt- und klimafreundliche Alternative zu herkömmlichen Kunststoffen auf Erdölbasis vermarktet. Eine Analyse der Universität Bonn legt nun aber nahe, dass eine Umstellung auf pflanzenbasierte Kunststoffe weniger positiv wirken könnte als gedacht. So dürfte eine steigende Nutzung von Bioplastik den weltweiten Ausstoß von Treibhausgasen zunächst sogar erhöhen. Die Studie erscheint in den „Environmental Research Letters“, ist aber bereits online abrufbar.

Plastik wird normalerweise aus Erdöl hergestellt. Mit negativen Folgen für das Weltklima: Das in ihnen gebundene Kohlendioxid wird beim Abbau frei und trägt so zur globalen Erwärmung bei. Weltweit gelangen so jährlich rund 400 Millionen Tonnen CO2 in die Atmosphäre – halb so viel, wie Deutschland 2017 insgesamt in die Luft blies. 2050 könnten Kunststoffe nach Schätzungen bereits für 15 Prozent der weltweiten CO2-Produktion verantwortlich sein.

Bioplastik dagegen ist nahezu klimaneutral, da es auf nachwachsenden Rohstoffen wie Mais, Weizen oder Zuckerrohr basiert. Für ihr Wachstum benötigen diese Pflanzen Kohlendioxid, das sie der Luft entnehmen. Die Herstellung von Biokunststoffen verbraucht daher CO2, und zwar genauso viel, wie später bei ihrer Verbrennung oder Verrottung wieder frei wird. Insgesamt ist ihre Klimagas-Bilanz daher ausgeglichen. Bioplastik wird daher gerne als umweltfreundliche Alternative vermarktet.

Doch zumindest beim augenblicklichen Stand der Technik ist die Sache wohl nicht so klar wie oft angenommen. „Die Erzeugung großer Mengen Bioplastik verändert die Landnutzung“, erklärt Dr. Neus Escobar vom Institut für Lebensmittel- und Ressourcenökonomik der Universität Bonn. „Global gesehen könnten dadurch zum Beispiel vermehrt Waldflächen zu Ackerland umgewandelt werden. Wälder binden aber erheblich mehr Kohlendioxid als etwa Mais oder Zuckerrohr, schon allein aufgrund ihrer größeren Biomasse.“ Dass dieser Effekt keine theoretische Spekulation ist, zeigen die Erfahrungen mit Biokraftstoffen. Die steigende Nachfrage nach der „grünen“ Energiequelle hatte in manchen Ländern massive Waldrodungen zur Folge.

Dr. Neus Escobar und ihre Kollegen Salwa Haddad, Prof. Dr. Jan Börner und der Privatdozent Dr. Wolfgang Britz haben die Auswirkungen einer vermehrten Verwendung von Bioplastik simuliert. Dazu nutzten und erweiterten sie ein Computermodell, das auch schon zur Berechnung der Biokraftstoff-Effekte eingesetzt wurde. Es basiert auf einer Datenbank, die die gesamte Weltwirtschaft abbildet.

„Wir haben für unser Modell die Annahme getroffen, dass der Bioplastik-Anteil bei den wichtigsten Produzenten – Europa, China, Brasilien und den USA – auf fünf Prozent steigt“, erklärt sie. „Dabei haben wir zwei verschiedene Szenarien durchgespielt: eine Steuer auf konventionelle Kunststoffe gegenüber einer Subvention für Bioplastik.“ Am dramatischsten waren die Auswirkungen im Steuer-Szenario: Da dadurch herkömmlich hergestellte Kunststoffe erheblich teurer wurden, sank die Nachfrage nach ihnen deutlich. Weltweit wurden so pro Jahr 0,08 Prozent weniger Klimagase ausgestoßen. Allerdings ist ein Teil dieses Rückgangs auf ökonomische Verwerfungen zurückzuführen, da die Steuer insgesamt das Wirtschaftswachstum bremste.

Mehr Äcker, weniger Wälder

Gleichzeitig stieg in diesem Szenario die landwirtschaftlich genutzte Fläche, während die Waldfläche um 0,17 Prozent abnahm. Dadurch gelangten enorme Mengen Treibhausgase in die Atmosphäre. „Dabei handelt es sich zwar nur um einen einmaligen Effekt“, erklärt Escobar. „Dennoch dauert es nach unseren Berechnungen mehr als 20 Jahre, bis er durch die erzielten Einsparungen wettgemacht wird.“

Insgesamt braucht es also einen langen Atem, damit sich die Umstellung auf Bioplastik auszahlt. Zudem beziffern die Forscher die Kosten dieser Strategie auf mehr als 2.000 Dollar pro Tonne Treibhausgas – eine vergleichsweise hohe Summe. Eine Subvention von Bioplastik hätte zwar in vielen Punkten deutlich unterschiedliche Effekte. An der Kompensations-Zeit von gut 20 Jahren und den Kosten für die Klimagas-Reduktion würde sich aber auch hier wenig ändern.

„Eine vermehrte Verwendung von Bioplastik aus Nutzpflanzen scheint also keine effiziente Strategie zu sein, das Klima zu schonen“, betont die Wissenschaftlerin. Zumal sie eine Reihe weiterer Negativ-Effekte hätte, etwa steigende Nahrungsmittel-Preise. „Das sähe aber vermutlich anders aus, wenn zur Herstellung zum Beispiel pflanzliche Abfälle genutzt würden“, sagt Escobar. „Wir empfehlen, die Forschungsanstrengungen auf dieses Bioplastik der zweiten Generation zu konzentrieren und es so zur Marktreife zu bringen.“

Auch die Hoffnung, dass durch Bioplastik die Vermüllung der Weltmeere abnehme, müsse sich nicht notwendigerweise erfüllen. Kunststoffe aus Pflanzen seien nicht automatisch leichter abbaubar als solche aus Erdöl, betont Escobar. „Bio-PE und Bio-PET verrotten genauso schlecht wie ihre Pendants auf Erdöl-Basis.“ Einen Vorteil habe Bioplastik allerdings: Es schone die immer knapper werdenden fossilen Brennstoffquellen. Wer die Umwelt schützen wolle, solle aber eher auf eine andere Strategie setzen, ziehen die Wissenschaftler ein Fazit: Sinnvoller sei ein materialsparender Umgang mit Plastik und ein möglichst vollständiges Recycling.

 

Originalpublikation:
Neus Escobar, Salwa Haddad, Jan Börner und Wolfgang Britz: Land use mediated GHG emissions and spillovers from increased consumption of bioplastic; Environmental Research Letters; https://doi.org/10.1088/1748-9326/aaeafb


Die Sonne im November 2018 und die Sache mit der „Pause“

Von Frank Bosse und Fritz Vahrenholt

Unsere Sonne war auch im November stark unternormal aktiv, vergleicht man alle Monate Nr. 120 nach Beginn des Zyklus für die Zyklen 1-23 seit Beginn der systematischen Erhebung im Jahre 1755, dem ersten Jahr des Zyklus 1.

Die aktuell festgestellte SSN (SunSpotNumber) betrug recht magere 5,9 für den Monatsdurchschnitt. An 16 Tagen war die Sonne gänzlich „spotless“. Die Maximalzahl über die Tage des November war 15, was nicht etwa heißt dass es 15 Flecke gab- nein, die Zahl sagt aus, dass  5 Flecken in maximal 1 Fleckengruppe beobachtet wurden.  Also sehr geringe Fleckenaktivität, gerade mal 20% des mittleren Wertes.

Abb. 1: Der aktuelle Zyklus (SC für solar cycle) 24 (rot) im Vergleich zu einem mittleren Zyklus als Durchschnitt der Zyklen 1-23 berechnet (blau) und dem seit Jahren recht ähnlichen Zyklus 5 (schwarz), der um 1800 beobachtet wurde.

 

Aus Abb.1 wird deutlich, dass wir wohl bereits zu Beginn des Jahres 2018 (Monat 110 im Diagramm) im solaren Minimum angekommen waren. Ob es nochmals ein „Aufbäumen“ wie im SC5 geben wird? Die Wahrscheinlichkeit ist eher gering.

 

Der Vergleich der Zyklen untereinander:

Abb. 2:  Die aufsummierten monatlichen Abweichungen zwischen den festgestellten SSN Zahlen und dem jeweiligen Mittelwert (blau in Abb.1) für alle Zyklen jeweils bis zum aktuellen Zyklusmonat 120 des SC 24.

 

Die Messen des Zyklus 24 sind wohl gelesen. Wir werden mit großer Wahrscheinlichkeit mit sehr wenig Aktivität noch ein Jahr lang im Minimum verweilen. Das sieht man auch an den solaren polaren Feldern, sie stagnieren auf ihrem Maximalwert. Zur Veranschaulichung haben wir sie grafisch betragsmäßig als Mittelwert von solarer Nord-u. Südhemisphäre aufbereitet. Wir betrachteten immer den gleichen Zeitraum, zwischen dem Nullpunkt (es ist das jeweilige Fleckenmaximum) und 2110 Tage danach, das ist der letzte Messpunkt des SC24 am 27.11.2018:

 

Abb.3: Die zeitliche Entwicklung der polaren solaren Felder der Sonne seit 1980. Die Stärke im Fleckenminimum, am Ende des jeweiligen Graphen wenn die Felder stationär werden und kaum noch Änderungen eintreten, ist ein guter Indikator für die Aktivität des Folgezyklus.

 

In Abbildung 3 sehen wir sehr schön, wie zögerlich der Anstieg im aktuellen Zyklus erfolgte. Bei den drei Vorgängerzyklen gab es nach dem Nulldurchgang eine viel schnellere Entwicklung. Später schwang sich SC24 dann auf einen leicht höheren Wert  als SC23 ein. Das könnte bedeuten, dass SC25 ab 2020 etwas stärker werden könnte. Nur darf man nicht zu viel Genauigkeit von der Methode erwarten. Klar ist, dass SC25 bei weitem nicht so stark werden wird wie SC23 und 22, also unternormal aktiv, vgl. Abb. 2. Wir halten Sie auf dem Laufenden!

 

Die Sache mit der „Pause“ oder dem „Hiatus“

In den Jahren bis etwa 2016 war die „Pause“  in aller Munde: Das Verharren der globalen mittleren Temperaturen am Boden (Global Mean Surface Temperatures: GMST) seit etwa 1998 auf einem relativ konstanten Niveau. Die Klimawissenschaft ging von einer weiteren Erwärmung aus,  wie es Modelle berechneten.  Aber die Beobachtungen zeigten das nicht. Warum gab es eine Divergenz? Warum folgte die Erwärmung nicht dem Antrieb durch anthropogene Einflüsse, wie sie es seit 1985 getan hatte? Damit beschäftigten sich viele Arbeiten, es mögen über 200 (!) peer reviewte Artikel gewesen sein. Versetzten wir uns also um ein paar Jahre zurück, ins Jahr 2015 und wir sehen folgendes:

Abb. 4: Die Entwicklung der GMST seit 1980 ( rot) und der anthropogene Antrieb („Forcing“, schwarz)

 

Die GMST wurden 11- jährig geglättet (dick rot) wie es üblich ist, wenn man dekadische Schwankungen zeigen will. Als Temperaturreihe verwenden wir die Daten von „Cowtan&Way“, im Prinzip sind sie abgeleitet aus den Daten der britischen CRU, dem Klassiker in der Klimaforschung , um die polaren Gebiete ergänzt. Das anthropogene Forcing beinhaltet nicht nur die CO2- Wirkung sondern auch andere Treibhausgase, Aerosole  und weniger bedeutende Beiträge z.B. aus der Wolkenbildung durch den Flugverkehr.

Jedem Betrachter muss auffallen, dass  ab etwa 2004 eine zunehmende Diskrepanz entstand. Wohlgemerkt, wir schauen mit den Augen von Wissenschaftlern auf die Daten, die im Jahre 2015 staunten, als sie jährliche Werte bis maximal 2014 verarbeiten konnten. Und sie suchten Erklärungen dafür. Eine oft zitierte aus 2014 machte den pazifischen ElNino  dafür verantwortlich. Eine andere aus 2013 vermutete eine überschätzte Erwärmung vor 1997. Alles scheint ja so in Ordnung zwischen 1985 und 2004 in Abb. 4! Eine weitere machte im Jahre 2014 kleinere vulkanische Ereignisse im frühen 21. Jahrhundert als „den Schuldigen“ aus. Viele mögliche Ursachen aus vielen Wirkungsketten denen eins gemeinsam war: sie stocherten im Nebel. Zu viele mögliche  Erklärungen für eine einfache Tatsache damals, gezeigt in Abb.4. Heute wissen wir, dass es nach 2015 steil bergauf ging mit den GMST:

Abb. 5: Die Entwicklung der GMST zwischen Januar 2014 und November 2018 nach GISS mit einer 12- monatigen Glättung ( fett rot).

 

Die „Pause“ war ab Mitte 2015 Geschichte, vornehmlich durch den „Super ElNino“ 2015/16. Einige Klimawissenschaftler vermuteten nun, dass sich die Diskrepanz auflösen würde.  Aber  nach dem ElNino gingen die Temperaturen wieder auf das Niveau der ersten Hälfte des Jahres 2015 zurück. Mit langfristigen Glättungsmethoden (vgl. Abb.4) ist das (noch) nicht darstellbar.

Soweit so gut, für die langfristige Bewertung der Temperaturentwicklung bis 2100 spielen solche Episoden, erzeugt wohl durch interne Variabilität des Klimas, ohnehin eine sehr untergeordnete Rolle. Nimmt man den besten Input bis 2016 (also auch mit dem Blipp aus Abb.5) aus Beobachtungen und berechnet die Empfindlichkeit des Klimasystems auf Kohlendioxid von 1860 bis2016, so lautet die Antwort: bei Verdopplung des Kohlendioxid- Gehaltes sind ca. 1,3 °C Erwärmung zu erwarten, auch wenn man den Annahmen des IPCC ohne jeden Abstrich folgt. Wir erläuterten die Ergebnisse in unserem Blog ausführlich, ebenso wie den wissenschaftlichen Austausch darüber. Was bleibt, ist dennoch die Diskussion um die „Pause“ oder den „Hiatus“ in den vergangenen Jahren.

Mit dem Wissen aus 2017 treten im Dezember 2018 nun (gleiche) Autoren (mit vertauschter Reihenfolge)  zweier Arbeiten auf den Plan, die uns mit Mitteln der Statistik zeigen: es gab gar keine „Pause“. Reiben Sie sich nur die Augen, wir haben in Abb.4 gezeigt, dass auch in der „C&W“ Reihe (ein Mitautor der „Arbeit“ ist Kevin Cowtan selbst, der Hauptautor der von uns benutzten Daten) bis 2014 die Abweichung klar zutage tritt, ob sie nun bedeutend für die Langzeitentwicklung ist oder nicht. In den Schlussfolgerungen der Arbeiten (Autoren: M. Mann, S. Rahmstorf, S. Lewandowski, – Mann: Erfinder des mittlerweile widerlegten Hockeysticks, Rahmstorf:  noch heute Verteidiger des Hockeysticks , Lewandowski : der Urheber des  97 % Mantras) geht es dann zur Sache:

Man (also die Klimawissenschaftler, die sich mit der „Pause“ beschäftigt haben) hätte Unsicherheiten geschürt in der Politik und den so dringend gebotenen sofortigen Aktionen gegen die Klimakatastrophe „den Schwung genommen“.   Das würde „unkalkulierbar höhere Zukunftsrisiken“ eintragen, so schäumen sie. Die Autoren der vielen Studien (auch ein „Konsens“ über die Existenz der „Pause“, sie wurde schließlich auch im 5. Sachstandsbericht des IPCC in 2013 besprochen) hätten sich wohl von „bösen Skeptikern“ leiten lassen?  Die Autoren mit ihrem Bashing anderer nachdenklicher Klimawissenschaftler machen den Eindruck eines politischen Schauprozesses vor einem Tribunal. Auch wenn die gemessenen Temperaturen den überspitzten Modellen widersprechen, dürfen Wissenschaftler dies nicht problematisieren, weil es dem Alarmismus schadet, sagen die Tribunal-Richter.

Was meinen die Autoren diese Blogs? „1,3 Grad  bei Verdopplung von CO2 in unserer Atmosphäre -mit oder ohne „Pause“- ist keine Katastrophe…“. Schließlich wird diese Zahl auch bestätigt, wenn man die durch einen „Mitankläger“ (Grant Foster aka „Tamino“) aufbereiteten Temperaturen-selbstverständlich ohne „Pause“-  ab 1950 benutzt. Gedachte Fortsetzung: „Keine Katastrophe?? Sie sind ja… ein erbärmlicher Klimaleugner!!“ Das mag überspitzt klingen aber so wird heute die Debatte doch geführt. Einige der Gescholtenen wehren sich und verweisen zu Recht auf die Freiheit der Forschung. Kurzum: die beiden „Arbeiten“ hätten so wohl nie erscheinen dürfen, sie sind mit ihren Agitprop- Schlussfolgerungen eines wissenschaftlichen Journals unwürdig. Sie passen eher auf die polit- alarmistische Website, die viele Autoren der aktuellen „Arbeiten“  auch betreuen.

Hut ab vor jedem Wissenschaftler, der vor Jahren die Sachverhalte – illustriert in Abb. 4 – zum Anlass nahm, die Ursachen für das Auseinanderdriften von Antrieben und Temperaturen zu klären zu versuchen. So funktioniert Wissenschaft: Die Neugier, etwas zu erklären was wir beobachten. Die heutigen  „Klimagerichtshof“- Ankläger taten das damals zu keiner Sekunde.  Wissenschaftler?  Oder erleben wir hier gerade einen massiven Angriff der Klimapolitik auf die Wissenschaft?

Wir wünschen allen Lesern ein frohes Weihnachtsfest!

 

 

Senckenberg: Ausweitung des Energiepflanzenanbaus ist für Natur genauso schädlich wie der Klimawandel

Pressemitteilung des Senckenberg Forschungsinstitut vom 10. Dezember 2018 (via idw):

———-

Ausweitung des Energiepflanzenanbaus ist für Natur genauso schädlich wie der Klimawandel

Eigentlich profitiert die Natur vom Klimaschutz, für den die Bioenergie lange als Heilsbringer galt. Um das 1,5-Grad-Ziel zu erreichen, wird aber davon ausgegangen, dass Bioenergie-Pflanzen großflächig angebaut werden müssen. Neuen Modellen zufolge werden dadurch insgesamt mehr Lebensräume von Wirbeltieren vernichtet als von einem abgeschwächten Klimawandel profitieren, berichten Forschende des Senckenberg Biodiversität und Klima Forschungszentrums, der Technischen Universität München und der Durham University diese Woche im Fachblatt „PNAS“. Der vermeintliche Vorteil eines solchen Klimaschutzes käme daher den Arten nicht zugute.

Damit die Globaltemperatur bis 2100 um nicht mehr als 1,5 Grad gegenüber dem vorindustriellen Zeitraum steigt, muss die Menge an CO2, die rund um den Globus in die Luft geblasen wird, deutlich sinken. Eine Begrenzung des Klimawandels nützt auch der Natur, denn er ist einer der Ursachen für das Artensterben. Ein aktuell verbreiteter Ansatz dazu ist es, mehr Energie aus nachwachsenden Rohstoffen wie Mais, Raps, Ölpalme und Co. statt aus fossilen Rohstoffen zu gewinnen.

Doch damit – legt man das Augenmerk auf die biologische Vielfalt – ersetzt man wohl ein Übel durch ein anderes. „Um den Klimawandel damit wirksam zu begrenzen, müssen wir bis 2100 auf circa 4,3 Prozent der globalen Landflächen Bioenergie-Pflanzen anbauen – das entspricht fast der 1,5-fachen Fläche aller EU-Länder zusammen. Damit schaden wir der biologischen Vielfalt, die in diesen Gebieten bisher zuhause ist, gravierend. Die negativen Auswirkungen des Klimawandels, die mit maximaler Bioenergie-Nutzung verhindert werden könnten, werden diese Verluste nicht wettmachen“, so Dr. Christian Hof, der die Studie am Senckenberg Biodiversität und Klima Forschungszentrum Frankfurt durchführte und jetzt an der TU München forscht.

Unter Wissenschaftlerlnnen ist Bioenergie schon länger umstritten und war bisher Gegenstand von Einzelstudien. Hof und sein Team haben erstmals global untersucht, wie Amphibien, Vögel und Säugetiere den Klima- und den Landnutzungswandel bis 2100 zu spüren bekommen. Dabei haben sie zwei Szenarien miteinander verglichen: ein Szenario mit maximaler Bioenergie-Nutzung, welches einer Begrenzung der Erwärmung um circa 1,5 Grad entspricht, und ein Szenario mit minimaler Bioenergie-Nutzung und einem Temperaturanstieg um etwa 3 Grad gegenüber dem vorindustriellen Zeitraum bis 2100.

Die Ergebnisse überraschen: „Ob sich die Temperatur bis 2100 um 1,5 oder 3 Grad erhöht: Rund 36 % der Lebensräume von Wirbeltieren sind entweder durch den Klimawandel oder die neue Landnutzung infolge des Anbaus von Bioenergie-Pflanzen massiv gefährdet. Die Auswirkungen auf die biologische Vielfalt sind also vergleichbar. Unterschiedlich ist nur, auf wessen Konto sie gehen“, erklärt Dr. Alke Voskamp vom Senckenberg Biodiversität und Klima Forschungszentrum.

Darüber hinaus gibt es Gebiete, in denen Wirbeltieren von Energiepflanzen-Plantagen der Platz streitig gemacht wird und ihnen gleichzeitig die höhere Temperatur zu schaffen machen wird. „Bei einem geringeren Temperaturanstieg bis 1,5 Grad, den wir durch die maximale Nutzung von Bioenergie erkaufen, könnten sogar größere Flächen unter dieser Doppelbelastung leiden. Unter diesem 1,5 Grad-Szenario wird insgesamt ein größerer Anteil der Verbreitungsräume von Wirbeltieren durch Klimawandel, Landnutzung oder beides beeinträchtigt“, erklärt Voskamp.

Das Abbremsen des Klimawandels durch den Einsatz von Bioenergie-Pflanzen schadet zudem wahrscheinlich deutlich mehr Wirbeltierarten mit kleinem Verbreitungsgebiet, als ein Temperaturanstieg um 3 Grad. Solche Wirbeltierarten – vor allem Amphibien – leben mehrheitlich in den Tropen und Neotropen. An diesen Orten jedoch werden Plantagen für Bioenergie-Pflanzen am meisten zunehmen. Für Hof und sein Team lässt die Studie nur einen Schluss zu: „Der Klimawandel ist nach wie vor eine der größten Bedrohungen für die biologische Vielfalt und muss möglichst auf 1,5 Grad Temperaturerhöhung begrenzt werden. Wie unsere Studie zeigt, ist die Bioenergie und die massive Ausweitung der Anbauflächen hierfür aber der falsche Weg. Wir müssen stattdessen stärker daran arbeiten, Energie einzusparen.“

Die Studie ist Teil des vom Bundesministerium für Bildung und Forschung geförderten Projektes BioSzen1punkt5 im Programm „Förderung erweiterter und verbesserter wissenschaftlicher Grundlagen für den IPCC-Sonderbericht zu 1,5 °C globale Erwärmung (SR1.5)“.

 

Originalpublikation:
Hof, Chr. et al. (2018): Bioenergy cropland expansion may offset positive effects of climate mitigation for global vertebrate diversity. PNAS, doi: 10.1073/pnas.1807745115

 

Grünen-Vorsitzende Annalena Baer­bock liegt um Faktor eine Milliarde falsch: In Deutsch­land emittiert jeder Bürger 9 Giga­tonnen CO2

Robert von Loewenstern am 4. November 2018 über Annalena Baerbock auf Achgut:

Danke, Angela! Und Annalena! Und E.ON!

Seitdem ich letztens in Berlin-Marzahn an einem Großflächenplakat vorbeigefahren bin, denke ich viel über Angela Merkel und Annalena Baerbock nach. Beide sind Frauen, beide stehen an der Spitze einer linken Volkspartei, beide sind Expertinnen für Energie. Und beide haben die Gabe, ihre Zuhörer in Raserei zu reden. Aber es gibt auch Unterschiede. Die wollen wir am Beispiel Energiepolitik herausarbeiten, um zu verstehen, warum Angela Merkel seit 13 Jahren Kanzlerin ist und Annalena Baerbock nicht. Noch nicht.

Wenden wir uns zunächst der Annalena zu. Sie hat einen Bachelor in Politikwissenschaft und öffentlichem Recht, obendrauf einen Master in Public International Law von der London School of Economics. Das ist nicht der Oberhammer, objektiv gesehen, aber ganz bestimmt nicht wenig in einer Partei, deren Führungskräfte gerne durch Absenz jeglichen Abschlusses auffallen. Die Annalena ist also nicht umsonst Grünen-Vorsitzende, zusammen mit Robert Habeck, der ebenfalls einen akademischen Titel hat. Der Robert ist sogar ein Doktor, nur leider ein nutzloser. Als Philosoph hat er naturgemäß zehn linke Daumen. So wurde die Annalena quasi automatisch zur obersten Klimaexpertin ihrer Partei.

Weiterlesen auf auf Achgut

Passend dazu zeigte Baerbrock im Dezember 2018 in einer TV-Talkshow bei Maybritt Illner, was sie alles drauf hat. Dort behauptete sie in einem voller Selbstvertrauen staatsmännisch vorgetragenen Statement, dass jeder Bürger in Deutsch­land 9 Giga­tonnen CO2 emittiert. Giga klingt richtig gefährlich, dachte sie sich wohl, das zeigt Wirkung. Allerdings passierte ihr eine kleine Panne, denn der richtige Wert für die jährlichen Pro-Kopf-Emissionen in Deutschland beträgt nur 9 Tonnen, nicht Gigatonnen. Fehlerfaktor eine schlappe Milliarde. Man könnte das als kleinen Versprecher abtun. In Wirklichkeit offenbart es ein gefährliches Desinteresse an den technischen und naturwissenchaftlichen Fakten. Und genau das ist das Problem: Trotz ihrer fachlichen Überforderung wollen uns genau diese Protagonisten erklären, wie die Zukunft zu planen ist. Vielleicht sollte man eine Art Mathe- oder Physik-Führerschein von denjenigen verlangen, die am Projekt Energiewende mitwerkeln wollen.

Hier der kommentierte Ausschnitt via FMD’s TV-Channel:

 

Oder ganze Sendung in der ZDZ-Mediathek anschauen, Szene ab Minute 30:59.

 

Wintertemperaturen auf Tirols Bergen sind innerhalb der letzten 50 Jahre statistisch unverändert

Mitte Dezember 2018 veröffentlichte die Webplattform ‘Zukunft Skisport’ eine hochinteressante neue Studie zur Entwicklung der Winter im österreichischen Tirol. Die Untersuchung wurde von drei Autoren durchgeführt: (1) Hofrat Dr. Wolfgang Gattermayr, Meteorologe und Hydrologe, langjähriger Leiter des Hydrographischen Dienst Tirol; (2) Mag. Christian Zenkl, selbstständiger Meteorologe aus Innsbruck; (3) Mag. Günther Aigner, Skitourismusforscher und Schneehistoriker aus Kitzbühel. Die wichtigsten Erkenntnisse:

–Die Wintertemperaturen auf Tirols Bergen sind innerhalb der letzten 50 Jahre statistisch unverändert.

–Die Schneeparameter in Tiroler Wintersportorten zeigen für die vergangenen 100 (!) Jahre keine signifikanten Trends.

–Innerhalb der letzten 31 Jahre sind die Skisaisonen in Tirols Skigebieten länger geworden.

 

Die 57-seitige Studie ist kostenlos als pdf auf der Webseite Zukunft Skipsport herunterladbar. Hier die Zusammenfassung:

Die Winter in Tirol seit 1895: Eine Analyse amtlicher Temperatur- und Schneemessreihen

Bei Betrachtung der amtlichen Messdaten sind die klimatologischen Rahmenbedingungen für den alpinen Wintersport in Tirol nach wie vor sehr günstig. Über die letzten 50 Jahre sind die Wintertemperaturen auf Tirols Bergen statistisch unverändert. Betrachtet man lediglich die letzten 30 Jahre, so sind die Winter in diesem Zeitraum sogar deutlich kälter geworden – um 1,3 Grad Celsius.

Die längsten Schneemessreihen aus den Tiroler Wintersportorten zeigen über die vergangenen 100 Jahre insgesamt keine signifikanten Trends. Weder die jährlich größten Schneehöhen noch die jährliche Anzahl der Tage mit Schneebedeckung zeigen markante Veränderungen. Bei isolierter Betrachtung der letzten 30 Jahre bleiben die jährlich größten Schneehöhen und die Neuschneesummen relativ stabil, während die Anzahl der Tage mit Schneebedeckung leicht abgenommen hat. Auffallend ist die hohe Variabilität der einzelnen Winter. Die Spannweiten in den Messreihen sind beachtlich – vor allem bei den jährlich größten Schneehöhen. Insgesamt zeigt sich, dass die winterlichen Schneeverhältnisse primär vom Auftreten der entscheidenden Großwetterlagen abhängen und nur mäßig mit dem Temperaturniveau korrelieren. Auch relativ milde Winter können sehr schneereich sein. Diese unvorhersehbare Dynamik der Großwetterlagen dominiert das Wetter und Klima im Alpenraum.

Im Mittel von zehn Tiroler Skigebieten konnte man innerhalb der letzten 25 Jahre an durchschnittlich 141 Tagen pro Saison Ski fahren. Der lineare Trend ist leicht ansteigend. Diese positive Entwicklung wird auch durch die technische Beschneiung gefördert. Im Gegensatz zu den Wintermonaten zeigen die Bergsommer seit Anfang der 1980er Jahre einen markanten Temperaturanstieg. Ein Teil dieser Erwärmung kann mit häufigeren Hochdruckwetterlagen erklärt werden, da auch die Sonnenscheindauer im selben Zeitraum um mehr als 20% zugenommen hat. Dadurch wird der Rückzug der alpinen Gletscher beschleunigt. Dennoch ist das aktuelle Klima für die erfolgreiche Weiterentwicklung des alpinen Ganzjahrestourismus als überaus günstig zu bewerten.

Aus den hier veröffentlichten Auswertungen können keinerlei Prognosen für die Zukunft abgeleitet werden. Auf regionaler und dekadischer Skala dominieren auch in Zukunft die unberechenbaren Großwetterlagen unser Wetter und Klima. Ein klimabedingtes Ende des alpinen Wintersports ist nach der Auswertung der amtlichen Messdaten nicht in Sicht.

Sehr empfehlenswert ist auch das folgende Video, in dem Günther Aigner die Ergebnisse der Untersuchung in gut verständlicher Weise vorstellt:

Wissenschaftler fordern dringende Nachbesserung der Klimamodelle: Wirklichkeit und Simulation klaffen zu weit auseinander

Klimamodelle müssen zunächst an der bekannten Klimavergangenheit kalibriert und getestet werden, bevor sie verlässliche Zukunftprognosen abgeben können. Eine besondere Herausforderung ist dabei das sogenannte mittlere Holozän, 8000-5000 Jahre vor heute, als es an vielen Stellen der Erde deutlich wärmer war als heute. Die Klimamodelle tun sich schwer, diese Wärme zu reproduzieren. Masakazu Yoshimori und Marina Suzuki haben sich das Problem in Climate of the Past Discussion vorgenommen und weisen darauf hin, dass dringend eine Lösung gefunden werden muss, um die Robustheit der Modelle zu garantieren.

Die bekannte Klimageschichte weicht noch immer signifikant von den Simulationsszenarien ab. Bereits vor knapp 30 Jahren forderte Mitchell (1990), dass die erfolgreiche Rückwärts-Kalibrierung der Klimamodelle eine unverzichtbare Voraussetzung ist, bevor die Modelle für Prognosen eingesetzt werden könnten. Des Weiteren empfehlen Masakazu Yoshimoriund Marina Suzuki, sich verstärkt auf die Klimaverstärker zu konzentrieren, die offenbar in ähnlicher Weise vor einigen Jahrtausenden wirkten wie heute, unabhängig davon, was letztendlich den Anstoß für die Erwärmung gab. Hier der Abstract des Papers:

The relevance of mid-Holocene Arctic warming to the future
There remain substantial uncertainties in future projections of Arctic climate change. Schmidt et al. (2014) demonstrated the potential to constrain these uncertainties using a combination of paleoclimate simulations and proxy data. They found a weak correlation between sea ice changes in the mid-Holocene (MH) and in future projections, relative to the modern period. Such an “emergent constraint” provides a powerful tool to directly reduce the range of uncertainty, provided that the necessary paleoenvironmental information is available. In the current study, we examine the relevance of Arctic warming in the past to the future through process understanding, rather than seeking a statistical relation. We conducted a surface energy balance analysis on 10 atmosphere and ocean general circulation models under the MH and future RCP4.5-scenario forcing. We found that many of the dominant processes that amplify Arctic warming from late autumn to winter are common between the two periods, despite the difference in the source of the forcing (insolation vs. greenhouse gases). We also quantified the contribution of individual processes to the inter-model variance in the surface temperature changes. The controlling term varies with the season, but the results suggest that the models’ representations of the surface albedo feedback, cloud greenhouse effect, turbulent surface heat fluxes, and indirect atmospheric stratification are important contributors. Based on the results for the Arctic warming mechanism obtained from this study, we conclude that proxy records of Arctic warming during the MH contain useful information that is relevant for understanding future Arctic climate change.

Auszug aus den Conclusions:

From this study, we conclude that proxy records of the Arctic warming for the MH contain useful information relevant to future Arctic climate change. The current disparity between the model and proxy 30 reconstructions is, therefore, of concern. The inclusion of dynamic vegetation feedback discussed in the previous section has a high priority. The relation between past and future climate is not due to a common forcing to the climate system but due to the feedbacks inherent in the climate system. Therefore, more effort should be made in seeking possible analogues between physical processes in the past and future climate, rather than in the past forcing. Our study supports the conclusion by Mitchell (1990) that it is a necessary condition for models to be able to reproduce the MH climate to produce reliable future projections, and we conclude that the evaluation of the models’ parameterization is embedded in the model validation exercise using proxy data.

 

Der Unsinn der Klimakonferenzen

Von Dr. Dietrich E. Koelle

Wieder einmal – zum 24. Mal –  ist eine Klima-Massenkonferenz mit über 20 000 Teilnehmern  (davon z.B.  400 aus Guinea) zu Ende gegangen und die beteiligten Politiker und Klima-Funktionäre loben ihren Erfolg: „Wieder einmal wurde die Erde gerettet“.  Das geht eigentlich ganz einfach: man muss nur die CO2-Emissionen reduzieren und schon sinkt die Globaltemperatur. Die Reduktion wurde bei jeder Konferenz seit 24 Jahren beschlossen – und immer stiegen im nächsten Jahr die Emissionen – und das seit 24 Jahren.

 

Abbildungsquelle: IEA-Report für 2017

 

Dass es aber trotzdem, schon seit 16 Jahren (seit 2002) und den Rekord-Emissionen von 500 Milliarden Tonnen CO2 in diesem Zeitraum kaum einen globalen Temperaturanstieg mehr gegeben hat, sondern eine stark abgebremste Erwärmung, zeitweise sogar einen „Hiatus“, interessiert niemand. Das würde womöglich die fest eingeplante Klimakonferenz im nächsten Jahr gefährden. Es ist überhaupt erstaunlich, wie man diese Tatsache ignorieren kann – nur durch einen festen ideologischen Glauben und/oder starkem persönlichem Interesse an der Propagierung von Klimaängsten. Steven Pinker,  Harvard-Professor für kognitive Psychologie, stellte kürzlich fest:

„Erstaunlicherweise sind Intellektuelle oft völlig taub, wenn es um Fakten geht“ (FOCUS, 6.Okt.2018).

Leider gehören dazu auch Klimatologen in Deutschland, denen man das nicht zutrauen würde. Und Gerhard Schulze, em. Professor für Soziologie an der Universität Bamberg, stellte fest:

„Wir haben keine Erfahrung mehr im Umgang mit wirklichen Ernstfällen. Das führt dazu, dass wir Katastrophen geradezu lustvoll herbeiphantasieren. Zum Beispiel die Klimakatastrophe, die ich für ein erstaunliches Phänomen massenhafter Verblendung halte”.

Immerhin gibt es 5 angesehene Klima-Institute, die sich der professionellen globalen Temperaturentwicklung widmen. Zwei davon auf der Basis von Satellitendaten und drei nach Bodenmessungen. Die Datenreihen zeigen naturgemäß leichte Unterschiede, aber den gleichen Trend seit 40 Jahren. Man kann daraus vielleicht für die letzten 16 Jahre (seit 2002) einen Anstieg um 0,1 bis 0,2°C  erkennen – ein gewaltiger Klimawandel ! (ohne die Spitzen 1998 und  2015/16 als Effekt des El Nino im Pazifik zu missbrauchen, die nichts mit den Klimatrend als solchem zu tun haben).

Abbildungsquelle: Bob Tisdale.

 

Es gab zweifellos einen globalen Temperaturanstieg  zwischen 1975 und 2002 um ca. 0,4°C, aber genauso einen Temperatur-Rückgang um ca.0,2°C zwischen 1940 und 1975 (und das trotz CO2-Anstieg – unglaublich, was sich die Natur leistet !). Das wurde ignoriert, als die CO2-Hypothese in den 80er-Jahren entstand, weil damals Temperaturanstieg und CO2-Zunahme korrelierten. Aber (zeitweise) Korrelation bedeutet noch lange nicht Kausalität.  Kritik an dieser simplistischen und naiven CO2-Hypothese blieb aus, denn der  dadurch entstandenen öffentlichen und politischen Aufmerksamkeit wollte sich kein Klimatologe entziehen. Für Journalisten  wurde es ein Lieblingsthema, bei dem CO2 zu „Verschmutzung, Schadstoff bis zum „Klimakiller“ erklärt wurde., mit nachfolgendem Weltuntergang.

Jeder mit einer gewissen Erfahrung in Organisation und Management weiß, dass das Ergebnis einer Konferenz umgekehrt proportional zu Teilnehmerzahl ist. Damit ist eine Klimakonferenz mit 20 000 Teilnehmern und zwei Wochen Dauer von vorne herein zum Scheitern verurteilt. Auf welchem anderen Gebiet wurde je ein Problem durch eine Massenkonferenz gelöst ?  Nur eine ständige Konferenz mit einer kleinen Teilnehmerzahl  hätte eine gewisse Aussicht auf Erfolg, wie dies auch in anderen Fällen geschehen ist.

Aber heute will kein Klima-Funktionär und Klima-Politiker mehr auf die alljährliche und mit grosser Publicity inszenierten Klima-Party an jeweils einem anderen interessanten Ort verzichten, zumal dies im allgemeinen  auf Kosten der Steuerzahler erfolgt. Die geringste Problematik bei jeder Konferenz war der Beschluss über Zeit und Ort der nächsten Klimakonferenz.

 

Streitpunkt ‘absolute globale Mitteltemperatur’: Viel Wirbel um nichts

Die Klimadiskussion ist facettenreich. Wie in jeder wissenschaftlichen Diszipin gibt es unterschiedliche Interpretationen und Ansichten. Es wäre schlimm, wenn dies nicht so wäre. Aus politischen Gründen wird jedoch oft behauptet, es gäbe nur zwei Gruppen: Die schlauen Anhänger der IPCC-Auslegung sowie die dummen Skeptiker. Eine gefährliche Verklärung der Realität. Gute Gedanken gibt es bei allen Teilnehmern, wenn man sich die Mühe macht, mitzudenken. Aber es passieren auch Fehleinschätzungen, und über die muss man auch sprechen dürfen. In unserem Blog ‘Die kalte Sonne’ kommentieren wir die Vorgänge in den Klimawissenschaften. Wir loben, wenn es etwas zu loben gibt. Und wir kritisieren, wenn wir einen Denkfehler erkannt haben. Dabei spielt es zunächst keine Rolle, auf welcher Seite die Protagonisten stehen. Es geht allein um die Inhalte. Verzeihlich sind Fehler, die aus Versehen passieren. Wo geabeitet wird, passieren Fehler. Diese müssen dann aber auch anschließend klar eingeräumt werden. Probematisch sind logische Fehler und Fehlinterpretationen, die vorsätzlich gestreut werden, um politische Wirkung zu erzeugen.

Ein Großteil unserer Kritik im Blog zielt auf Klimaalarm ab, also das Aufbauschen von klimatischen Trends unter Vernachlässigung natürlicher Klimaprozesse und ihrer aktuellen Wirkung. Heute wollen wir jedoch auch ein beliebtes Skeptikerargument unter die Lupe nehmen, nämlich Probleme mit der Angabe der mittleren globalen Erdtemperatur. Wie wir sehen werden, gibt es hier in der Tat Probleme. Allerdings hat sich in der Argumentation ein Denkfehler eingeschlichen, so dass das Argument letztendlich nicht greift und as acta gelegt werden sollte. Schwache Argumente sollten so schnell wie mögloch aussortiert werden, um Raum für furchtbarere Diskussionen zu schaffen.

 

Die absolute globale Durchschnittstemperatur

Auf der Erde gibt es eine Vielzahl von Wetterstationen, außerdem überwachen Satelliten die Temperaturentwicklung des Globus nahezu flächendeckend. Natürlich ist es schwierig, aus der Vielzahl von Datenpunkten und Lücken eine globale Durchschnitts-Temperatur zu berechnen – aber es ist natürlich mathematisch möglich. Einige Gebiete der Erde erwärmen sich, andere sich kühlen ab. Es gibt jahreszeitliche Effekte, Gebirgseffekte und Datenlücken in schwer zugänglichen Regionen, die man auf verschiedene Weise interpolieren kann. Der Durchschnitt aller Weltregionen ergibt dann einen Mittelwert, der für ein konkretes Zeitfenster definiert ist. Dieses Zeitfenster kann z.B. ein bestimmtes Jahr oder ein bestimmtes dreißigjähriges Intervall sein.

Immer wieder liest und hört man Angaben absoluter globaler Temperaturen. Sie werden von NASA, GISS, WMO und anderen Organisationen herausgegeben. Leider sind diese unkoordiniert und weichen z.T. stark voneinander ab. Paul Bossert und Rainer Hoffmann vom «Klimamanifest von Heiligenroth» kritisieren seit Jahren diese Konfusion in Blogartikeln und Youtubevideos. Sie tun dies zu Recht, denn der Vergleich der Werte erbringt verwirrende Resultate. Im September 2018 formulierten sie beispielsweise ihre Kritik als Frage, die der SRF an den ehemaligen IPCC-Mann Thomas Stocker weiterreichte:

FRAGE 3: In den Jahren 1988 bis 1995, also in den Anfangsjahren des Weltklimarates IPCC, sei nach mehreren übereinstimmenden Quellen die absolute globale Mitteltemperatur zwischen 15,4 °C bis 15,5 °C ausgewiesen worden. Seit dem wissenschaftlichen 4. IPCC-Bericht 2007, für den auch Sie mitverantwortlich waren, verlaufe aber die globale Absoluttemperatur einer globalen Erderwärmung nur noch zwischen einem absoluten Temperaturfenster von 13,67 °C (für das Jahr 1850) und bis zu 14,8 °C (laut WMO in Genf für das Jahr 2017). Wurde es in den letzten 30 Jahren also kälter?

Bossert und Hoffmann haben natürlich Recht. Die Werte sind richtig zitiert und suggerieren auf den ersten Blick eine Absenkung der globalen Mitteltemperatur in neueren Klimaberichten, was natürlich nicht zur gemessenen Klimaerwärmung passt. Die IPCC-nahe Webplattform RealClimate räumt das Problem unumwunden ein:

Like the proverbial elephant, the internet never forgets. And so the world is awash with quotes of absolute global mean temperatures for single years which use different baselines giving wildly oscillating fluctuations as a function of time which are purely a function of the uncertainty of that baseline, not the actual trends. A recent WSJ piece regurgitated many of them, joining the litany of contrarian blog posts which (incorrectly) claim these changes to be of great significance. One example is sufficient to demonstrate the problem. In 1997, the NOAA state of the climate summary stated that the global average temperature was 62.45ºF (16.92ºC). The page now has a caveat added about the issue of the baseline, but a casual comparison to the statement in 2016 stating that the record-breaking year had a mean temperature of 58.69ºF (14.83ºC) could be mightily confusing. In reality, 2016 was warmer than 1997 by about 0.5ºC!

Das Problem: Die Berechnung von globalen Mitteltemperaturen ist schwierig und hängt von einer Vielzahl von Annahmen und Methoden ab. Da wundert es nicht, dass die globalen Temperatur-Kurven der verschiedenen Auswertprodukte deutlich voneinander abweichen. GISS strich gar eine Umrechnungsformel von seiner Webseite, vielleicht um Konfusion zu vermeiden. Zudem kann sich im Laufe der Jahre auch die Methodik und das Bezugsniveau verändert haben. Realclimate zeigt ein Beispiel dafür:

Abbildung: Entwicklung der globalen Mitteltemperatur laut verschiedener Reanalysis-Modelle. Quelle: RealClimate.

 

Die Einzelkurven laufen ziemlich paralell zueinander, sind jedoch vertikal gegeneinander versetzt. Dieser vertikale Versatz ist ein Problem, das nicht leicht in den Griff zu bekommen ist. Daher ist es einfach, die Kurven einfach auf ein gemeinsames Nullniveau (baseline) zu setzen, und dann ihren Verlauf miteinander zu vergleichen. Hier steckt die wahre Information für die Klimadiskussion, nämlich die Erwärmungsrate pro Jahrzehnt, die bei den dargestellten Kurven trotz vertikalem Versatz sehr ähnlich ist. Wenn sich alle öffentlichen Aussagen auf ein Datenprodukt mit über die Jahre stabiler Methodik beziehen würde, so gäbe es gar keine Diskrepanz. Der ständige Hinweis auf den vertikalen Versatz der globalen Temperaturkurven führt in der Klimadiskussion nicht weiter, da er schnell erklärt werden kann. Entsprechend einfach hatte es Stocker im SRF-Interview:

Thomas Stocker: «Die Wissenschaft steht nicht still, das heisst, dass auch diese Zahlen ständig hinterfragt und kritisch beurteilt werden. Wenn in einem nachfolgenden IPCC Bericht Zahlen korrigiert werden, erfolgt dies erst nach einem langwierigen Begutachtungsverfahren, eingehender Debatte und genauer Nachprüfung, bis schliesslich ein Konsens gefunden wird. Das bedeutet, dass die erwähnten Zahlen von einem früheren Bericht nicht mit denjenigen eines nachfolgenden Berichts verrechnet werden können.»

Stocker hätte das noch viel klarer als Problem der Methodik erklären können, aber im Prinzip hat er Recht. Wir möchten daher allen Klimadiskutanten empfehlen, sich die Sache noch einmal genau anzuschauen. Der entsprechende Artikel auf RealClimate bildet eine gute Grundlage, unabhängig von der Kritik, die an vielen anderen RealClimate-Artikeln zu üben ist. Wenn die Klimadiskussion Fortschritte machen soll, so müssen beide Seiten ihre Argumente schärfen, das gilt auch für die Skeptikerseite. Auf diese Weise werden sich schnell die echten Knackpunkte herauskristallisieren, die voraussichtlich im Bereich der Attribution von Klimaschwankungen und der groben Unterschätzung natürlicher Klimafaktoren liegt.

Um Mißverständnissen vorzubeugen: Die vorgebrachte Kritik stellt keinswegs die großen Leistungen der genannten Klimaskeptiker oder anderer Skeptiker in Frage, die diese Argumente in der Vergangenheit vorgebracht haben. Im Gegenteil, die klimaskeptische Seite ist sich bewusst, dass Diskussion und Kritik integraler Bestandteil der Wissenschaft ist. Stichhaltige Argumente sollten immer mehr zählen, als eingefahrene Positionen aussichtslos zu verteidigen. Für die IPCC-Seite lässt sich diese Offenheit leider nicht feststellen. Sie ignoriert Kritik lieber und grenzt Kritiker aus, anstatt Kritikpunkte ernsthaft und ergebnisoffen zu erörtern.

———–

P.S. Nur um vorzubeugen: Die oben gezeigten Temperaturkurven sind natürlich nur ein Beispiel, um das Prinzip zu erläutern. Auch wenn die absolute globale Mitteltemperature hier keinen große Ansatzpunkt liefert, so muss doch kritisiert werden, dass die von Real Climate verwendeten Kurven vor allem die GISS-Version der Temperaturentwicklung propagieren. Das verwundert wenig, ist doch Gavin Schmidt als GISS-Direktor auch Co-Autor der RealClimate Aktivistenseite. Daher hier noch einmal die realistischere globale Temperaturentwicklung auf Basis der UAH-Satellitendaten:

Abbildung: Globale Temperaturentwicklung auf Basis der UAH-Satellitendaten. Quelle: Woodfortrees.org.

 

 

Reduktion der CO2-Emissionen möglicherweise ohne Wirkung auf Klima der kommenden 20 Jahre

Jochem Marotzke machte sich Gedanken, ob die CO2-Einsparungen wirklich in näherer Zukunft einen Einfluss auf den Temperaturverlauf haben können. In einem neuen Paper (Marotzke 2018) simuliert der Hamburger Klimaforscher den durch Klimamodelle prognostizierten Temperaturverlauf der 2030er Jahre und verwendet einmal einen konventionellen Emissionsverlauf (Szenario RCP 4.5), und einmal ein politisch reduziertes Emissionsszenario. Fazit: Mit hoher Wahrscheinlichkeit wird wohl kein Unterschied zu bemerken sein, da die natürliche Klimavariabilität in diesen Zeitmaßstäben die Oberhand behält. Das Paper erschien in WIREs Climate Change und kann kostenfrei als pdf heruntergeladen werden:

Quantifying the irreducible uncertainty in near‐term climate projections
If the Paris agreement at the Conference of Parties 21 is implemented very effectively, greenhouse‐gas emissions might decrease after year 2020. Whether this would lead to identifiable near‐term responses in “iconic” climate quantities of wide scientific and public interest is unclear, because the climate response would be obscured by quasi‐random internal variability. I define the climate response as an increase or decrease in a linear climate trend over the period 2021–2035, compared to 2006–2020, and establish the probability of such a trend change being caused by an assumed policy shift toward emissions reductions after 2020. I quantify the irreducible uncertainty in projecting such a trend change through very large (100‐member) ensembles of the state‐of‐the‐art climate model MPI‐ESM‐LR. Trends in global‐mean surface temperature (GMST) are higher over the period 2021–2035 than over 2006–2020 in one‐third of all realizations in the mitigation scenario RCP2.6, interpreted as implementing the Paris agreement, compared to around one‐half in the no‐mitigation scenario RCP4.5. Mitigation is sufficient to cause a GMST trend reduction with a probability of 0.40 and necessary with a probability of 0.33. Trend increases in Arctic September sea‐ice area and the Atlantic meridional overturning circulation are caused by the emissions reductions with a probability of only around 0.1. By contrast, emissions reductions are necessary for a trend decrease in upper‐ocean heat content with a probability of over one‐half. Some iconic climate quantities might thus by year 2035 exhibit an identifiable response to a successful Paris agreement but sometimes with low probability, creating a substantial communication challenge.

In den Conclusions finden sich noch einige deutlichere Aussagen. Marotzke warnt, dass selbst schmerzhafte Anstrengungen zur CO2-Reduktion in den kommenden zwei Jahrzehnten kaum einen Einfluss auf das Klima haben könnten:

My thought experiment demonstrates that it is crucial to have realistic expectations of the efficacy of climate policy in the near‐term: Even if greenhouse‐gas emissions begin to decline after year 2020, the probability is substantial that the response of iconic climate quantities to this decline will not have emerged by year 2035.

Mit 90%-iger Wahrscheinlichkeit werden das arktische Meereis (SIA ) und der Golfstrom (AMOC) in den 203oer Jahren nicht auf Änderungen in den CO2-Emissionen reagieren. Schon jetzt sieht Marotzke eine große Kommunikations-Herausforderung auf die Wissenschaftler zukommen, ähnlich wie bereits beim unerwarteten Hiatus der letzten Jahre.

The major advance brought about by my analysis lies in the ability to quantify the degree of irreducible uncertainty about whether the assumed emissions reduction will cause the desired climate response over a given timescale. The probability of this response occurring depends on the quantity in question but also on the type of causation; for the time horizon out to 2035 the probability lies here in the range between a bit under 0.1 for causation both sufficient and necessary for SIA and AMOC and a bit above one‐half for necessary causation for ocean heat content.

Communicating these probabilities will be nontrivial but will be aided by the precise definitions and meanings underlying them (Hannart et al., 2016; Pearl, 2000). The communication challenge (Deser et al., 2012) furthermore supports the notion that the recent hiatus was not a distraction to the scientific community (Lewandowsky, Risbey, & Oreskes, 2016) but instead provided an opportunity to communicate the role of internal variability (Fyfe et al., 2016) to an audience that might otherwise be disinclined to engage in this discourse.

Die Klimawissenschaften steuern weiter in schwerem Fahrwasser. Die natürliche Variabilität bereitet ihnen riesige Probleme, da sie in den Modellen stark vernachlässigt wurde. Noch immer träumt Marotzke davon, dass die Natur nur Rauschen hervorbringt (“quasi‐random internal variability“). Es wird jedoch sicher der Tag kommen, an dem auch er die systematische Wirkung natürlicher Klimafaktoren wie Ozeanzyklen und solare Aktivitätsschwankungen anerkennen wird. Vielleicht sollte er anfangen sich für die Paläoklimatologie zu interessieren, die gerade auf der rechten Spur an ihm vorbeizieht…

Früher alles besser? Im Mittelalter litt der Westen der USA unter einer unheimlichen Dürreserie

Ein Hauptproblem der Klimadebatte ist, dass stets dieselben Akteure auf der Medien-Bühne stehen. Beim Stichwort “Klimawandel” drängen sich sofort die üblichen Verdächtigen vor die Mikrofone und Journalisten-Schreibblöcke: Latif, Schellnhuber und Rahmstorf. Ab und zu Marotzke. Dazu kommen noch ein paar B-Klimaprominente, die aber fleißig im Hintergrund werkeln. Wie schaft es diese kleine verschworene Gruppe, die öffentliche Meinung so sehr zu beeinflussen, obwohl hunderte und tausende Wissenschaftler in Deutschland und in der Welt am Thema forschen?

Stefan Rahmstorf betreibt ein Blog, Die Klimalounge. Und dort hat er im September 2018 ein Ranking der besten Klimaforscher Deutschlands vorgestellt. Seinen Beitrag betitelte der Potsdamer mit “Wie erkennt man echte Klimaexperten?“. Wenig verwunderlich erzielte Rahmstorf selber einen Treppchenplatz in der Rangliste, sonst hätte er das Ergebnis sicher nicht im Blog erwähnt.

 

Quelle: Klimalounge, Stefan Rahmstorf.

 

Führender in der Liste ist der ehemalige Chef von Rahmstorf, Hans Joachim Schellnhuber. Der veröffentlicht gerne in PNAS, auch weil man da seine Gutachter selber auswählen kann (siehe “Gutachtersystem unterhöhlt: Hans-Joachim Schellnhuber wählt die Prüfer einfach selber aus“). Der zweitplatzierte Wolfgang Lucht ist PIK-Regenwaldforscher, zum Glück ohne große Alarmagenda. Rahmstorf an Nummer drei fällt regelmäßig durch umstrittene Arbeiten auf, deren Inhalt etwas später von Fachkollegen in Frage gestellt wird (z.B. hier und hier). Gerald Haug an vierter Stelle ist solider Paläoklimatologe und ist seit längerer Zeit nicht mehr aktivistisch in Erscheinung getreten.

Latif an Nummer 5 ist lupenreiner Aktivist. Hat neben seinen lukrativen Klimavortragsreisen sicher nicht mehr allzuviel Zeit für eigene Forschung. Jochem Marotzke an Nummer sechs befindet sich möglicherweise in einer Umdenkphase. Die Modellierer hatten jahrelang behauptet, bei den Modellen fehlten nur noch die i-Tüpfelchen, wobei immer klarer wird, dass dies nicht der Realtität entspricht. Siehe “Klimamodellierer Jochem Marotzke: Mehr Zeit zur Dekarbonisierung, frühere Klimamodelle waren zu empfindlich“.

Siehe auch Beitrag von Michael Krueger im ScienceSkepticalBlog: “Prof. Schellnhuber & Prof. Rahmstorf: Wenn „Klimaexperten“ von Atmosphärenphysik keine Ahnung haben … “.

————————

Die Prognose von Weltuntergangsszenarien hat die Menschheit schon immer fasziniert. Angst ist ein etabliertes Machtinstrument und als Verkünder der schlechten Botschaft ist einem die ungeteilte Aufmerksamkeit der Öffentlichkeit gewiss. Mittlerweile gibt es eine Vielzahl von klimaalarmistischen Online-Tools zur Zukunftsvorhersage. Dort kann man virtuell Küstenebenen fluten und Ackerflächen in der Sommerhitze verbrennen lassen. Gruselig. Allen Prognosen gemein ist, dass sie nicht ausreichend kalibriert und in der Klimageschichte verwurzelt sind. Der berücksichtigte Zeitraum reicht gerade anderthalb Jahrhunderte zurück, also die Endphase der Kleinen Eiszeit. Das ist so, als wenn man den zukünftigen Streusalzbedarf am Verbrauchstrend der Monate Januar bis September festmacht. Solider wäre eine mehrjährige Analyse, übersetzt in die Welt des Klimawandels sprechen wir von 2000 Jahren.

Physics Today brachte am 1. August 2018 eine solche Fallstudie, in der die enorme natürliche Dynamik des Klimasystems deutlich wird. Während der Mittelalterlichen Wärmeperiode wurde der nordamerikanische Westen von einer unheimlichen Dürreserie heimgesucht (800-1500 n. Chr.):

Four ways we know pre-Columbian America was plagued by megadroughts

Tree rings tell much but not all of the story of decades-long dry spells that transformed terrain and disrupted civilizations.

 In the August issue of Physics Today, climate scientists Toby Ault and Scott St. George share a pair of startling research findings. Between roughly 800 and 1500 CE, the American West suffered a succession of decades-long droughts, much longer than anything we’ve endured in modern history. And statistical models suggest that, as the climate warms, such megadroughts are increasingly likely to return.

How can scientists be so sure about the duration and extent of droughts that happened long before the era of instrument-based precipitation records? As Ault and St. George explain, the annual growth rings of ancient trees contain a rich paleoclimatic record of precipitation and soil moisture patterns. The width of a tree ring gives clues as to how well nourished the tree was in a given year.

Weiterlesen auf Physics Today

 

David und Christian haben keine Ahnung vom Klimawandel

Im Bundestag gab es kürzlich eine Anhörung zum Klimawandel. Auf Seiten des Klimaalarmismus trat der PIK’ler Anders Levermann an, während die klimaskeptische Seite durch Nir Shaviv vertreten wurde. Highlight war sicher die verbale Entgleisung Levermanns, der Shavivs Argumente pauschal als “Quatsch” bezeichnete, ohne auf die Argumente fachlich näher einzugehen. Nur weil man vielleicht unterschiedliche wissenschaftliche Ansichten vertritt, rechtfertigt dies noch lange nicht unprofessionell und unkollegiales Verhalten, zudem es sich dazu noch um einen ausländischen Kollegen handelt, dem eine faire Behandlung zustehen sollte. Das unerklärliche Verhalten von Levermann ist ein deutliches Zeichen dafür, dass die Nervosität auf der Alarmseite immer weiter steigt. Wie lange ist die mediale Lufthoheit noch zu verteidigen?

——————–

Realsatire am 3. Dezember 2018 auf jetzt.de:

David und Christian hatten keine Ahnung vom Klimawandel
Also haben sie ein Buch geschrieben, in dem sie ihn uns allen erklären.

Eine schöne Beschreibung des Zustands in der Klimadebatte. Fachfremde erklären der Welt den Klimawandel. Weshalb mit Ausbildung, Erfahrung und Wissen belasten, wenn man schwierige naturwissenschaftliche Zusammenhänge auch salopp und sinnfrei zusammenpinseln kann. Die Wirkung ist vermutlich sogar noch stärker, als die Wissensvermittlung und Aufklärung durch Fachleute. Ein gefährliches Spiel auf Kosten der Wahrheit.

Und were steckt hinter dem Projekt? Der Südkurier verrät es: Die Einflüsterer Schellnhuber & Rahmstorf:

Rund 100 Wissenschaftler, darunter Klimawandel-Ikonen wie der Direktor des Potsdam-Instituts für Klimafolgenforschung, Professor Joachim Schellnhuber, oder Klimaforscher Professor Stefan Rahmstorf, berieten und begleiteten die Studierenden bei ihrem Schreibprozess.

——————–

Spektrum.de am 20. Oktober 2018:

Wie Wälder das Wetter beeinflussen

Weltweit werden riesige Flächen abgeholzt, aber auch aufgeforstet. Und das beeinflusst das Klima und Wetter noch tausende Kilometer entfernt.

[...] Swann untersucht nun die Auswirkungen von Waldveränderungen auf verschiedene Größenordnungen. 2016 berichtete sie, dass die Zerstörung von Wäldern im westlichen Nordamerika die Wälder im östlichen Südamerika kräftiger wachsen ließ und gleichzeitig das Wachstum in Europa reduzierte. Und in einer im Mai 2018 veröffentlichten Studie stellte sie die Frage, wie sich Waldsterben in Teilen der USA auf Wälder an anderer Stelle im Land auswirken würden. In ihren Modellen ließ sie Wälder in 13 stark bewaldeten Regionen absterben, die die National Science Foundation als unterschiedliche Ökosysteme identifiziert hatte. Die Ergebnisse waren dramatisch. Als sie Bäume im pazifischen Südwesten vernichtete, litten die Wälder im Mittleren Westen und Osten der USA. In den letzten Jahren hat der pazifische Südwesten in der Tat schätzungsweise 100 Millionen Bäume verloren, vor allem durch Dürren und Insektenplagen.

Aber Auswirkungen des Waldsterbens können auch positiv sein. In Swanns Studie half das Entfernen von Bäumen an der Atlantikküste der USA den Wäldern andernorts, indem es die Sommer in diesen Regionen kühler oder feuchter machte. Swann betont, dass dies nicht bedeutet, dass Menschen Wälder abholzen sollten, da sie unzählige weitere Vorteile bieten, etwa Kohlenstoffspeicherung, Lebensraum für Wildtiere und Wasserspeicherung. Doch sie merkt an, dass Umweltgruppen oft Bäume als Lösung für den Klimawandel pflanzen, ohne darüber nachzudenken, ob diese Wälder an anderer Stelle schädigen könnten – oder den Planeten durch geringere Reflexion von Sonnenstrahlung erwärmen. [...]

Ganzen Artikel aiuf Spektrum.de lesen.

 

Nicht falsifizierbare Klimakatastrophe: Ob heiß, ob kalt – stets ist es die Klimaerwärmung

Der mitteleuropäische Hitzesommer 2018 war ein gefundenes Fressen für die Anhänger der Kimakatastrophe. Die Medien überschlugen sich in Sensationsmeldungen und sahen ganz eindeutig den Klimawandel am Werk. Und dann kam der Winter. In den USA gab es dieses Jahr (2018) eines der kälteste Thanksgiving-Feste der letzten 100 Jahre. Das passte dem PIK gar nicht. Schnell gab es eine Pressemitteilung heraus (22.11.2018), dass die Kältewelle ja ebenfalls ein Resultat der Klimaerwärmung sei:

Winterliche Wetterextreme in den USA und Europa: Riesige durcheinandergewirbelte Luftströme in der Stratosphäre
In den USA bringen arktische Luftmassen in diesen Tagen über Thanksgiving einen Kälteeinbruch, es werden eisige Temperaturen und kalte Winde vorhergesagt. Treiber für solche Winterwetterextreme ist häufig der stratosphärische Polarwirbel, ein Band sich schnell bewegender Winde 30 Kilometer über dem Boden. Im Winter, wenn der Polarwirbel durch nach oben wehende Luftmassen gestört wird, kann das zu Kälteeinbrüchen über dem Nordosten Amerikas oder Eurasien führen, wie eine neue Studie jetzt zeigt. Und so paradox es auch erscheinen mag, der Klimawandel könnte die komplexe Dynamik in der Atmosphäre weiter stören – und uns so nicht nur mehr heiße Extreme im Sommer, sondern möglicherweise auch Kälteeinbrüche im Winter bringen.

Weiterlesen.

Ob heiß, ob kalt – stets soll es die Klimaerwärmung sein. Die verrückte Welt des Klimaalarmismus. Folgt man dieser Logik, gibt es keine einzige Wetterlage, die das Konzept widerlegen könnte. Das Modell der Klimakatastrophe ist damit nicht falsifizierbar, ganz egal welches Wetter herrscht. Damit wird zwar mit einem wichtigen Grundatz der Wissenschaft gebrochen. Aber um das Wohlergehen der Menschheit zu sichern, müssen halt auch wissenschaftliche Opfer gebracht werden. Die autokratische Klimaherrschaft bringt tolle Blüten hervor…

———————

Weihnachten steht vor der Tür. Haben Sie schon alle Geschenke? Josh hat einen tollen antialarmistischen Klimakalender erstellt, den Sie für 17,50 GBP plus Porto bei ihm bestellen können.

 

Quittung für Klimaalarm: Mehrere Länder verweigern kürzlichem IPCC-Bericht die Anerkennung

Der IPCC ist dafür bekannt, abweichende Meinungen zu ignorieren. Aufgrund der politischen Kräfteverhältnisse fuhr der Weltklimarat bisher damit gut. Auf der COP24 UN-Klimakonerenz in Katowice beginnt die IPCC-Übermacht jedoch erste Risse zu bekommen. Die USA, Russland, Saudi Arabien und Kuwait haben sich geweigert, die dramatisierenden Schlussfolgerungen des kürzlichen IPCC Berichts zum 1,5-Gradziel in einer gemeinsamen COP24-Erklärung anzuerkennen. Gemäß den UN-Regularieren bleibt der IPCC-Bericht damit unerwähnt. Aktivisten und am Bericht beteiligte Autoren zeigten sich entsetzt. Letztendlich ist dies aber eine logische Entwicklung, wenn Kritiker bei der Berichtserstellung systematisch ausgeschlossen werden und auch ihre Gutachterhinweise vollständig ignoriert werden.

Der Krug geht so lange zum Brunnen, bis er bricht. Im Februar 2019 wird es nochmal spannend, wenn der IPCC die detaillierten Gutachterkommentare mit den Antworten der IPCC-Berichtsautoren veröffentlichen will. Mittlerweile präsentiert der IPCC seine Webseite in einem neuen Layout. Dabei scheinen dann auch die Gutachterkommentare zu den früheren Berichten “verloren” gegangen zu sein, wie ein Blick in den AR5 von 2013 zeigt. Verschämt bietet man auch noch die alte Version der Webseite als “Archivversion” an, wo die Reviewkommentare zum Glück noch vorhanden sind.

Der kürzliche Eklat in Katowice sollte Anlass auf eine Kurskorrektur des IPCC sein. Die IPCC-Vertreter der harten, rechten Klimalinie sollten ihren konfrontativen Kurs überdenken und die ihnen entgegengebrachte Kritik annehmen. Wo sind die Konferenzen und Workshops auf denen die Gegensätze der Klimadebatte öffentlich und ergebnisoffen diskutiert werden? Wann hat das stumpfe Skeptikermobbing endlich ein Ende, so dass endlich ein fruchtbarer wissenschaftlicher Dialog einsetzen kann? Ein wenig erinnert die Situation an die letzten Tage der DDR, in denen sich das Regime krampfhaft an der Macht hält und den Dialog mit dem Volk schon lange aufgegeben hat.

Abseits der alarmistischen Medienbeiträge zum 1,5-Grad-IPCC-Bericht, enthält der Bericht hochinteressante Aussagen. Klammheimlich hat der neue Bericht die “noch erlaubte” Ausstoßmenge bis zur Überschreitung der 1,5°C-Marke deutlich erhöht. Statt bisher 400 Gigtonnen dürfen nun mehr als das doppelte an CO2 emittiert werden. Zitat aus dem IPCC 1,5°C-Bericht (via Nic Lewis auf Climate Etc.):

This assessment finds a larger remaining budget from the 2006-2015 base period than the 1.5°C and 2°C remaining budgets inferred from AR5 from the start of 2011, [which were] approximately 1000 GtCO2 for the 2°C (66% of model simulations) and approximately 400 GtCO2 for the 1.5°C budget (66% of model simulations). [xi] In contrast, this assessment finds approximately 1600 GtCO2 for the 2°C (66th TCRE percentile) and approximately 860 GtCO2 for the 1.5°C budget (66th TCRE percentile) from 2011.

Hatten Sie das schon gewusst? In den Pressemitteilungen zum Bericht wird dies gerne verschwiegen. Bereits 2010 hatte eine Untersuchungkommission festgestellt, dass der IPCC dazu neigt, die Klimagefahr zu überzeichnen. Selbst Al Gore musste jetzt einräumen, dass der IPCC bewusst dramatisierende Sprache verwendet, um in der Öffentlichkeit Aufmerksamkeit zu erheischen. Vielleicht entschieden sich im Herbst 2018 auch deshalb viele britische Zeitungen, den Bericht nicht auf der Titelseite ihrer Ausgaben zu erwähnen. Prominente Forscher, wie der amerikanische Wissenschaftsastronaut Harrison Schmitt, sprechen sich entschieden gegen den Klimaalarm des IPCC aus. Wundert es, dass drei der noch vier lebenden NASA-Astronauten, die den Mond betraten, Klimaskeptiker sind?

Und schließlich noch dies: Ein indisches Gericht hat im September 2018 entschieden, dass sich der ehemalige IPCC-Chef Rajendra Pachauri wegen des Vorwurfs sexueller Belästigung von Mitarbeitern vor Gericht verantworten muss. Die Vorgänge werfen nicht nur auf Pachauri, sondern auc auf den IPCC ein schlechtes Licht.

 

Probleme beim Klimaproblem

Von Eike Roth

KURZFASSUNG
Weltweit sind Ziele für den „Klimaschutz“ festgelegt worden, insbesondere im Pariser Klima-Abkommen. In diesem Beitrag wird untersucht, wie weit diese Ziele sachlich begründet sind und wie sie optimiert werden können. Der Verlauf der global gemittelten Temperatur wird mit dem der CO2-Konzentration verglichen, Übereinstimmung und Unterschiede werden herausgearbeitet und es wird versucht, diese zu begründen und zu erklären. Die Zuverlässigkeit und Aussagekraft von Klimamodellen wird untersucht und bewertet. Mögliche Beiträge anderer Ursachen zur Klimaentwicklung werden diskutiert. Die in Deutschland beschlossenen Maßnahmen zum Klimaschutz werden hinsichtlich ihrer Erfolgschancen überprüft. Als Ergebnis werden viele offene Fragen identifiziert.

ABSTRACT
Goals for climate protection have been established globally, particularly in the Paris Climate Agreement. This paper analyzes the reasons behind and how to optimize the goals. The development of global temperatures is checked against the concentration of carbon dioxide, matches and discrepancies are identified and reasons and explanations are discussed. Reliability and validity of climate models are examined and assessed. Possible contributions of other causations to global warming are examined. Climate protection measures Germany has decided on are checked regarding their chances of success. As a result, a lot of open questions are identified.

Über den Autor:
Eike Roth, Jahrgang 1941, studierte Experimentalphysik an der Uni Wien, Promotion 1967. Berufliche Tätigkeit im Kernenergiegebiet, zuletzt als Technischer Leiter des Kernkraftwerkes Mülheim Kärlich in der Nähe von Bonn. 2001 pensioniert. Seit 40 Jahren intensive Beschäftigung mit Energie- und Umweltfragen und dem Klimaproblem, einschlägige Vorlesungen, Fachveröffentlichungen und populärwissenschaftliche Bücher.

————————

Vorbemerkungen

Beim Klima ist die Welt gespaltener denn je. Auf der einen Seite werden die Warnungen vor anthropogenen Klimaänderungen immer drastischer. Wir müssten sofort und durchgreifend handeln, auch wenn das schwer fällt. Darüber sei sich die Wissenschaft einig. Wir müssten unsere Anstrengungen sogar verdreifachen. Auf der anderen Seite gibt es immer mehr Skepsis. Trump hat den Austritt der USA aus dem Pariser Klimaabkommen beschlossen, der neu gewählte Präsident Bolsonaro in Brasilien hat ihn angekündigt und andere Länder könnten folgen. Fast überall wächst der Widerstand gegen teure Klimaschutzmaßnahmen. In Frankreich hat er bereits zu gewalttätigen Protesten geführt. Viele Menschen sehen andere Probleme als wichtiger an.

In der veröffentlichten Meinung wird die Einigkeit der Wissenschaft immer wieder betont. Hält das einer Überprüfung stand? In diesem Beitrag möchte ich auf 4 Problembereiche näher eingehen, bei denen meiner Meinung nach noch ganz erheblicher Diskussionsbedarf besteht. Vielleicht könnte die Klärung dieser Punkte die Diskrepanz zwischen den beiden Seiten verkleinern.

  1. Klimaoptimum: Wo liegt dieses tatsächlich? Wie weit dürfen wir es überschreiten?
  2. Gegenrechnung: CO2 ist auch nützlich (erhöht das Pflanzenwachstum) und zu viel Klimaschutz ist auch schädlich (erschwert die Lösung anderer Probleme). Wo liegt das Gesamt-Optimum?
  3. Klimamodelle: Wie gut sind die und wie belastbar sind ihre Ergebnisse?
  4. Gegenmaßnahmen: Wie wirksam sind die beschlossenen? Können sie überhaupt Erfolg haben?

 

Als Ergebnis wird sich zeigen, dass tatsächlich vielfach noch weitere Überlegungen und Forschungen notwendig sind, um dann mit mehr Klarheit zielgerichtet die richtigen Entscheidungen treffen zu können. Anderenfalls sind mit hoher Wahrscheinlichkeit Misserfolge zu erwarten. Allem Anschein nach befinden wir uns auf geradem Weg dorthin.

 

1        Wo liegt das Klimaoptimum tatsächlich?

Klimageschichte

„Klima“ ist der langjährige (meist 30 Jahre) Mittelwert von Wetterdaten. Sein Wesensmerkmal ist der Wandel. Geändert hat es sich schon immer, es ändert sich jetzt und es wird sich auch in der Zukunft ändern. Bekannt sind vor allem die Wechsel zwischen Warm- und Eiszeiten in etwa 100000-jährigem Rhythmus (wobei – wenn man die Geschichte fortschreiben darf – der nächste Wechsel langsam fällig wird, denn die Warmzeiten waren immer viel kürzer als die Kaltzeiten).

Aber auch in der jetzigen Warmzeit gab es erhebliche Klimaschwankungen. Abb. 1 zeigt die Temperaturentwicklung. Man sieht insbesondere viererlei:

  • Erstens ein dauerndes Auf und Ab.
  • Zweitens nichts Besonderes am Ende des Betrachtungszeitraumes (hierzu später mehr mit verbesserter Auflösung).
  • Drittens in den letzten ca. 4000 Jahren einen deutlich ausgeprägten Zyklus mit einer Warmperiode etwa alle 1000 Jahre ohne insgesamt steigende oder sinkende Tendenz.
  • Viertens noch etwas wärmere Phasen vor ca. 4500 und 7000 Jahren.

 

Als Ursache für diese Veränderungen kommen wohl nur Schwankungen der Intensität der Sonne und der Parameter der Erdumlaufbahn um die Sonne in Frage, unterstützt vielleicht noch durch langfristige Änderungen der Meeresströmungen und der Vulkanaktivität. Der Mensch hatte in dieser Zeit sicher noch keinen Einfluss auf das (globale) Klima.

 

Abb. 1.: Entwicklung der global und jahreszeitlich gemittelten, bodennahen Lufttemperatur der Erde seit dem Ende der letzten Eiszeit. Quelle: Fritz Vahrenholt, Sebastian Lüning: „Die Kalte Sonne“, ISBN 978-3-455-50250-3, nach Kehl, H. (2008) „Das zyklische Auftreten von Optima und Pessima im Holozän“, http://lv-twk.oekosys.tu-berlin.de/project/lv-twk/002-holozaene-optima-und-pessima.htm.

 

Prinzipiell ist dieser Temperaturverlauf seit langem bekannt. Aus der Geschichte weiß  man auch, dass es der Menschheit insgesamt in den warmen Zeiten immer besser gegangen ist als in den kalten. So hat z. B.

  • das „Römische Klimaoptimum“ die kulturelle Blüte und den Aufstieg des Römischen Weltreiches begünstigt
  • die Kaltzeit danach vermutlich wesentlich die Völkerwanderung mit verursacht und dadurch zum Untergang dieses Reiches beigetragen
  • das mittelalterliche Klimaoptimum einen Aufschwung in Europa, die Besiedelung von Island und Grönland und die ersten Fahrten nach Amerika (als “Vinland“ bezeichnet) mit sich gebracht und
  • die „Kleine Eiszeit“ danach zu weit verbreitetem Hunger und Elend in Europa (und damit ganz wesentlich zur Auswanderung nach Amerika) beigetragen.

 

Folgerichtig hat man die wärmeren Zeiten immer schon als „Klimaoptimum“ bezeichnet. Dabei wissen wir gar nicht, ob diese Bezeichnung überhaupt berechtigt ist. Es waren zwar die warmen Zeiten immer besser als die kalten, ob aber „noch etwas wärmere Zeiten“ nicht „noch bessere Zeiten“ gewesen wären, wissen wir nicht, da fehlt uns ganz einfach die Erfahrung. Bei Rückschlüssen aus den beiden „holozänen Klimaoptima“ (Abb. 1) mit tatsächlich höheren Temperaturen ist Vorsicht geboten, weil die Informationen aus so alter Zeit spärlich sind. Aber immerhin hatte sich die Menschheit damals gewaltig weiterentwickelt und die Sahara war damals fruchtbares Grünland. „Noch besser“ bei „noch wärmer“ ist daher keineswegs abwegig.

Zwischenergebnis: Wo das Klimaoptimum liegt, wissen wir nicht. In den 400 Jahren seit dem Höhepunkt der Kleinen Eiszeit ist es zweifelsfrei wärmer geworden. Der Rückgang der Gletscher in den letzten 150 Jahren macht das für Jedermann ersichtlich. Aber die Erfahrung sagt uns, dass das gar nicht so schlecht ist. Der Menschheit insgesamt ist es immer umso besser gegangen, je wärmer es war. Ob das auch über das heutige Niveau hinaus noch so weiter geht, wissen wir nicht. Wir wissen auch nicht, wie rasch es bei Überschreiten des Optimums wieder schlechter wird. Hier besteht dringender Forschungsbedarf. (weiterlesen …)