Klimadiktatur in Vorbereitung: Umweltbundesamt und PIK-Institut bereiten die Große Transformation vor

Alexander Wallasch am 7. Juni 2019 auf Tichys Einblick:

Propaganda XXL:„Klimadiktatur“ aus Umweltbundesamt: Journalismus für die große Transformation

Der Journalist nach dem Geschmack von Umweltbundesamt, also Regierung, also Kanzlerin hat die Aufgabe, Wirklichkeit mit Geschichten herzustellen: Claas Relotius, der Journalist von morgen.

Die Süddeutsche Zeitung nannte das Umweltbundesamt „die größte und mächtigste Umweltbehörde Europas“. Für den Spiegel-Journalisten Jan Fleischhauer ist dieses Amt mit seinen über 1.500 Mitarbeitern allerdings noch etwas ganz anderes, nämlich eine „durch und durch politisierten Behörde“.

Für Fleischhauer ist dieses aufgeblasene Amt so etwas, wie ein grün-ideologischer Hort der Faktenverdreher, wenn er weiter schreibt, das Umweltbundesamt versuche die „Öffentlichkeit mit Scheingenauigkeiten zu erschrecken“. Und der Redakteur erinnert daran, dass es diese Behörde war, die im Stile von antidemokratischen Ländern wie Aserbaidschan mit der Pressefreiheit umgehe, wenn Journalisten mit abweichender Meinung als Lügner gebrandmarkt werden („Leute, denen man nicht glauben darf“).

Und da wird es noch einmal interessant, wenn diese ätzende Kritik aus 2018 heute von besonderer Aktualität ist, wenn die Bundeskanzlerin laut Bild gerade in einer Fraktionssitzung vehement dazu aufgefordert haben soll, Bestehendes aufzulösen und zu zerstören (disruptive Veränderungen seien zu beschließen) um die Sache mit der Umwelt voranzubringen. Alles andere wäre „Pillepalle“.

Unbedingt weiterlesen auf Tichys Einblick

Es gibt auch eine Fortsetzung zum Artikel, wiederum auf Tichys Einblick (Teil 2):

„Klimadiktatur“ aus Umweltbundesamt: Journalismus für die große Transformation Teil II

Rechtfertigt die Annahme einer nahenden Klimakatastrophe die Aussetzung der Demokratie, die Gleichschaltung der Presse oder die Verfolgung Andersdenkender? Wann werden Notstandsgesetze notwendig, einen drohenden Weltuntergang abzuwenden?

Im ersten Teil zu diesem Artikel hatte TE Vorgänge im Umweltbundesamt recherchiert, die Anlass zur großer Besorgnis geben. In Teil I aufgezeigt werden konnte, dass das Amt als zentrale Umweltbehörde des Bundesumweltministeriums seit Jahr und Tag Pläne verfolgt und vorantreibt, die darauf abzielen, auf dem Rücken einer grassierenden Weltuntergangsstimmung rund um eine behauptete nahende Klimaapokalypse einen Frontalangriff auf den freien Journalismus, auf eine freie Presse zu führen, welche das Grundgesetz explizit unter seinen Schutz stellt.

TE wird nun hier im Weiteren aufzeigen, dass solche besorgniserregenden antidemokratischen Bestrebungen der Bundesregierung keineswegs Ausrutscher sind, sondern im Gegenteil schon über Jahren aktiv betrieben werden und im Umweltbundesamt eine ihrer aktivsten Einssatzzentralen etabliert haben.

Vorab aber zwei grundsätzliche Fragen: Rechtfertigt die Annahme einer nahenden Klimakatastrophe die Aussetzung der Demokratie, die Gleichschaltung der Presse oder gar die Verfolgung Andersdenkender? Wann werden Notstandsgesetze unvermeidbar – dann, wenn es gilt, einen angeblich drohenden Weltuntergang abzuwenden?

Weiterlesen auf Tichys Einblick (Teil 2)

———————————

Haben Sie sich auch schonmal gefragt, weshalb in der Presse immer die gleichen vier Klimaexperten auftreten? Rahmstorf, Latif, Schellnhuber, Levermann. Wie kann das sein? Es gibt in Deutschland hunderte von Klimawissenschaftlern, aber es preschen stets dieselben Protagonisten nach vorne und verkünden die Klimaapokalypse. Der gemäßigte Geesthachter Klimaforscher Oliver Bothe stellte auf Twitter Mitte Juni 2019 die berechtigte Frage, wie es hier zu einem Monopol kommen konnte :

I know, it’s not a competition but I really would like if PIK didn’t dominate the visible discussion/information here so much

Einer des deutschen Klimamonopolisten-Quartetts – Levermann – antwortete prompt. Sie wären einfach besser. Sie arbeiten hart. Sie haben bessere Themen. Und deshalb sei es absolut gerecht, dass vor allem sie die Zukunft des Landes vorbereiten. Aber lesen Sie lieber selbst, was Levermann vom PIK schreibt:

…and (sorry to say) we have the highest ratio and absolute number of high-profile publications on each of the topics: climate physics, climate impacts and climate economics… sorry for the bragging, but it is important to state that we answer on a solid basis.

We are the smallest of the German institutes. We work very hard to provide the answer to the relevant societal questions. We do not ask for it, but industry and politics turns to us and of course we answer. It is what we are paid for.

The topics today ranged from weather extremes & ice dynamics, via agricultural impacts and river floods to the economic instruments to create a carbon-neutral EU and world. It is hard to cover this in another institute. But please: we are all on the same side. We learn from you.

So funktionieren Monopole: Das laut Levermann “kleinste Institut” dominiert mit ein paar Protagonisten die politische und öffentliche Meinungsbildung. Kein anderes Institut könne die Themen abdecken. Irgendetwas läuft hier ganz schrecklich schief…

Wie schafft es das PIK eigentlich immer in die “besten Zeitschriften”? Zum einen sind da die Seilschaften. Man hilft sich gegenseitig aus, drückt Manuskripte im Weltrekordtempo durch den Begutachtungsprozess, nut damit die Veröffentlichung noch rechtzeitig für eine Klimakonferenz oder einen IPCC-Bericht rauskommen kann. Und dann ist da noch diese Merkwprdigkeit:

Mysteriöse Häufung von Schellnhubers Veröffentlichungen in Zeitschrift der National Academy of Science: Wussten Sie, dass Mitglieder ihre PNAS-Gutachter selber auswählen dürfen?

Gutachtersystem unterhöhlt: Hans-Joachim Schellnhuber wählt die Prüfer einfach selber aus

 

Nie haben die Massen nach Wahrheit gedürstet

Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.

Gustav Le Bon (1895)

Sonnenmagnetfeld zehn Mal stärker als gedacht

Pressemitteilung der Queen’s University Belfast vom 29. März 2019:

———————-

Researchers find that The Sun’s magnetic field is ten times stronger than previously believed

The Sun’s magnetic field is ten times stronger than previously believed, new research from Queen’s University Belfast and Aberystwyth University has revealed.

The new finding was discovered by Dr David Kuridze, Research Fellow at Aberystwyth University. Dr Kuridze began the research when he was based at Queen’s University Belfast and completed it when he moved to Aberystwyth University in 2017. Dr Kuridze is a leading authority on the use of ground-based telescopes to study the Sun’s corona, the ring of bright light visible during a total eclipse. Working from the Swedish 1-m Solar Telescope at Roque de los Muchachos Observatory, La Palma in the Canary Islands, Dr Kuridze studied a particularly strong solar flare which erupted near the surface of the Sun on 10 September 2017.

A combination of favourable conditions and an element of luck enabled the team to determine the strength of the flare’s magnetic field with unprecedented accuracy. The researchers believe the findings have the potential to change our understanding of the processes that happen in the Sun’s immediate atmosphere. Speaking about the find, Dr Kuridze said: “Everything that happens in the Sun’s outer atmosphere is dominated by the magnetic field, but we have very few measurements of its strength and spatial characteristics.

“These are critical parameters, the most important for the physics of the solar corona. It is a little like trying to understand the Earth’s climate without being able to measure its temperature at various geographical locations.”

“This is the first time we have been able to measure accurately the magnetic field of the coronal loops, the building blocks of the Sun’s magnetic corona, which such a level of accuracy.”

Measuring 1,400,000 kilometres across (109 times larger than Earth) and 150,000,000 kilometres from Earth, the Sun’s corona extends millions of kilometres above the surface. Solar flares appear as bright flashes and occur when magnetic energy that has built up in the solar atmosphere is suddenly released. Until now, successful measurement of the magnetic field has been hindered by the weakness of the signal from the Sun’s atmosphere that reaches Earth and caries information about the magnetic field, and limitations in the instrumentation available.

The magnetic fields reported in this study are similar to those of a typical fridge magnet and around 100 times weaker than the magnetic field encountered in an MRI scanner. However, they are still responsible for the confinement of the solar plasma, which make up solar flares, as far as 20,000 km above the Sun’s surface. Over a 10-day period in September 2017, Dr Kuridze studied an active area on the Sun’s surface which the team knew to be particularly volatile.

However, the telescope used can only focus on 1% of the Sun’s surface at any given time. As luck would have it, Dr Kuridze was focused on exactly the right area and at the right time when the solar flare erupted. These solar flares can lead to storms which, if they hit Earth, form the northern lights – the Aurora Borealis. They can also disrupt communications satellites and GPS systems, as proved to be the case on this occasion in September 2017. Professor Michail Mathioudakis from the School of Mathematics and Physics, Queen’s University Belfast, who also worked on the project, added: “This is a unique set of observations that, for the first time, provide a detailed map of the magnetic field in coronal loops.

“This highly rewarding result was achieved due to the dedication and perseverance of our early career scientists who planned and executed the observations. The methodology used in this work and the result itself, will open new avenues in the study of the solar corona.”

 

Trockensommer wie 2018 waren im Mittelalter in Norddeutschland keine Seltenheit

Pressemitteilung der Universität Greifswald vom 22. Februar 2019:

——————

Trockensommer wie 2018 waren im Mittelalter keine Seltenheit

Trockene Sommer waren vor 1000 Jahren keine Seltenheit. Forschern der Arbeitsgruppe „Landschaftsökologie und Ökosystemdynamik“ der Universität Greifswald ist es nun gelungen, 1000 Jahre Sommertrockenheit für den norddeutschen Raum zu rekonstruieren. Der Artikel “Removing the no-analogue bias in modern accelerated tree growth leads to stronger medieval drought” ist im Februar 2019 in der Fachzeitschrift Scientific Reports erschienen.

Im Rahmen des aktuellen Verbundforschungsprojektes BaltRap (The Baltic Sea and its Southern Lowlands: Proxy-Environment interactions in times of rapid changes) untersuchten die Forscher Jahrringkurven von fast 2000 lebenden Buchen – unter anderem auch aus dem Universitätswald Elisenhain – und archäologischen Bauhölzern aus dem Jahre 1000. Die darin enthaltenen Jahrringe sind ein einmaliges Archiv früherer Umweltbedingungen. Sind die klimatischen Bedingungen gut, sind sie breit, in ungünstigen Jahren wie etwa dem Trockenjahr 2018 fällt das Wachstum gering aus. Diesen Zusammenhang macht sich die Dendroklimatologie zunutze, um vergangene Umweltbedingungen zu rekonstruieren.

Bäume wachsen heute deutlich schneller als in der Vergangenheit. Dies hängt unter anderem mit dem Stickstoff aus Landwirtschaft, Industrie und Verkehr zusammen. Dieser gelangt über Luft und Regen in die Wälder. Diese Stickstoffdüngung, auch Eutrophierung genannt, führt zu deutlich höheren Wachstumsraten in unseren Wäldern, welche traditionell stickstofflimitiert sind. Auch höhere CO2-Konzentrationen in der Luft begünstigen das Wachstum. Um die gleiche Menge Kohlenstoff aufzunehmen, müssen heutzutage die Bäume ihre Spaltöffnungen deutlich kürzer öffnen und verdunsten somit weniger Wasser. Beides führt – genügend Wasser vorausgesetzt – zu mehr Wachstum in den Wäldern. „Wir sind nicht die ersten, die diesen Trend bestätigen können“, sagt Dr. Tobias Scharnweber, einer der Autoren des Artikels. „Neu ist jedoch, dass wir mithilfe einer eigens für dieses Vorhaben entwickelten Datenmethode diese Wachstumsraten in unserer Rekonstruktion herausrechnen konnten. Dadurch konnten wir zeigen, dass in unserer Region zu Zeiten des mittelalterlichen Klimaoptimums, also vor ca. 1000 Jahren, die Niederschläge im Sommer im Schnitt deutlich niedriger waren als bisher angenommen. Vielleicht waren also Jahrhundertsommer, wie wir 2018 erlebt haben, damals gar nicht so selten.“

Ergebnisse wie diese helfen, den aktuellen, anthropogen verursachten Klimawandel in eine langfristige Perspektive „natürlicher“ Schwankungen zu setzen. Mit ihrer neuen Methode zeigen die Greifswalder Wissenschaftler, wie wichtig es ist, in jahrringbasierten Klimarekonstruktionen die heutigen, im Vergleich zur vorindustriellen Zeit deutlich veränderten Wachstumsbedingungen, statistisch zu berücksichtigen.

Paper: Scharnweber et al. 2019

 

Mauna Loa – der Heilige Gral der Klimawissenschaft

Von Uli Weber

Auch sogenannte Klimarealisten, wie beispielsweise der Autor dieses Artikels, nehmen inzwischen manche Klimalegenden als völlig selbstverständlich hin. Dabei hat allein schon der Begriff „CO2-Treibhauseffekt“ durch die aktive CO2-Düngung in Treibhäusern zur Wachstumsbeschleunigung einer vegetarischen Ernährungsgrundlage inzwischen eine ganz neue Bedeutung erhalten. Aber wie das Leben so spielt, da hatte der Autor sich gerade Gedanken über einen erneuten Versuch von sogenannten Klimawissenschaftlern gemacht, der geängstigten Öffentlichkeit einen „natürlichen“ CO2-Paläoklima-Antrieb einreden zu wollen, und dann trifft er zufällig einen alten Kollegen.

Dieser Kollege klagte nun ausgerechnet darüber, dass es originale und unbehandelte Langzeit-Messreihen des atmosphärischen CO2-Gehaltes nur vom Mauna Loa Observatorium gibt. Wenn man „Messung des atmosphärischen CO2-Gehaltes“ in Google eingibt, erhält man ungefähr 27.200 Ergebnisse in 0,41 Sekunden – und tatsächlich geht da zunächst gar nichts ohne die Mauna Loa CO2-Daten. Denn offenbar wird zwar auch anderswo der atmosphärische CO2-Gehalt gemessen, aber veröffentlicht werden meist nur Auswertungen, und die werden dann wiederum im direkten Vergleich zu den Mauna Loa Werten dargestellt, wie beispielsweise in der folgenden Abbildung vom Umweltbundesamt:

 

Abbildung Umweltbundesamt: „Kohlendioxid-Konzentration in der Atmosphäre (Monatsmittel)“

 

Aber schließlich findet man nach einiger Internetsuche doch noch ein paar weitere offizielle CO2-Meßstationen:

 

Abbildung: GAW Global Stations der World Meteorological Organization

 

Ein Klick im Kästchen “Focal Areas” auf “Greenhouse Gases“ führt von dort auf eine offizielle WMO-Webseite, von der aus zwar auf das „Greenhouse Gas Bulletin“ zugegriffen werden kann, deren weiterführende Links zu den betreffenden CO2-Daten aber im Nirwana enden, Zitat mit diesen Links:

The data are collected and distributed by the World Data Centre for Greenhouse Gases(WDCGG) at the Japan Meteorological Agency. The GAW Scientific Advisory Group for Greenhouse Gases (SAG-GHG) advises on the programme development. GAW issues the annual Greenhouse Gas Bulletin, which reports on the latest trends and atmospheric burdens of the most influential, long-lived greenhouse gases, carbon dioxide (CO2), methane (CH4), and nitrous oxide (N2O), as well as a summary of the contributions of the lesser gases.

WMO started working on a development of an Integrated Global Greenhouse Gas Information System (IG3IS) in 2013.”

Im Prinzip wird also der atmosphärische CO2-Gehalt monopolistisch vom Mauna Loa Observatorium „verwaltet“. Und obwohl dieser atmosphärische CO2-Gehalt die politische Begründung für eine geplante Dekarbonisierung unserer Welt liefert, wird ausgerechnet der Verlauf dieser atmosphärischen CO2-Konzentration als von Gott gegeben hingenommen. Aber das war nicht immer so. Der vorindustrielle atmosphärische CO2-Gehalt wurde erst durch eine Arbeit von Callendar und Kelling auf 280 ppm festgeschrieben. In der Veröffentlichung „180 Jahre atmosphärischer CO2-Gasanalyse mittels chemischer Methoden“ von Ernst-Georg Beck aus Energy & Environment 18.2/2007 wird in Abbildung 12 auf Seite 18 (hier Abbildung A) ein ganz anderer Verlauf des atmosphärischen CO2-Gehalts dargestellt. Und Jaworowski weist in einer Graphik (Abbildung B) nach, dass die von Callendar und Kelling zur historischen CO2-Bestimmungen benutzten Daten einer subjektiven Auswahl zu einem niedrigen vorindustriellen CO2-Gehalt unterzogen worden sind; die widersprechenden Messwerte  wurden dort einfach willkürlich aussortiert.

 

Abbildung: Ernst-Georg Beck „180 Jahre atmosphärischer CO2-Gasanalyse mittels chemischer Methoden“ aus Energy & Environment 18.2/2007

 

Abbildung: Jaworowski. NZCPR Research, 20 September 2008, p.20, (Quelle nicht mehr auffindbar), Die von Callendar und Kelling benutzten Werte sind eingekreist

 

Ausgerechnet der Link zu Jaworowski funktioniert leider nicht mehr. Und auf der Suche nach der Originalveröffentlichung von Jaworowski landete der Autor dann schließlich bei einem älteren EIKE-Artikel von Timothy Ball, in dem frühe CO2-Messungen mit den Mauna Loa Ergebnissen in einer Abbildung zusammengeführt worden sind.

 

Abbildung aus dem Artikel von Timothy Ball: Historischer Vergleich für den atmosphärischen CO2-Gehalt

 

Aber lassen wir Timothy Ball selbst zu Wort kommen, Zitat mit Hervorhebungen.

Bei Mauna Loa hat man Daten weggelassen, obwohl eine tägliche Variation von bis zu 600 ppm vorliegt. Beck erklärt wie Charles Keeling die Mauna Loa Werte durch die niedrigsten Tageswerte am Nachmittag begründete. Er ignorierte natürliche CO2-Quellen, eine Vorgehensweise die sich bis heute fortsetzt. Beck vermutet, daß Keeling sich entschloß eine Station auf dem 4000 m hohen Vulkan Mauna Loa zu errichten, um diese niedrigen natürlichen Quellen zu umgehen. Er schreibt: ‚Mauna Loa repräsentiert nicht den typischen CO2-Gehalt der Luft an unterschiedlichen Orten der Welt sondern ist nur typisch für diesen Vulkan in ozeanischer Umgebung auf 4000 m Höhe an diesem Breitengrad.‘ (Beck, 2008, “50 Years of Continuous Measurement of CO2 on Mauna Loa” Energy and Environment, Vol. 19, No.7.) Keelings Sohn führt die Arbeit seines Vaters  auf Mauna Loa fort und wie Beck schreibt, ‚hat das globale Monopol der Eichung aller CO2 Messungen.‘ Da Keeling Mitautor der IPCC Berichte war, akzeptierte man Mauna Loa ohne Nachfragen.“

Dieser Artikel von Timothy Ball erschien bereits am 15. Januar 2010 in deutscher Übersetzung auf EIKE und am 10. Mai 2019 hatte er dort noch einmal „nachgelegt“. Denn Wissen kann durchaus wieder verloren gehen, wenn man es nicht ständig pflegt; und man endet dann schließlich im guten Glauben des Mainstreams. Es gilt also weiterhin wachsam zu bleiben, denn nichts in der Klimawissenschaft muss tatsächlich so sein, wie es in der Öffentlichkeit dargestellt wird – auch wenn wir inzwischen selbst daran glauben mögen. Mauna Loa ist der Heilige Gral der Klimawissenschaft, aber die Grundlage für eine kritische Wissenschaft sind konkurrierende Datensätze. Man könnte also tatsächlich von einem Mauna Loa CO2-Monopol sprechen. Von daher ist es sehr zu begrüßen, wenn endlich einmal ein ganz neues Modell für den Verbleib von anthropogen erzeugtem CO2 in der Atmosphäre präsentiert wird; auch wenn der Autor gestehen muss, dieses Modell nicht verstanden zu haben…

Denn Kohlenstoffdioxid (CO2) ist gar kein „Giftgas“, wie es manchmal von einzelnen Vertretern aus Politik, Medien oder Scheinwissenschaften in der Öffentlichkeit dargestellt wird. Vielmehr sind Sonnenlicht, Wasser und CO2 als Grundlagen der Photosynthese unverzichtbare Quelle des Lebens und damit direkte oder indirekte Nahrungsgrundlage für alles Leben auf unserem Planeten. Und ausgerechnet diesem lebenswichtigen Mangelgas mit inzwischen etwa 400 ppm Anteil an der Lufthülle unseres Planeten wird jetzt der Kampf angesagt. Und während wir jetzt alle auf eine CO2-Steuer warten, werden viele Treibhäuser in unserem Lande systematisch mit CO2 „gedüngt“, um die Ernteerträge zu steigern…

Hier auf KalteSonne wurde am 24. Februar 2018 unter dem Titel „CO2-Klimasensitivität im Sinkflug: Neues aus der Fachliteratur“ gemeldet, Zitat mit Hervorhebungen:

Die CO2-Klimasensitivität ist das Maß für die Erwärmungswirkung des CO2. Eine Vielzahl von neueren Studien zeigt, dass der ursprünglich vom IPCC angenommene “beste Schätzwert” von 3,0°C Erwärmung pro CO2-Verdopplung deutlich zu hoch liegt. Im Jahr 2013 kam ein Paper von Otto et al. 2013 heraus, das 2,0°C vorschlug, ein Paukenschlag. Wir berichten regelmäßig an dieser Stelle über Neues zu diesem Thema. Heute wieder eine neue Sammlung von neuen publizierten Ergebnissen, unterschieden in die langfristige Klimasensitivität (equilibrium climate sensitivity – ECS) und die kurzfristigere, die sich noch nicht richtig vollständig aufgebuat hat (Transient Climate Response, TCR). Die üblicherweise zitierten Werte entsprechen der ECS.

ECS: Equilibrium climate sensitivity

bis zu 6°C Proistosescu & Huybers 2017, Pressemitteilung hier; ein wirklich heftiges Alarmpaper, das es wohl darauf anlegt, im 6. IPCC-Bericht zitiert zu werden und den Mittelwert aller Studien nach oben zu ziehen. Nic Lewis hat das Ganze detailliert auf Climate Audit auseinandergenommen.

3,7°C  Brown & Caldeira 2017. Auch dies wohl eher ein Ausreißer nach oben. Das gibt kräftig Fördergelder.

2,8°C Cox et al. 2018; Eingrenzung auf 2.2-3.4°C, Pressemitteilung hier. Die deutsche Presse berichtete eifrig über diese Studie: FAZ, Tagesspiegel, Spektrum

1,79°C Mauritsen & Pincus 2017, Siehe auch Beitrag im Kalte-Sonne-Blog.

1,4°C Orssengo 2018

1,3°C Spencer 2018
Szenario, dass nur 70% der Erwärmung der letzten 150 Jahre anthropogenen Ursprungs sind. Die mögliche Klimawirkung der Sonne ist in den meisten Berechnungen der Klimasensitivität gar nicht enthalten. Zum Vergleich: In unserem Buch ‘Die kalte Sonne’ stellten wir ein 1,5°C-Szenario dar. Das liegt am unteren Ende der Spannbreite des IPCC AR5-Berichts, 1,5-4,5°C.

TCR: Transient Climate Response

1,32 °C Mauritsen & Pincus 2017
Kalte-Sonne-Beitrag dazu ist
hier.

1,29°C Bosse 2017

1,10°C Christy & McNider 2017, Bericht hierzu auf WUWT.

Zum Vergleich: Der TCR Durchschnitt aller Klimamodelle im IPCC AR5-Bericht betrug 2.31 °C.

Alles deutet auf eine seismische Verschiebung im Verständnis der CO2-Klimasensitivität im gerade entstehenden 6. IPCC-Bericht hin. Der ‘beste Schätzwert’ wird sich auf jeden Fall deutlich nach unten bewegen. Das bereitet eingefleischten Klimakämpfern natürlich bereits jetzt schon Bauchschmerzen. Sie bereiten die Welt bereits auf die Veränderungen behutsam vor.“

Dieses aktuelle Verständnis der CO2-Klimasensitivität verdeutlicht die nachstehende Abbildung aus einem Memorandum von Lord Christopher Monckton, veröffentlicht am 7. Mai 2019 in deutscher Übersetzung auf EIKE:

Die Bildunterschrift lautet dort, Zitat:

Gute Nachrichten! Es gibt keinen Grund für Klima-Bedenken. Eine grundlegende Studie von Klimaforschern, welche gegenwärtig den Begutachtungsprozess bei einem führenden Klima-Journal durchläuft, beweist, dass die globale Erwärmung bei einer CO2-Verdoppelung nicht 3,35 K betragen wird, wie es die Modellsimulationen hergeben, sondern lediglich 1,15 K (Abbildung 1).“

Das „Ende der Fahnenstange“ beschreibt dann Eugen Ordowski  am 1. Mai 2019 in einem Kommentar  auf dem ScienceSkepticalBlog, Zitat:

Die Sensation — bald wird es durch alle Medien laufen: Ein Chinese hat letzte Woche den „Autobahn-Energie-Effekt“ entdeckt! Er fuhr 12 Stunden auf der Autobahn. Der Motor seines Diesel SUV`s leistete im Durchschnitt 100 kW. Dann stellte er das Auto 12 Stunden in seine Garage. Eine Berechnung der Durchschittswerte, am nächsten Tage, ergab, für 24 Stunden, eine Motorleistung von 50 kW pro Stunde! Da fiel dem Chinesen auf, mit dieser Leistung von 50 kW, hätte sein 3 Tonnen schwerer SUV niemals 200 Km/h schnell fahren können! Die Erklärung — „einfach u. logisch“ — es muß eine zusätzliche Kraft geben, die das Auto tatsächlich auf 200 km/h beschleunigte! Jetzt beginnt sicherlich bei allen „gescheiten“ Physikern die Suche nach der Ursache dieser Kraft — Resultate werden sicherlich nicht lange auf sich warten lassen.
Na, kommt uns das nicht bekannt vor? Tag/Nacht Durchschnitt der Sonnenleistung zu rechnen u. dann feststellen, nein, die Sonne schafft es nicht, die Erde so zu erwärmen, dass wir, mit allem, was kreucht u. fleucht u. wächst, hier leben können?

Und wer es noch genauer wissen will, kann gerne hier nachlesen…

Sonnenlicht, Wasser und CO2 sind die Grundlagen der Photosynthese und damit allen Lebens auf unserer Erde. Und wenn eine dieser drei Komponenten fehlt, funktioniert gar nichts mehr, also: Nachts ist KEINE Photosynthese möglich, und genau deshalb wird in vielen Treibhäusern die Nacht zum Tage gemacht, und zwar keinesfalls durch den Strom aus Solaranlagen. Das können Sie vielleicht schon in Ihrer näheren Umgebung beobachten, ansonsten fahren Sie gerne einmal nach Holland. Am Ende haben wir also eine künstliche CO2-Zufuhr und künstliche Beleuchtung in modernen Gewächshäusern, um das Pflanzenwachstum zu fördern. Aber im richtigen Leben haben wir dann wiederum Angst vor CO2 und sollen vegetarisch leben, um das „globale Klima“ zu schützen – und für die Salatproduktion setzen wir dann also ausgerechnet CO2 und Strom aus konventionellen Kraftwerken ein…

Vielleicht sollte man noch hinzufügen, dass CO2 nicht der natürliche Klimaantrieb sein kann. Oder dass ein globales CO2-Budget über die 120-jährige atmosphärische Lebensdauer von CO2 voll erneuerbar ist. Und während die Einen behaupten, wegen des anthropogenen CO2 würde die nächste Eiszeit ausfallen, behaupten die Anderen, dass uns wegen des aktuellen solaren Minimums möglicherweise schon bald eine neue „Kleine Eiszeit“ bevorstehen könnte.

Also wäre es vielleicht ganz schlau, unsere konventionellen Kraftwerke zumindest so lange am Netz zu halten, bis wir ganz genau wissen wer Recht hat…

 

Die Sonne im Mai 2019 und die steigende Wetterfühligkeit von Klima-Aktivisten

Von Frank Bosse und Fritz Vahrenholt

Unsere Sonne war im Mai 2019 ein weiteres Mal unternormal aktiv. Die festgestellte SSN (für SunSpotNumber) betrug 10,1, das sind nur 52% des mittleren Wertes im ausgewerteten Zyklusmonat 126 seit dem Start des 24. systematisch beobachteten Zyklus im Dezember 2008. Hier ist zu beachten, dass die Anzahl der Zyklen, die überhaupt so lange währten, immer kleiner wird. Wir berichteten im Vormonat vom „Verlust“ der Zyklen 21, 18, 16, 15, 8 und nun kommt auch noch SC (für Solar Cycle) 17 hinzu, nächsten Monat „erwischt“ es SC 7. Der Mittelwert wird also nicht mehr so aussagefähig zum Ende des Zyklus hin. Aus alter Gewohnheit wollen wir ihn dennoch als Vergleich beibehalten. Die Aktivität war im abgelaufenen Monat sehr asymmetrisch zur solaren Nordhemisphäre hin verschoben, die Südhemisphäre war den ganzen Monat über fleckenlos, der Sonnen-Norden war dies nur an 15 Tagen. Die Gesamtaktivität graphisch:

Abb.1: der Verlauf des aktuellen SC24 (rot) im Vergleich zu einem mittleren Zyklus (blau), errechnet aus dem Mittelwert der Zyklen 1…23, sowie der über weite Strecken recht ähnliche SC5 (schwarz).

 

Wir dümpeln also weiter bei sehr geringer Aktivität im solaren Minimum seit 20 Monaten und dies wird wohl noch etwa 1 Jahr so anhalten, wie wir bereits vor 2 Monaten darlegten. Die Flecken des neuen Zyklus (erkennbar an der umgekehrten Polarität ihrer Magnetfelder), die im Minimum stets gemeinsam mit denen des alten vorkommen, machen sich weiterhin rar. Ganze 4 waren es im Vormonat. Bevor sie nicht die Mehrheit an den insgesamt beobachteten Flecken ausmachen ist der neue Zyklus physikalisch nicht angekommen. Der Vergleich der Zyklen untereinander:

Abb.2: Die Fleckenaktivität der einzelnen Zyklen seit dem Beginn des Zyklus 1 im Jahre 1755. Die Zahlen im Diagramm entstehen, wenn man die monatlichen Differenzen  der beobachteten Zyklen jeweils zum Mittelwert aufaddiert, bis zum aktuellen Zyklusmonat 126.

 

Der jähe Absturz seit Ende des SC23 ( 2008) ist sehr deutlich sichtbar. Davor sahen wir 7 Zyklen mit überdurchschnittlicher Aktivität, von 1933 (Start SC17) bis 2008 (Ende SC23). Dass auch SC25 unterhalb der Nulllinie abschließen wird, darüber gibt es kaum Zweifel in der „Sonnen-Community“.   Wie wirkt sich der „Dauerversuch“ mit geringer Sonnenaktivität-es wäre der erste seit SC15, dessen Beginn im Jahre 1915 lag- bringen wird für uns Bewohner des dritten Planeten aus? In der Vergangenheit  gab es eine Reihe von Parallelen zwischen Rückgang der Sonnenaktivität und der globalen Temperatur. Wie es  diesmal kommt,  wir wissen es nicht genau.

 

Die Wetterfühligkeit der Aktivisten

Ist es Ihnen auch aufgefallen? In den letzten Jahren (leider im förmlichen Stakkato seit einigen Monaten) hören wir: Es ist der Klimawandel, der an allem schuld ist. Ob es stürmt oder schneit, ob es nicht stürmt oder nicht schneit, ob es gewittert mit viel Regen oder es trocken ist: alles ist Klimawandel, so wird suggeriert. Welches Wetter würde auf keinen Klimawandel hindeuten? Nur das langjährige Mittel? Das wird doch aber gebildet durch den Durchschnitt über eine lange (meist 30 jährige) Periode. Jetzt ist also jede Abweichung vom Mittel ein Zeichen des Klimawandels? Es gibt einige, die sich dieser Logik widersetzen.

Der Meteorologe Jörg Kachelmann ist ein leuchtendes Beispiel. Bei Twitter wird er dafür überzogen mit Anschuldigungen, er würde den „Klimaleugnern“ Munition liefern. Dieser Artikel könnte das Gegenteil bezeugen, denn auch wir sind der Überzeugung, dass der Mensch das Klima verändert, die Nutzung von Kohle, Gas und Öl in der gesamten Wertschöpfungskette der Industriegesellschaft hat es mit sich gebracht. Auf der anderen Seite wäre der Mensch heute nicht da wo er ist ohne die wohlfahrtsstiftenden Wirkungen des Kohlenstoffs bei der Ernährung der Menschheit, der Energieversorgung, der Mobilität, der Eindämmung von Armut, der Bekämpfung von Krankheiten mit Medikamenten und vielen anderen Errungenschaften, die wir den vereinten Anstrengungen auch den Generationen vor uns verdanken. Und es wird einige Anstrengung kosten, die Auswirkungen unseres Tuns bis etwa 2100 in den Griff zu bekommen. Jeder Termin vorher für ein Armageddon ist Fiktion, da ist sich ernsthafte Wissenschaft einig.

Wir möchten noch einmal auf das verweisen, was wir im Juli 2017 abgeleitet hatten: Wie hoch kann die Konzentration an CO2 in der Atmosphäre anwachsen, um das 2°C- Ziel nicht zu reißen: es sind um die 600ppm. Geht man von aktuell (2017) 407 ppm CO2 aus und einem augenblicklichen Wachstum von 2,11 ppm im Mittel pro Jahr, wären die 600 ppm im Jahre  2108 erreicht. Natürlich wäre es notwendig, bis  Ende dieses Jahrhunderts die globalen CO2-Emissionen auf nahe Null zu senken – eine Aufgabe für drei globale Generationen und nicht für drei deutsche Legislaturperioden.

Das sehen Aktivisten anders. Sie lassen verkünden, dass in 12 Jahren die schwarz/weiß karierte Flagge kommt für die Menschheit: The race is over! Es ist schwierig, dies zu begründen, daher wird versucht, jedes Wetter zu nutzen. So kann es auch in Finnland warm werden, wenn der Wind von Süden weht im Sommer. Das sollte nicht wundern bei der hohen Sonneneinstrahlung, aber es wird immer wieder agitatorisch ausgenutzt, das Wetter zu Klima gemacht.  Man kann es recht einfach nachrechnen, an wie vielen Tagen überschritt die tägliche Maximaltemperatur dort 26 °C?

Abb.3: Die Anzahl der Tage über ganz Finnland mit einer Maximaltemperatur von über 26°C. Daten: E-OBS (KNMI)

 

Man erkennt leicht, dass sowas immer mal wieder vorkommt, in der Tendenz könnte es mehr werden, und signifikante Aussagen sind kaum zu treffen. Es besteht kein Grund, über heiße finnische Tage in Panik zu verfallen. Ein weiterer oft kolportierter Zusammenhang: Der Klimawandel sorge für mehr / stärkere tropische Stürme wie Hurrikans (im Atlantik) und Taifune ( im Pazifik). Immer wenn ein solcher tropischer Sturm auftrat in den letzten Jahren lasen wir Artikel wie diesen. Es wird der simple thermodynamische Schluss gezogen: Wärmeres Wasser enthält mehr Energie und die macht Stürme schlimmer. Eine aktuelle Arbeit von weltweit führenden Forschern zu diesem Thema stellt klar, dass es eben nicht so einfach ist. Sie finden viele Unsicherheiten und insbesondere die atlantischen Hurricans sind nicht dem Klimawandel zuzuschreiben, noch nicht einmal die damit verbundenen extremen Niederschläge:

„To date, there is not convincing  evidence of a detectable anthropogenic influence on hurricane precipitation rates,…“

Da 2019 eine recht aktive Hurrikan-Saison werden könnte , müssen wir auf die Zuweisung zum Klimawandel durch Aktivisten gefasst sein. Dabei ist dieser Schluss, folgt man der Wissenschaft, nicht gerechtfertigt. Simple Panikmache! Aber wir kennen ja Greta Thunbergs Aussage: Wir wollen Panik! Auch oft vermeldet: Waldbrände hierzulande sind stark der „Klimakrise“ (starkdeutsch für  –wandel)  geschuldet. Dabei sind Waldbrände Folgen von Trockenheit. Nicht die Wärme ist daran schuld,  sondern der Niederschlagsmangel. Und wie sieht es damit im Sommer aus, in Deutschland?

Abb.4: Der Niederschlag in Deutschland im Sommer seit 1880. Quelle.

 

Der DWD stellt fest: kein Trend seitdem gemessen wird. Es war im Vorjahr ungewöhnlich trocken, daher gab es mehr Waldbrände, das ja. Nur ein Klimasignal zeichnet sich dadurch aus, dass es einen Langzeittrend gibt. Niente! Alle, die ein Wetterereignis ausnutzen für ihre Agenda müssen sich fragen lassen: Was ist das für eine Agenda, für die man so lügen muss?

Ein anderes Beispiel ist die Häufung von persistenten (man könnte auch weniger geschraubt formulieren: länger anhaltenden) Wetterlagen, die „Tod und Verderben bringen“ infolge des Klimawandels.  Schuld daran sei der „verebbende Jetstream“, das ist ein „Schweizer Messer“ für den Aktivisten. Man kann damit alles begründen: Zu viel Kälte, zu viel Wärme, zu viel Niederschlag, zu wenig, einfach alles was nicht dem Mittelwert entspricht. In einer Kolumne zeigt Prof. Rahmstorf warum das so ist, und am Ende zitiert er einen Artikel in „Science“ und zeigt ein Diagramm…

 

Abb.5: Der fallende Trend in den zonalen( West-Ost)  Winden über Europa im Sommer (JJA), Quelle

 

…und legt dar: “Die Daten zeigen u.a. eine Verlangsamung des Jet Stream.“

Werfen Sie bitte einen Blick auf die Geschwindigkeiten des zonalen Windes auf der Ordinate: Im Mittel keine 30 km/h. Und das soll der Jetstream, der „Starkwindgürtel“,  sein? Wir machen uns auf Spurensuche und finden in der Originalarbeit die Bildunterschrift: „ …Variables are calculated at 500 mb and averaged over 35°N-70°N…“. 500 mb Luftruck entsprechen einer Höhe von ca. 5500 m. Eine beliebte Höhe in der Meteorologie: Es ist recht genau der halbe Luftdruck als auf dem Boden. Und wo  ist der Jetstream?

Wir werden fündig beim britischen Metoffice:  In einer Höhe von 5-7 Meilen über der Erdoberfläche bläst er, das sind 8-11 km Höhe! Ein fallender Trend der zonalen Winde in 5500 m Höhe um 3,3% in 35 Jahren (!) – vgl. die angegebene Trendsteigung in Abb. 3 – soll also was genau sagen? Dass die Winde da ein klitzekleines Bisschen nachlassen, bei weiter Streuung der Messwerte ohne  Signifikanz (95% Konfidenz) wo der Jetstream laut MetOffice gar nicht ist? Wir haben dahin geschaut, wo der Jetstream am heftigsten weht, in der Höhe von nahe 12 km Höhe (200mb Luftdruck) wo die Jets wirklich fliegen, und die gleichen Daten dort ausgewertet wie die Autoren der von Rahmstorf zitierten Arbeit, ERAinetrim .

 

Abb.6: Die zonale Geschwindigkeit des echten Jetstreams über Europa im Sommer: ohne Trend (dick schwarz).

 

Es gibt keinen fallenden Trend im Jetstream. So ist es wohl so, dass sich die zonalen Winde in 5 km Höhe ein ganz klein wenig verlangsamt haben, eine gesicherte Aussage hierzu jedoch nicht möglich ist und der eigentliche Jetstream in viel größerer Höhe unbeeindruckt (mit recht hoher Variabilität von Jahr zu Jahr) seine Bahnen zieht in West-Ost Richtung. Die von Rahmstorf zitierte Arbeit orakelt zum Jetstream wo er gar nicht ist!

Das sind beliebte Mittel, die Leserschaft zu verunsichern und solche Sätze wie:“…sind konsistent mit Modellerwartungen“ sind nicht das Papier wert, auf dem sie gedruckt wurden!  Denn Modelle wie sie bisher verwendet werden, wurden  „angepasst“ aus dem Bauch heraus,:

„Climate scientists have become so used to explaining how their models are based on fundamental laws and physical principles, we sometimes ourselves forget the crude approximations and seat-of-the-pants reasoning that underpins many of their important aspects.”

wie ein führender Modell-Experte, Björn Stevens vom Hamburger Max Planck Institut für Meteorologie, unumwunden erklärt und bessere Modelle anstrebt, was aller Ehren wert ist. Lassen Sie sich also nicht ins Bockshorn jagen. Panik ist ein schlechter Ratgeber für das was vor uns liegt. Technologie und Erfindungsreichtum ist gefragt. Prüfen sie immer kritisch was Ihnen vorgesetzt wird: Vieles ist Lüge für eine vermeintlich gute Sache. Solche Art von Lügen sind  jedoch besonders verhängnisvoll.

 

Eisiges Geheimnis endlich gelüftet: Patagonisches Eis ist viel mächtiger als bisher angenommen

Pressemitteilung der University of California – Irvine vom 3. Juni 2019:

———–

Patagonia ice sheets thicker than previously thought, study finds

UCI, South American glaciologists characterize protected region with new methods

After conducting a comprehensive, seven-year survey of Patagonia, glaciologists from the University of California, Irvine and partner institutions in Argentina and Chile have concluded that the ice sheets in this vast region of South America are considerably more massive than expected. Through a combination of ground observations and airborne gravity and radar sounding methods, the scientists created the most complete ice density map of the area to date and found that some glaciers are as much as a mile (1,600 meters) thick. Their findings were published today in the American Geophysical Union journal Geophysical Research Letters.

“We did not think the ice fields on the Patagonian plateau could be quite that substantial,” said co-author Eric Rignot, Donald Bren Professor and chair of Earth system science at UCI. “As a result of this multinational research project, we found that – added together – the northern and southern portions of Patagonia clearly hold more ice than anticipated, roughly 40 times the ice volume of the European Alps.” Patagonia is home to the largest ice fields in the Southern Hemisphere outside Antarctica, and its glaciers are among the fastest-moving in the world. Surface elevation observations from satellite radar altimetry and optical imagery have shown that most of the ice slabs in the region have been thinning rapidly over the past four decades. The contribution to global sea level rise from their melting has increased at an accelerating pace during that time.

Study co-author M. Gabriela Lenzano, a researcher with Argentina’s National Scientific and Technical Research Council, said the results will “help the scientific community better explain the interactions and consequences of ice sheet dynamics and climate on this cold environment – and the impact on communities and ecosystems downstream.” With more precise knowledge of the size and shape of the glaciers in this highly protected region – much of which is contained in one of the world’s largest national park systems – researchers and planners will be able to more accurately model the effects of global warming and plan for potential disruptions in freshwater resources that serve its inhabitants.

“This is why having accurate maps of the ice thickness is a priority,” said lead author Romain Millan, who was a UCI graduate student in Earth system science for the bulk of this research project and is now a postdoctoral scholar at the Institute of Environmental Geosciences in Grenoble, France. “It is fundamental to get the right contours and depth of the glacial valleys; otherwise, simulations of glacier retreat will always be wrong.” The difficulty in quantifying bed elevation and thickness has limited scientists’ ability to predict the region’s potential contribution to sea level rise; model glacier dynamics in response to climate change; study the impacts on freshwater resources; or prepare against such hazards as lake outburst flooding, which occurs when a dam containing a glacial lake fails.

Past attempts to gauge the total heft of the ice have fallen short, because traditional sounding techniques were limited to the shallowest sections of the ice field. Another obstacle has been the temperate nature of Patagonian ice. The frozen water in the glaciers is near its melting point from the top to the bottom; the higher water content makes this kind of ice more difficult to measure with radar. To overcome these challenges, the scientists took to the skies, flying over broad stretches of terrain in helicopters and fixed-wing aircraft equipped with gravimeters, devices that can determine the ice volume by reading changes in Earth’s gravitational field. The addition of data collected by glaciologists from Chile’s Center for Scientific Studies, who had mapped ice thickness with low-frequency airborne radar sounding since 2002, was instrumental in creating a more comprehensive description of the area’s conditions.

“This research has been enhanced and successfully completed thanks to our collaboration with the Rignot group at UCI and our Argentinean colleagues, with whom we have worked at both sides of the southern Patagonia ice field – disregarding the political border that divides the region,” said co-author Andrés Rivera of the Chilean center. Support for this project was provided by the Gordon and Betty Moore Foundation, NASA’s Jet Propulsion Laboratory and NASA’s Operation IceBridge mission.

 

Mai 2019 in Deutschland viel zu kühl

Mal zu heiß mal zu kalt, selten genau richtig. Deutscher Wetterdienst am 29. Mai 2019:

Deutschlandwetter im Mai 2019

Nach 13 Monaten in Folge erstmals wieder zu kühl

Nachdem der Sommer auch 2019 bereits im April ein Gastspiel gegeben hatte, schlug der Mai eine völlig andere Richtung ein. Besonders in der ersten Monatshälfte wehte immer wieder kühle Luft von Nordwesten und Norden heran. Hoher Luftdruck brachte dabei an manchen Tagen sonniges Wetter, aber nochmals verbreitet Nachtfröste. Ansonsten sorgten Tiefdruckgebiete vor allem im Süden für reichlich Niederschlag, der sogar teilweise bis ins Flachland vorübergehend als Schnee fiel. Insgesamt verlief der Mai nach 13 Monaten in Folge erstmals zu kühl. Er war nass bei unterdurchschnittlichem Sonnenschein. Das meldet der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner rund 2000 Messstationen.

Und so sieht das in der langjährigen Statistik seit 1881 aus (der abschließende blaue Balken ist 2019):

Quelle: DWD

 

In der Pressemitteilung wird auch der mangelnde Sonnenschein berichtet. Auch hierfür bietet der DWD eine Trendgraphik an:

Quelle: DWD

 

Die Sonnenscheindauer hat sich im Mai während der letzten 70 Jahre statistisch verlängert. Liegt hier zumindest eine Teilursache für die gleichzeitige Erwärmung? Was genau hat die Wolken vertrieben? CO2?

—————————-

MorningBriefing am 8. Juni 2019:

Die Deutschen sind wetterparanoid geworden

Rekordhitze, Dürresommer, Starkregen, Waldbrände und Klimawandel: Es wird immer schlimmer und wir werden alle sterben. So zumindest die Meinung vieler Menschen. „Früher war das nicht so schlimm“, heißt es. Erst haben wir Panik vor einem Dürresommer und nur wenige Wochen später beklagen wir zu viel Regen. Sind wir alle paranoid geworden?

Der Deutsche hätte wohl gern ganzjährig 22,14157845 Grad. Alles, was davon abweicht, ist schlechtes Wetter oder ein klimawandelbedingter Weltuntergang. Es ist sofort „zu heiß“ oder „zu kalt“ oder „zu nass“ oder „zu trocken“. Die Menschen werden natürlich durch neugrüne Medien regelrecht aufgehetzt. So hatte der Wetterdienst davor gewarnt, dass es ein schlimmer Dürresommer geben könnte, wenn es nicht regnen sollte. Unsere grünradikalen Medien haben folgendes daraus gemacht: „2019 droht ein neuer Dürresommer“.

Weiterlesen im MorningBriefing

—————————-

Welt.de am 7. Juni 2019:

Vier Fragen an Fridays for Future

Wir sind alle für den Klimaschutz, nicht nur Ihr Jungen, sondern auch wir Alten – ich selbst bin im Jahr 1948 geboren. Schließlich möchten wir auch unseren Nachfolgern eine lebenswerte Welt sichern. Aber ich habe einige Fragen an euch.

[...]

Hier also meine erste Frage:

1) Seid ihr bereit, dass wir in Deutschland zeitweise, wenn es eng wird, den Strom abschalten?

Noch müssen rund 3000 km an Hochspannungstrassen in Deutschland gebaut werden, um die besagte Nord-Süd-Verbindung herzustellen. Die reale Ausbaugeschwindigkeit liegt pro Jahr bei rund 80 Kilometern. Die Pläne dazu liegen vor. Bürger in den Landkreisen und Gemeinden, in denen die Trassen gebaut werden sollen, wenden sich aus Gründen des Landschafts- und Umweltschutzes dagegen, selbst wenn die Trassen unter die Erde gelegt werden, denn dann entstehen 50 Meter breite Schneisen für die Supraleitkabel, die den Boden erhitzen und elektromagnetisch belasten.

Weiterlesen auf Welt.de

 

Regionales Flutrisiko wird von Ozeanzyklen mitgesteuert

Wenn Flüsse über die Ufer treten und ganze Landstriche unter Wasser setzen herrscht Katastrophenalarm. Tritt eine solche Flut auf, ist heutzutage reflexhaft der Klimawandel als Bösewicht identifiziert. Dabei wird vergessen, dass man das Geschehen im langfristigen Kontext der letzten Jahrhunderte und Jahrtausende sehen muss.

Bereits 2013 hat ein Team um Yukiko Hirabayashi das Überflutungsrisiko in verschiedenen Teilen der Erde simuliert. Während es in einigen Regionen wohl steigt, sinkt es in anderen ab:

Global flood risk under climate change
A warmer climate would increase the risk of floods1. So far, only a few studies2,3 have projected changes in floods on a global scale. None of these studies relied on multiple climate models. A few global studies4,5 have started to estimate the exposure to flooding (population in potential inundation areas) as a proxy of risk, but none of them has estimated it in a warmer future climate. Here we present global flood risk for the end of this century based on the outputs of 11 climate models. A state-of-the-art global river routing model with an inundation scheme6 was employed to compute river discharge and inundation area. An ensemble of projections under a new high-concentration scenario7 demonstrates a large increase in flood frequency in Southeast Asia, Peninsular India, eastern Africa and the northern half of the Andes, with small uncertainty in the direction of change. In certain areas of the world, however, flood frequency is projected to decrease. Another larger ensemble of projections under four new concentration scenarios7 reveals that the global exposure to floods would increase depending on the degree of warming, but interannual variability of the exposure may imply the necessity of adaptation before significant warming.

Najibi & Devineni 2018 zeigten, dass Trends in den Überflutungen stark an die Ozeanzyklen wie NAO, AMO und PDO gekoppelt sind:

Recent trends in the frequency and duration of global floods
Frequency and duration of floods are analyzed using the global flood database of the Dartmouth Flood Observatory (DFO) to explore evidence of trends during 1985–2015 at global and latitudinal scales. Three classes of flood duration (i.e., short: 1–7, moderate: 8–20, and long: 21 days and above) are also considered for this analysis. The nonparametric Mann–Kendall trend analysis is used to evaluate three hypotheses addressing potential monotonic trends in the frequency of flood, moments of duration, and frequency of specific flood duration types. We also evaluated if trends could be related to large-scale atmospheric teleconnections using a generalized linear model framework. Results show that flood frequency and the tails of the flood duration (long duration) have increased at both the global and the latitudinal scales. In the tropics, floods have increased 4-fold since the 2000s. This increase is 2.5-fold in the north midlatitudes. However, much of the trend in frequency and duration of the floods can be placed within the long-term climate variability context since the Atlantic Multidecadal Oscillation, North Atlantic Oscillation, and Pacific Decadal Oscillation were the main atmospheric teleconnections explaining this trend. There is no monotonic trend in the frequency of short-duration floods across all the global and latitudinal scales. There is a significant increasing trend in the annual median of flood durations globally and each latitudinal belt, and this trend is not related to these teleconnections. While the DFO data come with a certain level of epistemic uncertainty due to imprecision in the estimation of floods, overall, the analysis provides insights for understanding the frequency and persistence in hydrologic extremes and how they relate to changes in the climate, organization of global and local dynamical systems, and country-scale socioeconomic factors.

Trends in der Wasserführung von Flüssen wurden von Gudmundsson et al. 2019 analysiert:

Observed Trends in Global Indicators of Mean and Extreme Streamflow
This study investigates global changes in indicators of mean and extreme streamflow. The assessment is based on the Global Streamflow Indices and Metadata archive and focuses on time series of the annual minimum, the 10th, 50th, and 90th percentiles, the annual mean, and the annual maximum of daily streamflow. Trends are estimated using the Sen‐Theil slope, and the significance of mean regional trends is established through bootstrapping. Changes in the indices are often regionally consistent, showing that the entire flow distribution is moving either upward or downward. In addition, the analysis confirms the complex nature of hydrological change where drying in some regions (e.g., in the Mediterranean) is contrasted by wetting in other regions (e.g., North Asia). Observed changes are discussed in the context of previous results and with respect to model estimates of the impacts of anthropogenic climate change and human water management.

Trends variieren stark von Region zu Region. Aus den Conclusions:

A striking result is that in most cases the sign of regional trends is consistent across all indices. This implies that the entire flow distribution is changing upward or downward in the respective regions, indicating generally wetter or drier conditions. In other words, increasing low flows are in most cases associated with increasing high flows (and vice versa), contradicting the common notion that flood and drought risk may increase simultaneously. Another feature of the results is that for some regions (West North America, East North America, and North‐East Brazil) the sign of the trends has varied with respect to the considered period, suggesting low‐frequency variability in the baseline climate signal and that care is needed in the interpretation of the associated change patterns. Among all considered regions, South Europe/Mediterranean had the strongest signal with consistent negative trends in all indices throughout all considered time periods. Other regions with predominantly negative trends include Southern Africa, South Australia/New Zealand, and potentially South Asia. In addition, Northeastern Brazil experienced drying conditions for the last two time periods but had a consistent wetting trend for the first period. Consistent wetting trends were observed in Central North America, Southeastern South America, North Europe, and North Asia, although the trend weakens for the last period in Central North America and Southeast South America. Overall, these wetting trends are not equally visible in all regions and throughout all indices.

 

Kein Grund zur Panik: Der oszillierende Golfstrom

Der Golfstrom liefert “Fernwärme” für Westeuropa. Einige Klimaaktivisten malen Horrorszenarien an die Wand, dass sich der Golfstrom aufgrund des Klimawandels verlangsamt oder gar stoppt – mit fatalen Folgen für Europa. Andere Wissenschaftler sehen hierfür in den harten Daten jedoch keinen Hinweis. Den bisherigen Verlauf der Diskussion finden Sie in unserem dkS-Archiv. Heute im Blogpost: Was gibt es Neues zum Golfstrom?

Im Februar 2019 berichteten Lozier et al. in Science, dass die Modelle nicht einmal die wichtigsten Antriebe des Golfstroms korrekt quantifizieren. Der dominante Faktor sei nicht die Labradorsee östlich Kanadas, sondern das Nordmeer östlich von Grönland. Siehe auch Bericht in The Daily Caller.

Der Golfstrom ist offenbar gar nicht so anfällig gegen den Klimawandel wie gedacht. ScienceNews am 31. Januar 2019:

Climate change might not slow ocean circulation as much as thought

New findings from an international ocean observing network are calling into question the long-standing idea that global warming might slow down a big chunk of the ocean’s “conveyor belt.” The first 21 months of data from sensors moored across much of the North Atlantic are giving new insight into what controls the strength of the Atlantic Meridional Overturning Circulation, a system of currents that redistributes heat around much of the Western Hemisphere.

Researchers had thought the strength of that circulation, known by the acronym AMOC, was largely influenced by the sinking of cold freshwater in the Labrador Sea, between Greenland and Canada. And climate simulations suggest that the sea’s deepwater formation might slow as the world continues to warm — which also could slow down the entire Atlantic current system and possibly make temperatures on land in the northeastern United States and the United Kingdom plunge. That concept inspired the (otherwise unrealistic) 2004 climate apocalypse film The Day After Tomorrow.

Weiterlesen auf ScienceNews

Über fundamentale Verständnisprobleme handelt auch dieser MDR-Beitrag aus dem Juli 2018:

Bringt uns ein schwacher Golfstrom Wärme?
Eine neue Studie sorgt für Aufregung und viel Kritik. Darin geht es um den Golfstrom. Bisher hieß es: Wenn er schwächer wird und womöglich ganz ausbleibt, dann wird es kalt. Ein Forscherteam aus China und den USA behauptet nun das Gegenteil. Sie sagen, ein schwächer werdender Golfstrom heizt die globale Temperatur nochmal so richtig an.

Weiterlesen beim MDR.

Siehe auch Artikel zur Studie in der Welt. Anhänger der harten IPCC-Linie waren entsetzt. Klimareporter findet die Studie gar nicht gut und nennt sie “provokant”. Auch die dem Klimaalarm zugeneigte SZ war unzufrieden. Am besten ist es, die Ergebnisse ungefiltert direkt von den Autoren erklärt zu bekommen. Hier die dazugehörige Pressemitteilung der University of Washington vom 18. Juli 2018:

Atlantic Ocean circulation is not collapsing – but as it shifts gears, global warming will reaccelerate

A huge circulation pattern in the Atlantic Ocean took a starring role in the 2004 movie “The Day After Tomorrow.” In that fictional tale the global oceanic current suddenly stops and New York City freezes over. While many aspects of the movie are unrealistic, oceanographers are concerned about the long-term stability of the Atlantic Ocean circulation, and previous studies show that it has slowed dramatically in the past decade. New research from the University of Washington and the Ocean University of China finds the slowdown is not caused by global warming but is part of regular, decades-long cycle that will affect temperatures in coming decades. The paper [Chen & Tung 2018] was published July 18 [2018] in Nature.

“Climate scientists have expected the Atlantic overturning circulation to decline long-term under global warming, but we only have direct measurements of its strength since April 2004. And the decline measured since then is 10 times larger than expected,” said corresponding author Ka-Kit Tung, a UW professor of applied mathematics with an adjunct appointment in atmospheric sciences.

“Many have focused on the fact that it’s declining very rapidly, and that if the trend continues it will go past a tipping point, bringing a catastrophe such as an ice age. It turns out that none of that is going to happen in the near future. The fast response may instead be part of a natural cycle and there are signs that the decline is already ending.”

The results have implications for surface warming. The current’s speed determines how much surface heat gets transferred to the deeper ocean, and a quicker circulation would send more heat to the deep Atlantic. If the current slows down, then it will store less heat, and Earth will be likely to see air temperatures rise more quickly than the rate since 2000.

“The global climate models can project what’s going to happen long-term if carbon dioxide increases by a certain amount, but they currently lack the capability to predict surface warming in the next few decades, which requires a knowledge of how much the excess heat trapped by greenhouse gases is being absorbed by the oceans,” Tung said.

The Atlantic Meridional Overturning Circulation, or AMOC, is a conveyor belt that brings surface water northward in the Atlantic; from there, the heavier salty water sinks and returns at depth from the Labrador and Nordic seas, near the North Pole, all the way south to the Southern Ocean. Most people are interested in what happens at the surface — the Gulf Stream and associated Atlantic currents carry warmer water north, bringing mild temperatures to Western Europe.

But the new paper argues that the most important step, from a climate perspective, is what happens next. In the North Atlantic, the saltier water from the tropics sinks almost a mile (1,500 meters). As it does, it carries heat down with it away from the surface.

Changes in the strength of the AMOC affect how much heat leaves our atmosphere. The new study uses a combination of data from Argo floats, ship-based temperature measurements, tidal records, satellite images of sea-surface height that can show bulges of warm water, and recent high-tech tracking of the AMOC itself to suggest that its strength fluctuates as part of a roughly 60- to 70-year, self-reinforcing cycle.

When the current is faster, more of the warm, salty tropical water travels to the North Atlantic. Over years this causes more glaciers to melt, and eventually the freshwater makes the surface water lighter and less likely to sink, slowing the current.

When the AMOC is in a slow phase, the North Atlantic becomes cooler, ice melt slows, and eventually the freshwater melt source dries up and the heavier saltier water can plunge down again, which speeds up the whole circulation.

The new study argues that this current is not collapsing, but is just transitioning from its fast phase to its slower phase – and that this has implications for heating at the surface.

From 1975 to 1998, the AMOC was in a slow phase. As greenhouse gases were accumulating in the atmosphere, Earth experienced distinct warming at the surface. From about 2000 until now, the AMOC has been in its faster phase, and the increased heat plunging in the North Atlantic has been removing excess heat from the Earth’s surface and storing it deep in the ocean. “We have about one cycle of observations at depth, so we do not know if it’s periodic, but based on the surface phenomena we think it’s very likely that it’s periodic,” Tung said.

The new paper supports the authors’ previous research showing that since 2000, during which observations show a slowdown in surface warming, heat has accumulated deep in the Atlantic Ocean. The new study shows this is the same period when Atlantic overturning circulation was in its fast phase.

Recent measurements of density in the Labrador Sea suggest the cycle is beginning to shift, Tung said. That means that in coming years the AMOC will no longer be sending more of the excess heat trapped by greenhouse gases deep into the North Atlantic. “The good news is the indicators show that this slowdown of the Atlantic overturning circulation is ending, and so we shouldn’t be alarmed that this current will collapse any time soon,” Tung said. “The bad news is that surface temperatures are likely to start rising more quickly in the coming decades.”

The first author is Xianyao Chen at the Ocean University of China and Qingdao National Laboratory of Marine Science and Technology. The study was funded by the U.S. National Science Foundation, the Natural Science Foundation of China, the National Key Basic Research Program of China and a Frederic and Julia Wan Endowed Professorship.

 

 

Figure: The top panel shows global average surface temperature changes since 1950, with two periods of slower change and a period of rapid warming from 1975 to 2000. The lower panels show the strength of the Atlantic overturning circulation. The blue (and, on the right, purple) curve is the salinity north of 45N, an indirect measure, or proxy, for the AMOC strength. The green curve is an established proxy of AMOC.Ka-Kit Tung/University of Washington

 

Die Welt am 21. Juli 2019:

„Bereits seit den 40er-Jahren werden Tiefentemperaturen im Nordatlantik gemessen“, berichtet Professorin Monika Rhein von der Universität Bremen. Diese Temperaturen sind ein indirekter Hinweis auf die Stärke des Golfstroms. „Diese Messdaten zeigen starke Schwankungen, aber keinen Trend in irgendeine Richtung“, bilanziert die Ozeanografin die langen Messreihen. Eine Abnahme des Golfstroms ist also bislang nicht festzustellen.

Das Deutsche Klimakonsortium gab im Juli 2018 eine Broschüre zum Golfstrom heraus.

Thibodeau et al. 2018 analysierten Sauerstoffisotope von Foraminiferen eines Nordwestatlantischen Sedimentkerns und fanden, dass die Abschwächung des Golfstroms (AMOC) im 20. Jahrhundert in den 1970er Jahren zu einem Golfstrom-Minimum führte. Besonders schwach war der Golfstrom aber auch während der Kleinen Eiszeit, einer natürlichen Kaltphase. Siehe auch Bericht in der Daily Mail.

McCarthy et al. 2018 fanden, dass ein Teil der Variabilität des Golfstroms mit dem NAO-Ozeanzyklus zusammenhängt.

Yan et al. 2018 bemängeln, dass Klimamodelle die starke Variabilität des Golfstroms nur in sehr abgeschwächter Form abbilden, ein bedeutender Mangel der Simulationen.

Todd et al. 2018 dokumentieren kurzfristige Änderungen des Golfstroms nach starken Hurrikanen.

Good et al. 2018:

The observed AMOC overturning has decreased from 2004–2014, but it is unclear at this stage whether this is forced or is internal variability.

Lique & Thomas 2018 warnen, dass sich die Lage des Golfstroms im Laufe der Zeit ändern könnte. Bericht auf Scinexx dazu:

Nordatlantik: Klimawandel verschiebt Umwälzpumpe

Absinkzonen der atlantischen Umwälzströmung könnten sich stark verlagern

Verschobener Strömungsmotor: Der Klimawandel könnte die atlantische Umwälzströmung nicht nur schwächen, sondern auch verschieben, wie eine Simulation nun nahelegt. Die großen Absinkzonen warmen Wassers lägen dann nicht mehr vor Grönland wie heute, sondern im Nordpolarmeer und im subtropischen Atlantik. Das jedoch könnte die Strömung stark beeinflussen – und auch den Wärmeaustausch und die Pufferwirkung des Ozeans verändern, wie die Forscher im Fachmagazin „Nature Climate Change“ berichten.

Weiterlesen auf Scinexx