Die Kältewelle in Nordamerika entlarvt den Klimaalarmismus

Von Uli Weber

Prolog: Die ARD meldete am 11. Februar 2019 auf ihrer Internetseite „Die Welt hat Angst vor dem Klimawandel“ als Ergebnis einer globalen Studie. Das ist ja zunächst einmal auch kein Wunder, denn die Medien sind ja jeden Tag voll davon, also vom „menschengemachten“ Klimawandel. Diese ARD-Meldung bezieht sich nun auf eine Umfrage des „unabhängigen, überparteilichen Pew Research Centers in Washington“, das im vergangenen Frühjahr mehr als 27.000 Menschen in 26 Ländern zu unterschiedlichen Angst-Themen befragt haben will. Die befragte Gruppe steht hier also repräsentativ für die Meinung der Weltbevölkerung, also von etwa 7.500.000.000 Menschen auf dieser Erde. Damit spricht jeder Einzelne immerhin für eine Großstadt von knapp dreihunderttausend Einwohnern.

Laut Wikipedia ist das „Pew Research Center“ seit 2004 Teil der „The Pew Charitable Trusts“, Zitat aus Wikipedia:

The Pew Charitable Trusts ist eine 1948 gegründete unabhängige US-amerikanische Non-Profit-Organisation mit Sitz in Philadelphia. Sie wurde von den Kindern des Sunoco-Gründers Joseph Newton Pew gegründet und verfügt über ein Vermögen von 5 Milliarden US-Dollar, ein Budget von 250 Millionen US-Dollar und über 600 Mitarbeiter. Die Organisation engagiert sich unter anderem für den Schutz der Meere, der Umwelt und des Klimas.“

Eine unabhängige Klimaschutz-NGO findet also mit einer repräsentativen Umfrage heraus, dass die Menschen auf dieser Welt sich vor dem Klimawandel fürchten – das ist schon eine ganzseitige öffentlich-rechtliche Meldung wert, wobei die Bezeichnung „unabhängig“ vielleicht als Inversion des Frosch-Sumpf-Paradoxons missverstanden werden könnte.

Wenn Sie übrigens auch Angst vor einem „menschengemachten“ Klimawandel haben sollten, dann können Sie jederzeit an einer aktuellen Simulation des natürlichen Klimawandels mit dem Namen „Frühling, Sommer, Herbst und Winter“ teilnehmen – aber Vorsicht, die örtlichen Temperaturschwankungen in dieser Simulation sind etwa um eine Zehnerpotenz höher als der befürchtete globale Temperaturanstieg durch einen „menschengemachten“ Klimawandel…

Apropos Winter, kommen wir also endlich zum Thema: Die Kältewelle in Nordamerika, über die in den Medien derzeit ausführlich berichtet wurde, soll mit dem „menschengemachten“ Klimawandel zusammenhängen. Erinnern wir uns, ein sogenannter atmosphärischer Treibhauseffekt, der das Klima auf unserer Erde bestimmt, soll sich durch den anthropogenen CO2-Ausstoß noch weiter verstärken und zur Unbewohnbarkeit der Erde führen. Ein ungelöstes Problem dieser These ist die immer noch fehlende quantitative Unterscheidung zwischen natürlichen und „menschengemachten“ Klimaveränderungen. Ein erster Schritt in die richtige Richtung wäre also eine exakte wissenschaftliche Beschreibung des atmosphärischen Treibhauseffektes. Die vorliegenden Erklärungen für diesen Treibhauseffekt bleiben nämlich auch nach fast vier Jahrzehnten klimaalarmistischer Höchstleistungscomputerforschung pauschal und völlig undifferenziert, denn es fehlen bis heute ausgerechnet diejenigen jahreszeitlichen und geographischen Bezüge, deren Kenntnis für eine qualifizierte Bewertung der aktuellen Kältewelle in Nordamerika absolut nötig wäre. Das Umweltbundesamt erklärt den atmosphärischen Treibhauseffekt beispielsweise folgendermaßen, Zitat:

Die Erdatmosphäre enthält Gase, die kurzwellige Sonnenstrahlung zum großen Teil passieren lassen, (langwellige) Wärmestrahlung jedoch absorbieren und damit das System erwärmen. In Analogie zu einem Treibhaus – das Sonnenstrahlung durchlässt und Wärmestrahlung „festhält” – werden diese Gase auch als Treibhausgase bezeichnet. Vor allem Wasserdampf und Kohlendioxid absorbieren einen Teil der von der Erdoberfläche abgegebenen Wärmestrahlung und verringern deshalb den Anteil der in den Weltraum abgegebenen Wärmestrahlung. Dieser – natürliche – Treibhauseffekt bewirkt, dass das globale Mittel der bodennahen Lufttemperatur 15°C beträgt. Ohne Treibhausgase in der Atmosphäre läge die Mitteltemperatur bei -18°C und die Erde wäre vereist.“

Die Erhöhung der durchschnittlichen Temperatur von minus 18°C (entsprechend einer global gemittelten temperaturwirksamen Sonneneinstrahlung von 235 W/m²) auf plus 15°C (entsprechend einer Strahlung von 390 W/m²), also um 33°C, erfordert einen zusätzlichen Strahlungsantrieb von 155 W/m², der den sogenannten Treibhausgasen zugeschrieben wird. Vom absoluten Nullpunkt aus gerechnet entspricht dieser zusätzliche Strahlungsantrieb nun einem Temperaturäquivalent von etwa 229 Kelvin. Ein konstanter natürlicher Treibhauseffekt müsste also verhindern, dass es irgendwo auf der Erde kälter als diese etwa 229 Kelvin oder minus 44 Grad Celsius werden kann, was aber wiederum dem Kälterekord in der Antarktis von minus 98,6 Grad Celsius widerspricht.

Der atmosphärische Treibhauseffekt ist nun aber der entscheidende Faktor für die Angst vor einem „menschengemachten“ Klimawandel. Die Lösung dieses Kälte-Paradoxons wäre somit eine verdienstvolle Aufgabe für eine wohlalimentierte Klimaforschung mit dem Ziel einer wissenschaftlich exakten Beschreibung dieses natürlichen atmosphärischen Treibhauseffektes. Und diese Beschreibung wäre dann wiederum ein erster Schritt auf dem Weg zu einer finalen Trennung zwischen natürlichen und „menschengemachten“ Klimaveränderungen. Aber anstatt diesen Weg endlich konsequent zu beschreiten, werden in der Klimaforschung einfach alte Narrative durch neue ersetzt, um den Klimawandel weiterhin in seiner Gesamtheit für eine globale Klimapropaganda vereinnahmen zu können.

t-online“ erklärt den Zusammenhang zwischen der gegenwärtigen Kältewelle in Nordamerika und dem Klimawandel beispielsweise folgendermaßen, Zitat:

Bekannt ist, dass sich die Arktis im Zuge des Klimawandels doppelt so schnell erwärmt wie der übrige Planet. Es gibt außerdem Hinweise darauf, dass dadurch die Temperaturdifferenz zwischen Polen und Tropen sinkt. Das könnte zu einer Abschwächung des Jetstreams führen und diesen anfälliger für Schwankungen machen. In der Folge könnte es zu häufigeren oder weitreichenderen Polarlufteinbrüchen in südlicheren Regionen kommen.“

Eine mögliche Abschwächung des Jetstreams stellt eine völlig neu konstruierte Erklärung für das Wettergeschehen in Nordamerika dar, und dient damit wiederum als Argument für einen „menschengemachten Klimawandel“.
Apropos „Abschwächung“ – klingelt da vielleicht irgendetwas bei Ihnen? Der Golfstrom war es doch, der von Klimaalarmisten als Beweis eines „menschengemachten“ Klimawandels so lange medienwirksam zu Grabe getragen worden war, bis sich, durch sein nicht mehr zu leugnendes Überleben, diese Argumentation schließlich von selbst totgelaufen hatte. Nun ist es also ein „abgeschwächter“ Jetstream, der sich, bis auf weiteres, ganz hervorragend als Beweis für den „menschengemachten“ Klimawandel eignet.

Bisher galt allerdings die geographische Oberflächenstruktur Nordamerikas als wetterbestimmend, wie das bereits seit vielen Generationen im Erdkundeunterricht an unseren Schulen vermittelt worden war und offenbar auch weiterhin vermittelt wird. Denn auf aktuellen Lernplattformen findet man immer noch diesen herkömmlichen geographischen Bezug, Zitat von „lernhelfer.de“:

Im Unterschied zu Europa gibt es [in Nordamerika] keine den Kontinent querende Gebirge. Das hat zur Folge, dass zwischen Rocky Mountains und Appalachen ein ungehinderter Austausch kalter Polarluft und warmer tropischer Luft stattfinden kann, was in allen Jahreszeiten schroffe Witterungs- und Temperaturwechsel verursacht. Im Sommer führt weit nach Norden vordringende feuchtwarme tropische Luft vom Golf von Mexiko (Southers) häufig bis nach Kanada hinein zu großer Schwüle und heftigen Gewittern. Umgekehrt wird der Süden oft von aus subarktischen Breiten stammender Kaltluft heimgesucht, die der Landwirtschaft schwere Schäden zufügen kann. Arktische Kaltluftwellen, die Northers, mit heftigen, Blizzards genannten Schneestürmen gefährden im Winter nicht selten die Zitruspflanzungen in Florida und an der Golfküste. Oder sie legen den Straßenverkehr in Großstädten tagelang lahm.“

Offenbar besitzen konstruierte klimareligiöse Scheinargumente, die alarmistisch in den Medien breitgetreten werden, in unserem Lande eine deutlich höhere Autorität als selbständig erworbenes Schulwissen; denn solche klimamedialen Fehlleistungen erzeugen bei uns nicht etwa überwältigende Heiterkeitsausbrüche, sondern festigen im Gegenteil den Klimaaberglauben. Und im Zeichen einer solchen „menschengemachten“ Klimakatastrophe gilt inzwischen eigentlich fast jeder Sommer als „der heißeste“ und fast jeder Winter als „der kälteste“, und das geht nun schon seit vielen Jahren so:

Winter 2017/2018, Winter 2015/2016, Winter 2014/2015, Winter 2013/2014, Winter 2009/2010.

Das globale Wetter soll durch den „menschengemachten“ Klimawandel also immer extremer werden, wie man das ja inzwischen täglich den Nachrichten über Extremwetterereignisse in aller Welt entnehmen kann. Schaunmeralsomal ganz genau hin:

Nach Aussage der seriösen Klimaforschung hat der Mensch seit Beginn der Industrialisierung die globale Durchschnittstemperatur bereits um ein Grad Celsius erhöht, und eine weitere Erwärmung darf höchstens noch weitere eineinhalb Grad zusätzlich betragen, um den „amtlich zugelassenen“ Temperaturkorridor von 2,5°C nicht zu verlassen und einen Wärmetod unserer Erde zu verhindern. Die zugrunde liegenden Fakten lauten:

Die momentane globale Durchschnittstemperatur von 14,8°C liegt mit plus 1°C knapp unterhalb der Mitte eines vorgeblich zulässigen Temperaturkorridors zwischen 0 und plus 2,5 Grad Celsius, definiert zu einer sogenannten vorindustriellen Durchschnittstemperatur.

Klima ist per Definition das 30-jährige Mittel von Wetter.

Und: Uns liegen seit etwa 1850 umfangreiche Wetteraufzeichnungen vor.

Daraus folgt, dass wir aus der Vergangenheit ausreichend Daten zur Verfügung haben sollten, um die Entwicklung von Extremwetterereignissen durch einen „menschengemachten“ Klimawandel konkret und eindeutig in einem gleitenden 30-jährigen Klimafenster über einen Zeitraum von mehr als 150 Jahren zu verfolgen. Das IPCC stützt sich mit seinen Aussagen über Extremwetterereignisse nun allerdings nicht etwa auf diese vorliegenden Zeitreihen, sondern sagt lediglich für die Zukunft einen Anstieg von Extremwetterereignissen aus hochgerechneten Klimamodellen von klimagerecht betriebenen Supercomputern voraus, Zitat aus dem „Summary SPM for Policymakers“ unter Punkt B.1 auf Seite 7:

Climate models project robust differences in regional climate characteristics between present-day and global warming of 1.5°C, and between 1.5°C and 2°C. These differences include increases in: mean temperature in most land and ocean regions (high confidence), hot extremes in most inhabited regions (high confidence), heavy precipitation in several regions (medium confidence), and the probability of drought and precipitation deficits in some regions (medium confidence). {3.3}

Inhaltliche Übersetzung: Klimamodelle sagen robuste Unterschiede zwischen heute und einer Erwärmung von 1,5°C und 1,5°C-2°C voraus. Diese Differenzen schließen einen Anstieg der Durchschnittstemperaturen, Hitzeextreme, Starkregen und Trockenheit ein.

Das ist nun aber wirklich eigenartig, eine Häufung von Extremwetterereignissen durch einen „menschengemachten“ Klimawandel wird vom IPCC mittels „menschengemachter“ Klimamodelle erst für einen zusätzlichen Anstieg der Globaltemperaturen um weitere 1,5°C prognostiziert. Und die besagten 1,5°C bezeichnen exakt das Klimaziel von Paris, das zu einer globalen Dekarbonisierung der Welt bis zum Jahre 2100 herhalten muss. In Wirklichkeit fürchten wir uns also gar nicht vor dem Hitzetod unserer Erde, sondern vor dem, was hinten aus Computern herauskommt – und was anhand exakter Wetteraufzeichnungen über mehr als 150 Jahre wissenschaftlich gar nicht nachzuweisen ist.

Fazit: Ganz offensichtlich lässt sich eine Häufung von Extremwetterereignissen aus den bisher vorliegenden gemessenen Wetterdaten gar nicht herleiten und wird daher in eine hochspekulative Zukunft verlegt. Allein die Zunahme von Medienberichten über weltweite Extremwetterereignisse scheint damit unserer gegenwärtigen Klimarealität zu entsprechen.

Wann also merken die EEG-geschröpften Stromsteuerzahler endlich, dass von den Klimaalarmisten ständig und immer wieder dieselbe Extremwettersau in unterschiedlichen Verkleidungen durchs Mediendorf getrieben wird?
Diese Frage ist sehr schwer zu beantworten, denn sie hängt im Wesentlichen von Intelligenz und Leidensfähigkeit der Betroffenen ab, aber es gibt noch Hoffnung, denn beides ist nicht unbegrenzt.

Und wann merken sogenannte „Klimaforscher“ endlich, dass Klima der Durchschnitt von 30 Jahren Wetter ist und, rückblickend gesehen, bereits mehr als 150 Jahre Wetterdaten für jedweden wissenschaftlichen Beweis von zunehmenden Extremwetterereignissen in den Archiven vorhanden sind?

Die Antwort auf diese Frage ist recht einfach: Gar nicht, die Frösche werden doch ihren Sumpf nicht trockenlegen, denn am Ende stehen hier Arbeitsplätze gegen Arbeitsplätze, also die subventionierten Arbeitsplätze in der Klimaindustrie gegen wertschöpfende  Arbeitsplätze in den Braunkohlerevieren. Und somit ist es menschlich durchaus verständlich, wenn vermehrt innovative Klimazusammenhänge medialisiert werden, damit die Arbeitsplätze in der Klimaindustrie auch weiterhin sicher bleiben. Allerdings stellt sich abschließend dann wiederum die Frage, wer denn diese subventionierten Arbeitsplätze später finanzieren soll, wenn alle wertschöpfenden Arbeitsplätze zwecks Klimarettung „endlich“ abgeschafft worden sind…

 

Ausser Sicht: Ozeanographie für Seereisende

 

 

Wie Veränderungen auf der Sonne unseren Regen beeinflussen

Pressemitteilung des Instituts für Hydrographie, Geoökologie und Klimawissenschaften (IFHGK) vom 10. Februar 2019:

————–

Wie Veränderungen auf der Sonne unseren Regen beeinflussen

Ein ausgewogenes Maß an Niederschlägen bildet die Grundlage vielfältiger wirtschaftlicher und gesellschaftlicher Aktivitäten in Europa. Insbesondere Landwirtschaft, Trinkwasserversorgung und Binnenschifffahrt sind hiervon direkt betroffen. Allerdings schwanken die Regenmengen stark von Jahr zu Jahr. Während es in einem Jahr wie aus Kübeln gießt, bleibt im anderen Jahr der Regen oft wochenlang aus. Die Bevölkerung ist an diese Variabilität gewohnt und weiß in der Regel damit umzugehen. Aber was steckt hinter den starken Veränderungen? Gibt es hier irgendeine Systematik oder handelt es sich um pures atmosphärisches Rauschen?

Die Zufallsentdeckung eines Agrarwissenschaftlers aus Münster deutet nun an, dass der Regen in Deutschland und anderen Teilen Europas in gewissen Monaten einem bislang verborgen gebliebenen Muster folgt. Im Rahmen der Agrarberatung durchforstete Ludger Laurenz die jahrzehntelangen Niederschlagsaufzeichnungen der Wetterstation Münster, wobei ihm besonders im Februar ein ständiges Auf und Ab im 11-Jahresrythmus auffiel. Nach eingehender Prüfung war klar, dass der Rhythmus eng mit der Aktivität der Sonne korrelierte, dem gut dokumentierten 11-jährigen Sonnenfleckenzyklus.

Laurenz tat sich daraufhin mit zwei Kollegen zusammen, um zu überprüfen, inwieweit das beobachtete Muster aus Münster in anderen Teilen Deutschlands und Europas reproduzierbar ist und ob das Phänomen auch in anderen Monaten existiert. Horst-Joachim Lüdecke von der Hochschule HTW des Saarlandes besorgte sich daraufhin die gesammelten Niederschlagsdaten Europas seit Beginn des 20. Jahrhunderts. Der emeritierte Physiker entwickelte einen Rechner-Algorithmus, mithilfe dessen die Ähnlichkeit der Veränderungen im Regen und der Sonnenaktivität bestimmt wurde. Alle 39 europäischen Länder und alle 12 Monate eines Jahres wurden über insgesamt 115 Jahre anhand mathematischer Korrelationen quantifiziert.

Um mögliche Verzögerungseffekte mit einzuschließen, wurden die Datenreihen von Regen und Sonnenflecken dabei auch systematisch auf Verschiebungen hin überprüft. Dazu wurden die Zeitreihen wie Kämme zeitlich gegeneinander schrittweise verschoben und die jeweilige Veränderung des Korrelationsmaßes notiert. Die auf diese Weise erhaltenen mehrdimensionalen Daten wurden vom Geowissenschaftler Sebastian Lüning auf systematische Trends hin ausgewertet und kartographisch visualisiert. Lüning ist mit dem schweizerischen Institut für Hydrographie, Geoökologie und Klimawissenschaften (IFHGK) assoziiert und hat sich auf die Erforschung solarer Klimaeffekte spezialisiert.

Die auskartierten Ergebnisse zeigen, dass die ursprünglich in Münster entdeckte Verknüpfung von Februar-Niederschlägen und der Sonnenaktivität für weite Teile Mitteleuropas und Nordeuropas Gültigkeit und dort sehr hohe statistische Signifikanz besitzt. In Richtung Südeuropa schwächt sich die Korrelation hingegen deutlich ab. Die statistische Untersuchung konnte zudem systematische Phasenverschiebungen über den Kontinent hinweg nachweisen. In Deutschland und Nachbarländern waren die Februar-Niederschläge jeweils besonders gering, wenn die Sonne vier Jahre zuvor sehr stark war. Die Verzögerung scheint über die langsame Tiefenzirkulation des Atlantiks zustande zu kommen, wie frühere Arbeiten andeuten. Auf Basis des statistisch-empirisch ermittelten Zusammenhangs lässt sich nun auch der besonders niederschlagsarme Februar 2018 in Deutschland erklären, der einer besonders hohen Intensitätsspitze der Sonnenaktivität Anfang 2014 folgte.

Ähnliche Zusammenhänge zwischen Regen und Sonnenaktivität ließen sich in abgeschwächter Weise auch in einigen anderen Monaten feststellen, insbesondere im April, Juni und Juli, was einen Großteil der Vegetationsperiode in Mitteleuropa ausmacht. Es entstand ein komplexes Bild des Zusammenspiels von Sonne und Regen in Europa, welches deutliche Trends über 1000 km hinweg erkennen ließ und von Monat zu Monat teils stark variierte. Die Studie erhärtet damit das Konzept einer solaren Beteiligung an der europäischen hydroklimatischen Entwicklung, was sich bereits aus einer ganzen Reihe von lokalen Fallstudien anderer Autoren angedeutet hatte. Der genaue Mechanismus, mit dem das Sonnensignal Einfluss auf die Niederschläge nimmt, ist jedoch noch weitgehend unklar und erfordert weitere Forschungsbemühungen.

Der nun erstmals flächenmäßig über Europa auskartierte solare Niederschlagseffekt eröffnet neue Möglichkeiten für eine verbesserte Mittelfrist-Vorhersage von Niederschlägen. Insbesondere die Landwirtschaft, aber auch die Abwehr von Extremwetterschäden im Zusammenhang mit Starkregen und Dürren könnten davon profitieren. Nächster Schritt bei der Verfeinerung der Vorhersagemethodik ist eine genauere Quantifizierung von Effekten durch atlantische Ozeanzyklen, die für das Regengeschehen speziell in Westeuropa ebenfalls eine wichtige Rolle spielen.

 

Originalpublikation:

Laurenz, L., H.-J. Lüdecke, S. Lüning (2019): Influence of solar activity on European rainfall. J. Atmospheric and Solar-Terrestrial Physics, 185: 29-42, doi: 10.1016/j.jastp.2019.01.012

Das pdf kann bis Anfang März 2019 kostenlos unter der folgenden URL abgerufen werden: https://authors.elsevier.com/a/1YXWZ4sIlkiVhv

 

Klimawandel auf unseren Nachbarplaneten hilft Rolle des CO2 für das Erdklima besser zu verstehen

Die Erde hat sich in den letzten 100 Jahren erwärmt, kein Zweifel. Aber was war der Auslöser der Erwärmung? Ein alleiniges Werk des anthropogenen CO2, wie es der IPCC behauptet, oder eine Folge der Erhöhung der Sonnenaktivität, die in der zweiten Hälfte des 20. Jahrhunderts eine der stärksten Phasen der letzten 10.000 Jahre errreichte? Oder ein Wirkungsgefüge aus beidem?

Gehen wir einmal logisch an die Sache heran. Im Prinzip müsste man doch nur jeweils einen der Faktoren entfernen und dann überprüfen, ob und um wieviel sich die Temperatur verändert. Da sich die Sonne schlecht aus der Gleichung entfernen lässt, da sie während der gesamten Existenz der Erde immer da war und wirkte, müssen wir also Vergleichsfälle wählen, in denen wir das CO2 ausklammern. Es bieten sich dabei zwei Fälle an: Der Blick in die vorindustrielle Zeit der letzten 10.000 Jahre (vor 1850), als die CO2-Konzentration relativ stabil war, sowie die moderne Zeit auf Nachbarplaneten und ihren Monden, auf denen anthropogenes CO2 keine Rolle spielt. Den ersten Fall greifen wir hier im Blog regelmäßig auf und wundern uns, dass es einen sehr dynamischen vorindustriellen Klimawandel gibt, obwohl doch die Sonne laut IPCC-Modellen keine große klimabeeinflussende Wirkung besitzt. Den zweiten Fall griff Mark Perry am 23. Dezember 2018 in der österreichischen Kronenzeitung auf:

Fiebernde Planeten
Gewaltige Staubstürme toben auf dem Mars! Unvorstellbar für uns in ihrer Dimension und Gewalt. Und sie bedecken die Oberfläche mit einer Schicht hellen Staubs. Das aber führt dazu, dass die “Fieberkurve” des Roten Planeten kontinuierlich steigt, weil sich die Rückstrahlfähigkeit der Oberfläche ändert. Durch das sogenannte Albedo wird nämlich gesteuert, wie viel Sonnenenergie der Planet speichert und wie viel er ins All zurückschickt! Funkelnder Mars-Staub auf der Oberfläche reflektiert also das Licht der Sonne und ihre Hitze zurück in den Weltraum. Doch wenn der rötliche Staub durch Winde aufgewirbelt wird, wirft die Oberfläche eben weniger Energie in das Universum zurück.

Weiterlesen auf genios.de (gegen Gebühr).

Im Artikel werden mehrere Arbeiten zitiert, die eine planetenweite Erwärmung des Sonnensystems andeuten sollen. Das wäre spektakulär, denn dies würde ein starkes Argument für einen solar-bedingten Klimawandel auch auf der Erde liefern. Im Artikel werden zwar Forscher und Erwärmungswerte genannt, jedoch keine konkreten Quellen bzw. Veröffentlichungen. Aufgrund der besonderen Bedeutung des Themas, wollen wir die Aussagen im Krone-Artikel kurz vorstellen und dann mithilfe der Litertaur überpüfen. Wie belastbar sind die Aussagen?

Zunächst berichtet Mark Perry über eine Klimaerwärmung auf dem Mars. Dort soll laut Lori Fenton eine Erwärmung von 0,86°C während der letzten 100 Jahre eingetreten sein. Basis sollen Vergleiche mit Viking-Bildern der 1970er sein. Mehr Wärme, mehr Stürme, geringere Albedo, positiver Feedbackmechanismus. Zudem wurde ein Abschmelzen der südlichen Polkappe des Mars beobachtet. Ein vollständiges Abschmelzen gäbe einen “Ozean” von 11 Meter Tiefe auf dem Mars. Wo kommen die Zahlen her? Eine kurzes Googlen fördert ein Paper von Lori Fenton und Kollegen 2007 in Nature zutage (populärwissenschaftlicher Begleitartikel hier):

Global warming and climate forcing by recent albedo changes on Mars
For hundreds of years, scientists have tracked the changing appearance of Mars, first by hand drawings and later by photographs1,2. Because of this historical record, many classical albedo patterns have long been known to shift in appearance over time. Decadal variations of the martian surface albedo are generally attributed to removal and deposition of small amounts of relatively bright dust on the surface. Large swaths of the surface (up to 56 million km2) have been observed to darken or brighten by 10 per cent or more3,4,5. It is unknown, however, how these albedo changes affect wind circulation, dust transport and the feedback between these processes and the martian climate. Here we present predictions from a Mars general circulation model, indicating that the observed interannual albedo alterations strongly influence the martian environment. Results indicate enhanced wind stress in recently darkened areas and decreased wind stress in brightened areas, producing a positive feedback system in which the albedo changes strengthen the winds that generate the changes. The simulations also predict a net annual global warming of surface air temperatures by ∼0.65 K, enhancing dust lifting by increasing the likelihood of dust devil generation. The increase in global dust lifting by both wind stress and dust devils may affect the mechanisms that trigger large dust storm initiation, a poorly understood phenomenon, unique to Mars. In addition, predicted increases in summertime air temperatures at high southern latitudes would contribute to the rapid and steady scarp retreat that has been observed in the south polar residual ice for the past four Mars years6,7,8. Our results suggest that documented albedo changes affect recent climate change and large-scale weather patterns on Mars, and thus albedo variations are a necessary component of future atmospheric and climate studies.

Im Paper, das vor mehr als 10 Jahren erschien, wird eine Erwärmung von 0,65°C auf Basis eines Vergleiches von Albedo-Karten der 1970er und 1990er Jahre festgestellt. Allerdings wurde hieraus kein Langzeittrend geschlossen, wie Lori Fenton auf eine Anfrage von uns dankenswerterweise erläuterte. In den 1970er Jahren hatte es einige große Stürme auf dem Mars gegeben, die hellen Staub über der ganzen Oberfläche verteilte, was die Albedo erhöhte und den Mars damit kühlte. Als die Bilder in den 1990er Jahren gemacht wurden, war es windstiller mit weniger hellem Staub, so dass die dunkle Oberfläche des Mars hervorkam. Das führte zu einer geringeren Albedo, weniger rückgestrahlter Sonnenenergie und somit höheren Temperaturen auf dem Mars.

Im Kronenartikel wird auch der Triton erwärmt. Laut  James L. Elliott soll sich der Neptunmond seit 1989 um 2°C erwärmt haben, von -236 auf -234°C. Dies basiert offenbar auf Studien von 1998. Gerne würden wir Elliott fragen, wie denn der neueste Stand der Dinge ist. Allerdings verstarb der Forscher bereits 2011. Mittlerweile wurde ein Pluto-Krater nach ihm benannt. Auch auf dem Pluto hatte James L. Elliott 2002 eine Klimaerwärmung festgtestellt. Seit 1989 soll dort die Temperatur um 1°C angestiegen sein. Auch hier fehlen jedoch neuere Daten.

Einen Klimawandel auf der Venus beschrieb das Institute of Space and Astronautical Science (ISAS), Teil der Japan Aerospace Exploration Agency (JAXA) am 24. Januar 2019. Dort haben sich in den letzten 30 Jahren die Winde verändert:

Peralta next looked beyond the Akatsuki data, comparing results from previous Venus missions stretching back to 1978. While it is challenging to compare results from instruments on different spacecraft and ground-based telescopes, Peralta’s results implied that the speeds of Venus’s winds have shifted over the last thirty years. Such a discovery is not only consistent with a solar driver but may be suggestive of the first detection of climate change on another planet.

“If solar tides drive the super-rotating winds, this may imply that the cloud albedo (how reflective the clouds are) may have changed over time and affected the impact of the solar radiation,” Peralta explains.

Such a result is good news for tidally locked worlds. If Venus’s super-rotating winds can be driven by the Sun, then maybe such rapid circulation could be common on slow rotating but potentially more temperate worlds around other stars. While the weather beneath a super-rotating atmosphere would be very different from that on Earth, it might allow the planet to retain its atmosphere and even the desired surface conditions for life. By comparing the two Earth-sized planets in our own Solar System, we may learn much more about what it takes to be a habitable world.

Es wäre schön, wenn es systematischere Daten zur Temperaturentwicklung der Planeten im Sonnensystem gäbe. Würde sich wirklich herausstellen, dass sich die Planeten und ihre Monde in den letzten 100 Jahren aufgeheizt haben, wäre dies ein wichtiger Hinweis auf eine bedeutende Beteiligung der Sonnenaktivität für das Erdklima.

 

Gletscher in den südamerikanischen Tropen haben deutlich weniger Masse verloren als bisher hochgerechnet

Pressemitteilung der Friedrich-Alexander-Universität Erlangen-Nürnberg vom 15. Januar 2019:

——-

Mit Satelliten den Eisverlust von Gletschern messen:
Geographen der FAU untersuchen Gletscher Südamerikas so genau wie nie zuvor

Wer historische Fotos von Gletschern mit aktuellen Aufnahmen vergleicht, wird feststellen, dass mittlerweile häufig Fels zu sehen ist, wo einstmals Eis lag. Geographen interessieren sich jedoch nicht vorrangig für die Ausdehnung, sondern vielmehr für die Masse eines Gletschers. Forscher der FAU haben erstmals alle vergletscherten Gebiete Südamerikas so detailliert wie nie untersucht – von tropischen Gebieten Venezuelas bis in subpolare Regionen Feuerlands. Ihre zwei wichtigsten Erkenntnisse: Die größten Massenverluste gibt es im patagonischen Inlandeis und die Gletscher in den Tropen haben deutlich weniger Masse verloren als bisher hochgerechnet – was aber trotzdem keine gute Nachricht ist. Ihre Ergebnisse haben die Forscher jetzt im Fachmagazin Nature Climate Change veröffentlicht.*

Dass Gletscher vermessen werden, ist nichts Neues. Zwei Methoden kommen dabei besonders häufig zum Einsatz: Entweder nehmen Forscher einige Messungen direkt an einem Gletscher vor und rechnen die Ergebnisse auf ganze Regionen hoch. Das ist besonders in großen Gletschergebieten wie den großen Eisfeldern in Patagonien problematisch, da von dort kaum solche In-situ-Messreihen vorliegen. Die andere Möglichkeit sind sogenannte Schwerefeldmessungen mit Hilfe von Satelliten. Dafür machen sich Wissenschaftler die Tatsache zu Nutze, dass sich die Schwerkraft auf der Erde nicht nur je nach Ort, sondern auch im Zeitverlauf verändert. Sie wird unter anderem durch die unterschiedliche Zusammensetzung der Erdoberfläche, Gebirgsmassive, Bewegungen im Erdkern und Plattenverschiebungen beeinflusst – oder eben wenn Gletscher an Masse verlieren. Ein Nachteil dieser Methode: Sind nur kleine Gebiete von Gletschern bedeckt wie in den südamerikanischen Tropen, ist das Signal, das der Satellit empfängt schwach und die Messung wird sehr ungenau.

Ein Messverfahren für alle Gletscher

Die FAU-Geographen aus den Bereichen Fernerkundung und Geoinformation sowie physikalische Klimatologie um Prof. Dr. Matthias Braun und Dr. Tobias Sauter haben für ihre Vermessung der südamerikanischen Gletscher zwar ebenfalls auf Satellitendaten gesetzt, jedoch auf Höhenmessungen und nicht Schwerefeldanalysen. Seit 2010 kreisen zwei Radarsatelliten des Deutschen Zentrums für Luft- und Raumfahrt (DLR) um die Erde. Ziel der TanDEM-X-Mission war ein dreidimensionales Abbild der Erde in einheitlicher Qualität und bislang unerreichter Genauigkeit – Höhenunterschiede im Gelände wurden auf einen Meter genau erfasst. Diese Daten aus dem Zeitraum 2011-2015 nutzten auch die FAU-Geographen und verglichen sie mit Messungen der Shuttle Radar Topography Mission aus dem Jahr 2000. Aus den Differenzen berechneten sie in einem komplexen Verfahren – unter anderem mussten sie verschiedene Korrekturen und Fehlerberechnungen durchführen – die Höhenveränderungen in den Gletscherregionen Südamerikas und daraus die Veränderungen der Gletschermassen. Das Besondere daran: Sie konnten mit einem einheitlichen Messverfahren alle vergletscherten Gebiete in der Region erfassen. Zudem lieferte die Methode sogar präzise Daten für einzelne Gletscher. Durch den Vergleich der Messungen aus den beiden Raumfahrtmissionen entstand so ein detailliertes Bild für ganz Südamerika. Erstmals war es den Forschern auch möglich, die großen patagonischen Inlandeisflächen getrennt von umliegenden, kleineren Gletschern zu analysieren.

Ganze Gletscher verschwunden

Die größte Abnahme, sowohl absolut als auch relativ im Vergleich zu den anderen südamerikanischen Gletschern, stellten sie bei den beiden Patagonischen Inlandeisfeldern fest – zwei Gebiete, die mit einer Fläche von rund 18.000 Quadratkilometern in etwa so groß sind wie Rheinland-Pfalz. Die Masse der Gletscher ist dort zwischen 2000 und 2011/15 um rund 17,4 Gigatonnen pro Jahr geschrumpft, das entspricht 19,3 Kubikkilometer pro Jahr. Selbst Gletschergebiete, die in den Tropen liegen, haben nicht einen derart hohen Anteil ihrer Masse verloren. Der Grund dafür könnte sein, dass die großen Auslassgletscher in Patagonien, die nach engen Tälern zum Beispiel ins Meer oder in Seen fließen, eine dynamische Anpassung unterlaufen: Sie haben sich von einer stabilen Position zurückgezogen und müssen erst wieder eine neue stabile Front ausbilden. Diese Prozesse sind für Gezeitengletscher, die im Meer enden, bekannt und  zunächst unabhängig von klimatischen Einflüssen, auch wenn diese Auslöser gewesen sein können. Dieses Phänomen spielt bei großen Gletschern, wie sie in Patagonien vorkommen, sogar eine bedeutendere Rolle als Einflüsse durch Temperaturänderungen. Was die Wissenschaftler bereits bei vorhergehenden Untersuchungen festgestellt hatten: Ganze Gletscher sind in Patagonien verschwunden – ein Ergebnis, das zwar für andere Gebiete in Bolivien bereits bekannt war, nicht jedoch in Patagonien.

Rückgang in Tropen geringer

Die zweite wichtige Erkenntnis: Die Massenänderungen der Gletscher in den tropischen Regionen Südamerikas, in Venezuela, Kolumbien, Ecuador, Peru und Bolivien, sind deutlich geringer als bisher gedacht. So kamen bislang Hochrechnungen zu dem Ergebnis, dass die rund 2900 Gletscher dort eine Massenänderung von rund 6 Gigatonnen pro Jahr zeigen. Die FAU-Geographen haben jedoch herausgefunden, dass es nur 0,55 Gigatonnen pro Jahr sind, also nur rund 10 Prozent der bisherigen Schätzungen. Dieses Ergebnis ist deshalb wichtig, da in den tropischen und subtropischen Regionen die Gletscher relevant für die Wasserversorgung in der Trockenzeit sind: Wenn kein Regen fällt und die Temperaturen am höchsten sind, wird aus dem Schmelzwasser der Gletscher Trinkwasser gewonnen, werden damit Pflanzen bewässert und Kraftwerke angetrieben. Gerade für diese Regionen ist es daher wichtig zu wissen, wie stark sich die Gletscher ändern – und dafür sind quantitative Aussagen zu den Volumina und Massen von Bedeutung, nicht nur zu den Flächenänderungen. In einigen Gebieten wie den zentralen Anden von Chile und Argentinien oder der Cordillera Real in Bolivien gehen Experten sogar davon aus, dass die maximale Wassermenge durch Abschmelzen bereits überschritten ist. Das ist ein Hinweis darauf, dass Gletscher unaufhaltsam auf dem Rückzug sind und in absehbarer Zeit ganz verschwunden sein werden. Diese Gebiete werden also in Zukunft in der Trockenzeit mit weniger Wasser rechnen müssen.

Im Rahmen der Studie wurden jedoch auch einige Gebiete erstmals systematisch untersucht, die kaum Änderungen zeigten wie zum Beispiel die Anden im nördlichen Chile und Argentinien sowie im südlichen Bolivien auf der geographischen Breite der Atacama-Wüste.

Die Erlanger Forscher hoffen nun, dass ihre Studie Eingang in den nächsten Bericht des Weltklimarats findet – schließlich trägt ein Teil des abgeschmolzenen Gletschereises zum Anstieg der Meeresspiegel bei, vor allem die riesigen Eisflächen in Patagonien sind dafür relevant. Doch auch für andere Übersichtsanalysen werden Gletscher als ein Indikator für Klimaänderungen herangezogen. Die FAU-Geographen möchten nun ihre Analysen weiter ausdehnen auf andere Regionen und vor allem zeitlich fortschreiben. Derzeit läuft eine Aktualisierung des globalen Geländemodells der TanDEM-X-Mission – die Forscher hoffen, von diesen Daten in Zukunft profitieren zu können. Zudem setzen sie auf weitere geplante nationale Missionen wie die Tandem-L-Satelliten, die unter anderem solche Messungen mit höherer zeitlicher Wiederholungsrate ermöglichen würden.

*Paper: https://doi.org/10.1038/s41558-018-0375-7

 

Jörg Kachelmann kritisiert faktenfreie Wetterberichterstattung

Greenpeace hat sich im Laufe der Zeit zu einem Unternehmen entwickelt, das pro Jahr eine dreistellige Millionensumme umsetzt. Ein kürzlicher Bericht einer Gruppe um Willie Soon sowie den ehemaligen Greenpeace Mitbegründer Patrick Moore hat nun ein Portrait von Greenpeace zusammengestellt, das das “Geschäftsmodell” der Organisation durchleuchtet, welches auf dem Faktor “Angst” basiert. In einer Übersicht auf heartland.org beschreiben die Autoren die Strategie wie folgt:

Greenpeace is a very successful business. Their business model can be summarized as follows:

1) Invent an “environmental problem” which sounds somewhat plausible. Provide anecdotal evidence to support your claims, with emotionally powerful imagery.

2) Invent a “simple solution” for the problem which sounds somewhat plausible and emotionally appealing, but is physically unlikely to ever be implemented.

3) Pick an “enemy” and blame them for obstructing the implementation of the “solution”. Imply that anybody who disagrees with you is probably working for this enemy.

4) Dismiss any alternative “solutions” to your problem as “completely inadequate”.

Das pdf des Berichts können Sie hier herunterladen. Deutsche Zusammenfassung auf EIKE hier. Einen dazugehörigen Beitrag von Andy May gibt es hier. Passend dazu kam Ende Dezember 2018 ans Licht, dass Greenpeace seine ausgemusterten Schiffe in Bangaldesch am Strand auseinanderschweißen lässt, eine Praxis, die die Organisation jahrenlang aufs heftigste bekämpft hat. Ein schönes Beispiel dafür, wie hier wieder einmal mit zweierlei Maß gemessen wird.

————————-

Weltwoche am 23. Januar 2019:

Wir basteln uns eine Klima-Ikone

Am WEF wird das 16-jährige Poster-Girl des Klimaschutzes, Greta Thunberg, umschwärmt. Ihre schwedische Kollegin Izabella Nilsson Jarvandi, 15, findet kaum Gehör. Warum wohl?

Man kann ohne Übertreibung sagen, dass die sechzehnjährige Schwedin Greta Thunberg eine der prominentesten Klimaschutzaktivistinnen unserer Zeit ist. Sie hat rasch weltweit Bekanntheit erlangt und ist inzwischen so etwas wie eine Expertin auf diesem Gebiet. Kein Wunder, dass sie am diesjährigen Weltwirtschaftsforum teilnimmt – aus Gründen des Klima- und Umweltschutzes fährt sie aus Skandinavien mit der Bahn nach Davos. Thunberg hat es auch geschafft, ihre Eltern dazu zu bringen, künftig auf Flugreisen zu verzichten, wie sie kürzlich in der Talkshow «Skavlan» erzählte, die in Schweden und Norwegen ausgestrahlt wird. Kaum jemand weiss, dass sie ihre Bekanntheit einer PR-Kampagne verdankt. Gleichzeitig kämpfen andere Teenager, wie etwa die fünfzehnjährige Izabella Nilsson Jarvandi, gegen die Globalisierung und den Uno-Migrationspakt. Doch in den Mainstream-Medien finden nur politisch korrekte Stimmen Gehör.

Weiterlesen in der Weltwoche.

Am selben Tag erschien in der Weltwoche ein lesenswerter Beitrag von Jörg Kachelmann:

Essay der Woche: Jörg Kachelmann
Nachrichten aus dem Paralleluniversum

Bei manchen Dingen weiss man nicht, wann sie begonnen haben. Aber irgendwann hat es angefangen, das mit der faktenfreien Wetterberichterstattung.

Ältere Menschen erinnern sich noch, wie es war, als das Wetter sich noch einigermassen normal verhielt. Es hat im Winter geschneit, manchmal und ausnahmsweise noch in den Frühling hinein. Der Sommer zeigte sich mal nass, zuweilen trocken, mal kühl und zwischendurch auch heiss. Es schien uns nicht ungewöhnlich, wir kleideten uns entsprechend und wurden durch das Auftreten der Jahreszeiten nicht weiter überrascht. Es gab Kalender, und wir ahnten, was es bedeutete, wenn wir uns im Januar befanden.

Disentis als «Geisterstadt»

Heute sind diese früheren Selbstverständlichkeiten («Was das Grosi noch wusste») verlorengegangen. Herrschen völlig jahreszeitengemässe 5 Grad unter null am Morgen, erschreckt einen ein grosser Aufmacher im Online-Teil der früher ehrwürdigen Frankfurter Allgemeinen Zeitungmit dem Titel «Deutschland muss frieren». Die kürzlich in den Wintersportgebieten sehr willkommenen Schneefälle erfuhren ein Upgrade zur Schneekatastrophe, ein Schweizer Gratisblatt machte Disentis, das wegen Lawinengefahr für sehr kurze Zeit von aussen nicht mehr erreichbar war, zur «Geisterstadt», und wer regelmässig Radio hört, wird von sturzbetroffenen jungen Menschen an milden Wintertagen vernehmen, dass es draussen «frostige [plus] 10 Grad» kalt sei.

Vor allem Online-, immer häufiger auch Printmedien kreieren so ein Paralleluniversum, das wir jeden Tag bewundern dürfen. Zuletzt, als den staunenden Deutschen am vergangenen Wochenende beschieden wurde, sie würden vor einer vier Wochen dauernden Periode «sibirischen Winters» stehen. Das war von Anfang an frei erfundener Blödsinn, nur für den Klick, für den Augenblick.

Die moderne Medienwelt, in welcher das Anklicken einer Geschichte zum Mass aller Dinge und zur Basis der Bezahlung durch Werbekunden geworden ist, hat bei den meisten Journalisten jegliche Hemmungen fallen lassen, was den Umgang mit der Wahrheit angeht. Es gibt keinen Tag, an dem nicht im Zusammenhang mit Wetter und Klima völliger Humbug zu lesen ist. Die Spannweite reicht von grotesken Übertreibungen über falsche Einordnungen eines Ereignisses bis zu – wie bei den «sibirischen Wochen» – freien Erfindungen von Nachrichten. Diese werden häufig mit alliterationsaffinen Attributen garniert, die mit der Gründung des medialen Paralleluniversums einhergehen: «Russenpeitsche», «Kältekeule», «Schneeschelle».

Weiterlesen in der Weltwoche für Abonnenten. Den Text gibt es auch bei EIKE.

 

Fritz Vahrenholts Sonnenkolumne 01/19: Klimatische Überraschungen

7. Februar 2019

Sehr geehrte Damen und Herrn,

die Sonnenaktivität war auch im Dezember 2018 sehr unternormal. Die Sonnenfleckenzahl betrug lediglich 3,1 - deutlich unter dem Mittelwert aller bisherigen Sonnenzyklen. An 24 Tagen war die Sonne fleckenfrei. Wir befinden uns mitten im Minimum des Sonnenzyklus.

Klimaüberraschungen

Im Januar 2019 erschien in Science eine lesenswerte Arbeit von Geoffrey Gebbie  und Peter Huybers mit dem Titel “The Little Ice Age and the 20th-century deep Pacific cooling”. Das Ergebnis : der Pazifik hat sich in der Tiefe abgekühlt von 1870 bis heute, der Atlantik nicht. Die Zirkulation der Tiefsee bringt es mit sich, dass die pazifischen Tiefen noch heute von der mittelalterlichen Warmperiode (MWP, etwa 950 bis 1250) und dem Übergang zur kleinen Eiszeit (ca.  1500-1800) beeinflusst werden. Das erwärmte Wasser von vor 1000 Jahren braucht so lange, bis es im Pazifik in Tiefen um 3000 m ankommt! Das impliziert zweierlei: Die MWP war ein globale Erwärmung von vergleichbarer Größe der heutigen Erwärmung, wie wir es auch im Projekt MWP  und in mehreren Veröffentlichungen (hier, hier, hier) nachweisen. Die IPCC-Modelle können diese Erwärmung nicht abbilden, sie versagen in der Rückschau.

Warum ist diese Veröffentlichung so wichtig? Im Jahre 1750 war das Klima eben noch nicht im Gleichgewicht, wie es die Modelle voraussetzen. Weil die Modelle die Erwärmung seit 1750 auf anthropogene Anteile zurückführen, vernachlässsigen sie,dass noch Restwärme aus der MWP in den Tiefenwässern des Pazifik vorhanden war. Das Wachstum im Gesamtwärmeinhalt der Ozeane  bis heute ist also kleiner, als die Modelle annehmen. Anders ausgedrückt: Die Empfindlichkeit des Klimas gegenüber CO2 ist deutlich kleiner als bisher angenommen. Der IPCC-Bericht müsste also grundlegend überarbeitet werden.

Es spricht also viel dafür, dass die Temperaturerhöhung bei Verdoppelung von CO2  nicht 1,85 °C (IPCC) sondern eher allenfalls 1,3 °C beträgt. Eine Überschreitung der 1,5°/2 °C- Ziele in diesem Jahrhundert ist nicht zu befürchten. Wir hätten also wesentlich mehr Zeit – bis zum Ende des Jahrhunderts-, um auf eine CO2- arme Energieversorgung umzustellen. Diese Erkenntnis hätte umwälzende Auswirkungen auf die Politik, wenn diese sich nicht allein auf Berater wie Prof. Schellnhuber stützen würde, der uns ja eine Erwärmung von 6-8°C prophezeit.

 

Bundesregierung gibt die gesicherte Energieversorgung Deutschlands auf

Die Bundesregierung hat die Ergebnisse der Kohlekommission begrüsst und wird diese umsetzen. Danach werden bis zum Jahre 2022  Kohlekraftwerke mit 12700 MW stillgelegt, bis 2038 insgesamt 52100 Megawatt (einschl.Kernkraftwerke). Die heutige Höchstlast beträgt etwa 75 000 Megawatt. Die Kosten werden auf 80 Milliarden geschätzt. Eine selbst von der Kommision eingeräumte Strompreiserhöhung von 1,5 € ct/kwh wird den Industriestrompreis für die Aluminium-, Stahl-, Metall- und chemische Industrie um 40 % erhöhen. Das hat Auswirkungen auf die Wettbewerbsfähigkeit dieser Industrien.

Die Bundesregierung will diese Preiserhöhung aus dem Bundeshaushalt kompensieren. Ob die EU-Komission das mitmacht, steht in den Sternen.
Der Wirtschaftsminister Altmaier erklärte zum Kohleausstieg “Die Versorgungssicherheit ist gewährleistet.” Er weiss es besser und sollte uns nicht anlügen. Schon Mitte Januar konnte in Deutschland die Stromversorgung nur dadurch gesichert werden, dass Grossverbraucher wie die Aluminiumindustrie mit 1025 MW für drei Stunden vom Netz genommen wurden. Bereits in 2018 musste die Aluminiumindustrie 78 Abschaltungen erdulden (siehe meinen Vortrag vor der Stiftung Marktwirtschaft  vom 8.2. 2019). Die Bundesnetzagentur befürchtet ab 2022 “erhöhte Wahrscheinlichkeit von Lastabschaltungen, erhöhtes Risiko von Großstörungen”.

Wie will die Kommission den Wegfall von gesicherter Leistung ausgleichen? “Um die Nachfrage jederzeit zu decken …, muss  die Flexibilisierung der Nachfrage vorangetrieben werden” (S. 21 des Berichts) Das bestätigt unsere Vermutung, dass  der Lastabwurf zum neuen energiepolitischen Credo erhoben wird, also die Abschaltung von Industriebetrieben und Regionen, so wie wir es aus Schwellenländern kennen.

Das nächste Mittel zum Ausgleich ist “der Einsatz von Erneuerbaren Energien, Speichern und Power-to gas” ( S.8 des Berichts). Damit wir wissen, worüber wir reden : um eine 10 -tägige Windflaute durch Batteriespeicher zu überbrücken, brauchen wir etwa 16 Terawattstunden Strom. Dies erfordert bei Speicherkosten von 100 €/kwh (die heute noch nicht erreicht werden) 1600 Milliarden an Investitionen. Um die Schwankung eines Jahres auszugleichen 4000 Milliarden € Investitionen – alle 8-10 Jahre.Der Strom wäre dann dreimal so teuer wie heute. Zu Power-to-Gas reichen zwei Zahlen: heutige Gestehungskosten etwa 50 €ct/kwh. Börsenpreis heute 4-4,5 €ct/kwh.

 

Gesicherte Leistung durch Windkraft ?

Ernst machen will man mit dem Zubau durch Windkraftanlagen : Es ” müssen für Windenergieanlagen und Freiflächen-PV Flächen in relevanter Göße ausgewiesen, akzeptiert und genehmigt werden” (S. 21 des Berichts). Bei Verdoppelung der Windkraftankagenzahl steht durchschnittlich alle 2,7 km eine Windkraftanlage. Naturschutz? Bürgerbetroffenheit? Muss akzeptiert werden. Dabei sollte zumindest die Bundesregierung wissen, dass heutzutage schon nahezu die Hälfte der erzeugten Windenergie ins Auslands verschoben wird. Wir zahlen 27 Milliarden EEG-Kosten pro Jahr und fast die Hälfte (S.6 der Präsentation) der ach so stolzen 18 % Windstrom aus 2018 gehen über die Grenze aus Netzstabilitätsgründen.

Aber wir retten das Klima. Wirklich?  Für 80 Milliarden Steuergelder werden die heutigen Emissionen von 256 Mio t aus dem Stromsektor auf etwa 100 Mio t reduziert, denn ohne teurere Gaskraftwerke (mit der Hälfte der CO2-Emission wie Steinkohlekraftwerke), das sieht selbst die Kommission, geht es ganz und gar nicht. Das sind also etwa 500 €/t CO2. Der heutige CO2-Preis liegt bei 20 €/t. Es geht also nicht um Wirtschaftlichkeit, Wettbewerbsfähigkeit, es geht um den spektakulären Vorgang des Aussteigens, Abschaltens, Stillegens.

Aber wir  wollen ja ein Vorbild sein. Für wen? Bis 2030 bauen China mit 280 000 MW und Indien mit 174 000 MW die zehnfache Kohlekapazität auf. Woher ich die Zahlen habe? Das sind die offiziellen Notifizierungen zum Pariser Klimaschutzabkommen durch China und Indien. Wir sparen 150 Mio Tonnen ein und China wird bis 2030 10 Milliarden Tonnen zusätzlich ausstossen.In 62 Ländern der Erde werden in den nächsten Jahren 1600 Kohlekraftwerke gebaut. Viele davon mit chinesischer Hilfe.

Aber die Bürger scheinen das alles gut zu finden. 59% sprechen sich für eine baldigen Ausstieg aus der Kohle aus. Die Grünen liegen in den Umfragen bei 20% und die neunmalkluge Greta Thunberg wird von den deutschen Medien gefeiert. Was die Bürger wahrscheinlich nicht wissen, ist, dass zwei Drittel der Kohlekraftwerke durch Kraft-Wärme-Kopplung für Haus-und Industriewärme sorgen. Dann müssen wir uns wohl warm anziehen.

Herzlichst
Ihr
Fritz Vahrenholt

 

Spiegel räumt ein: Klimawandel-Artikel von Claas Relotius in wesentlichen Punkten gefälscht

Der Fall Claas Relotius schlug Ende 2018 hohe Wellen. Immer wieder hatte sich der hochgepriesene Redakteur Fakten selber ausgedacht. Da wundert es nicht, dass Relotius auch an Themen wie dem Klimawandel mitgeschrieben hat. Spiegel.de am 30. November 2018:

London, Paris und Polen sind untergegangen
Der Meeresspiegel steigt unaufhaltsam, für den Weltklimarat hat die Sintflut bereits begonnen. Welche Orte lohnt es zu schützen, welche nicht? Und was genau heißt das für die Menschen? Die Szenarien.  (Hören Sie hier die Geschichte 58:47 Minuten)
Von Uwe Buse, Hauke Goos, Laura Höflinger, Alexander Jung, Timofey Neshitov, Marc Pitzke, Claas Relotius, Alexander Smoltczyk

Ein Anreißer der von Klimaalarm nur so trieft. Ulli Kulke hat den Artikel am 27. Januar 2019 auf Achgut.com analysiert:

Klima: Mit Relotius unter dem Meeresspiegel

[...] In der langen Titelgeschichte des Spiegel am 1. Dezember 2018 konnte man über diese drei Orte auf dem Atoll Kiritimati, das zu Kiribati gehört, dies hier lesen:

„Und jetzt standen London, Paris, Polen zur Hälfte unter Wasser. Wellen erhoben sich auf der einen Strandseite und fielen, so wenig Land war übrig, auf der anderen wieder ins Meer. Die Seedeiche, die Wellenbrecher aus Mangroven und die Schutzmauern aus Beton hatten nicht gehalten, die Bewohner hatten ihre Häuser aufgegeben und ihre Heimat dem Ozean überlassen: London, Paris und Polen sind untergegangen“.

Dramaturgisch hingeführt auf diese Untergangsszene hatte Relotius noch mit einer anrührenden Anekdote:

„Vor ein paar Wochen stieg Ioane Teitiota, Bewohner der Inselrepublik Kiribati, eines der entlegensten Staaten der Erde, in ein Fischerboot und fuhr gemeinsam mit sechs anderen Männern zum Verwandtenbesuch nach London, Paris und Polen. Die Überfahrt dauerte acht Tage. Als sie ankamen, waren London, Paris und Polen so gut wie menschenleer.“

Auf jenen Teitiota werden wir hier noch zurückkommen. Doch zunächst mal sind wir ja doch vom Hocker gerissen von dieser Symbolkraft. Auch noch die europäischen Namen Paris, London, Polen, ein Menetekel dafür, was mit den beiden Millionen-Metropolen und dem gesamten ostmitteleuropäischen Land, mit uns allen dereinst geschehen wird, wenn die Menschheit nicht innehält. Deshalb die ständige Wiederholung: London, Paris, Polen. Als hätte der Herrgott selbst die Wellen über genau diese Ortschaften geführt, nur um Relotius zu leiten und die Spiegelleser in den fernen, für all dies verantwortlichen Ländern wachzurütteln.

Leider war nichts davon wahr, alles erstunken und erlogen. Der Spiegel-Reporter selbst war es, der da Herrgott gespielt hatte.

Ganzen Beitrag auf achgut.com lesen.

Spiegel.de räumt die Fehler mittlerweile ein und stellt dem Artikel den folgenden Disclaimer voran:

Dieser Text des ehemaligen SPIEGEL-Redakteurs Claas Relotius hat sich nach einer Überprüfung in wesentlichen Punkten als gefälscht herausgestellt. Darüber hinaus steht die gesamte Berichterstattung von Relotius im Verdacht weitgehender Fälschungen und Manipulationen (mehr zu den Hintergründen lesen Sie hier). Der SPIEGEL arbeitet den Fall Relotius derzeit auf; Verlag und Redaktion haben eine Kommission aus internen und externen Fachleuten eingesetzt: Sie soll die Vorgänge untersuchen und Vorschläge zur Verbesserung der Sicherungssysteme im Haus machen (mehr dazu hier). Bis die Kommission ihren Bericht vorlegt, bleiben die Artikel von Relotius unverändert im Archiv, auch um transparente Nachforschungen zu ermöglichen.

——————–

Im Rahmen der 12. Internationalen Klima- und Energiekonferenz in München am 23. und 24.11.2018 hielt der Klimaforscher Henrik Svensmark einen sehenswerten Vortrag mit dem Titel “Der Einfluss kosmischer Strahlung auf das Klima“. Hier das Vortragsvideo (mit Dank an EIKE):

 

Weitere Hintergrundinformationen (übernommen von EIKE):

Professor Svensmark ist einer der führenden Physiker auf dem Gebiet der Klimaforschung im Zusammenhang mit kosmischer Strahlung. Diese Strahlung stammt nicht von der Erdsonne, sondern von weit entfernten Sternen, die als Supernova endeten und ihre Produkte, meist extrem schnell fliegende Eisenatome, in den Kosmos schleuderten. Diese auf die Erdatmosphäre treffenden Teilchen würden vom Sonnenwind in ihrer Zahl deutlich vermindert. Steige die Sonnenaktivität, sinke somit der Einfluß der kosmischen Strahlung auf die oberen Luftschichten/ Troposphäre. Als Anzeiger diene hiefür das radioaktive Kohlenstoffisotop C14, welches nach dem Aufprall von kosmischen Teilchen auf irdische Luftmoleküle in einer Kaskade entstehe. Komme das C14 nach einiger Zeit am Boden an, würde es zum Teil in Lebewesen eingebaut und könne heute in Fossilien nachgewiesen werden. Andere Kaskadenprodukte wie Aluminium Al26 oder Beryllium Be10 fänden sich im Eispanzer der Erdpole, da diese Teilchen aerosolisierten und als Kondensationskeim für Schneeflocken oder Wolkentröpfchen dienten. Tatsächlich korreliere die Wolkenbildung zwischen 1985 und 2005 eindeutig mit dem kosmischen Strahlungseintrag.

 

Guter Klimarealismus braucht Förderer: Unterstützer für das Kalte-Sonne-Blog gesucht

UPDATE 9.2.2019:
Allen Spendern der letzten Wochen ein ganz herzliches Dankeschön! Mit Ihrem Beitrag helfen Sie, den Betrieb des Kalte-Sonne-Blogs aufrecht zu erhalten. Falls Sie noch nicht die Gelegenheit hatten sich zu beteiligen: Wir freuen uns weiterhin über alle Spenden zur Förderung einer fairen Klimadebatte.

—————-

Liebe Leser,

Seit Februar 2012 berichten wir hier im Kalte-Sonne-Blog täglich über aktuelle Klimathemen aus einer klimarealistischen Sichtweise, die in anderen Medien oft zu kurz kommt. Wir kommentieren, kritisieren oder loben, ohne durch eine übergeordnete Institution eingeschränkt zu sein. Dabei erlauben wir uns, allein der wissenschaftlichen Logik und dem Common Sense zu folgen. Diese Freiheit bedeutet jedoch auch, dass uns keine staatlichen oder anderweitigen Fördergelder zur Verfügung stehen.

Im Gegensatz zu anderen Blogs wie etwa dem aktivistischen Klimareporter° werden unsere Autoren auch in Zukunft ehrenamtlich für Sie tätig sein. Allerdings gibt es andere Kosten, wie etwa den Webseitensupport, mobilen Internetzugang, Bildrechte oder Fachliteratur, für die wir bei Ihnen um Unterstützung werben wollen. Falls Sie unsere Arbeit fördern möchten, freuen wir uns über Ihre Spende – egal ob klein oder groß.

Spenden über Paypal:

 

Wer lieber per Bankkonto überweisen möchte: Kontoinformationen gibt es über das Kontaktformular.

Vielen Dank für Ihre Hilfe im voraus!

Mit den besten Grüßen
Ihr Kalte-Sonne-Team

 

FAZ: Klimaschutz als Religion

Lesenswerter Kommentar von Holger Steltzner in der FAZ am 1. Februar 2019:

Klimaschutz als Religion

Die Bundesregierung erhebt das Klima weit über andere wichtige Politikfelder wie Soziales oder Wirtschaft. Darf man hoffen, dass die Union doch noch zur Besinnung kommt?

Will das Land der Erfinder von Otto- und Dieselmotoren diese wirklich abschaffen? Oder besinnen sich deutsche Politiker noch und stoppen die Zerstörung der wirtschaftlichen Herzkammer Deutschlands? Immerhin hat München nachgemessen und festgestellt, dass die Luft sauberer als befürchtet und vom Landesumweltamt gemessen sei. Das Bundesumweltamt hat übrigens mitgeteilt, dass die Feinstaubgrenzwerte in keinem deutschen Ballungszentrum mehr überschritten werden. Mal sehen, welchem Medium das heute eine Meldung wert war. Hoffentlich messen viele andere Städte ebenfalls nach, um Fahrverbote zu vermeiden. Hilft es dem Weltklima, wenn hiesige Dieselautos in Osteuropa fahren oder deutsche Kohlekraftwerke in Schwellenländern betrieben werden?

Weiterlesen in der FAZ

———————–

Zwecks pflichtschuldigem täglichen Klima-Alarm, griffen die TV-Nachrichten-Redakteure von SRF am 14. Dezember 2018 wieder einmal zum alten Trick, eine Sanddünen-Insel, die sowieso wegen natürlicher Erosions und Verlagerung-Vorgänge nur bedingt für eine dauerhafte Besiedlung taugt, zum Klimawandel-Opfer zu stigmatisieren. Siehe hier in den Spätabend-Nachrichten “10 vor 10″ im 5. Beitrag der Sendung:

Verschwindet Tangier unter dem Meerspiegel?
Während die UNO-Konferenz in Polen immer noch um konkrete Schritte gegen den Klima-Wandel ringt, bezweifeln viele Bewohner und Bewohnerinnen der kleinen US-Insel Tangier einen Zusammenhang zwischen der Klima-Erwärmung und dem Anstieg des Meeresspiegels.

Interessant im Beitrag ist, dass die Einwohner der Insel Tangier/Virginia durchaus wissen und auch zum Ausdruck bringen, dass die natürliche Erosion das Hauptproblem für die Insel darstellt und nicht der Meeresspiegel-Anstieg durch den Klimawandel. Deshalb werden die Leute als naive Trump-Jünger dargestellt, die nicht wirklich verstehen, was Sache ist.

———————–

Welt.de bot am 20. Dezember 2018 dem Klimaalarm eine fragwürdige Bühne:

Klimawandel verständlich erklärt: Studenten im Selbstverlag
Eine populärwissenschaftliche Erklärung des Klimawandels entwickelt sich zum Verkaufserfolg. Autoren sind die Studenten David Nelles und Christian Serrer, die das 130 Seiten starke Büchlein «Kleine Gase, große Wirkung: Der Klimawandel» im Selbstverlag veröffentlicht haben. Wenige Wochen nach dem Verkaufsstart sind nach Serrers Angaben bereits 35 000 Exemplare verkauft. Das Buch fällt in mehrfacher Hinsicht aus dem Rahmen. Nelles und Serrer – beide erst 22 – sind keine Naturwissenschaftler, sie studieren im fünften Semester Wirtschaftswissenschaften an der Zeppelin-Universität in Friedrichshafen am Bodensee.

Klimawandel-Bestseller von jungen Autoren, ohne naturwissenschaftlichen Hintergrund. Ein Wunder, dass die beiden noch nicht auf der Schwarzen Liste des Umweltbundesamtes gelandet sind, die ansonsten genauestens überwacht, wer sich in Deutschland zum Klimawandel öffentlich äußern darf. Weshalb wurde das Werk in diesem Fall “durchgewunken”?

Damit das Buch Hand und Fuß hat, wandten sie sich an die Fachwelt. «Dabei wurden wir von über 100 Wissenschaftlerinnen und Wissenschaftlern – vom Doktoranden bis zum Institutsleiter – unterstützt», sagt Serrer. «Diese gaben uns bei der Erstellung des Buches wertvolle Tipps, standen uns bei Fragen zur Seite und haben unsere Texte gegengelesen.» Darunter war etwa Hans Joachim Schellnhuber, inzwischen emeritierter Direktor des Potsdam-Instituts für Klimafolgenforschung. Finanziell unterstützt wurde das Projekt unter anderem vom Rückversicherer Munich Re, dessen konzerneigene Klimaforschungsabteilung international anerkannt ist. Ein prominenter Werbeträger ist ZDF-Moderator Claus Kleber.

Da waren sie wieder alle zusammen: PIK, Munich Re und Staatsmedien. Ein eng verwobenes Geflecht, bei dem sich politische und wirtschaftliche Interessen munter konfliktieren. Weshalb bietet Die Welt einer solchen Aktion eine öffentliche Bühne, ohne kritisch nachzuhaken?