Die Sonne im August 2017 und Hurricans zwischen Propaganda und Wissenschaft

Von Frank Bosse und Fritz Vahrenholt

Das gigantische „Fusionskraftwerk“ im Massezentrum unseres Planetensystems war auch im August wieder ein „Underperformer“. Die festgestellte Sonnenfleckenzahl  (SSN für SunSpotNumber) betrug 33,1. Im letzten Monat war die Nordhemisphäre deutlich führend mit 4/5 der Gesamtaktivität. Die Fleckenzahl erreichte immerhin rund 73% des Mittelwertes dieses Zyklusmonats über alle systematisch beobachteten 23 vollendeten Zyklen seit 1755.

Abb.1: Die Aktivität des aktuellen Zyklus 24 (rot) im Vergleich zu einem mittleren Zyklus ( blau) und dem im absteigenden Ast der Aktivität recht ähnlichen Zyklus 5 ( schwarz).

 

An keinem Tage des August war die Sonne fleckenfrei, ab Mitte des Monats sahen wir ein deutliches Ansteigen der Aktivität. Der Ausblick auf den September ist damit viel versprechend, wir werden (wahrscheinlich) unseren stereotypen Eingangssatz („Die Sonne war auch Vormonat unterdurchschnittlich aktiv“ o.ä.) aufgeben können und wir hoffen, dass Sie das mit uns gebührend feiern werden.  Es gab nämlich am 6.9. eine größere Explosion auf der Sonne, ein X9.3 –Flare. Im Vorgriff auf unseren September-Bericht hier schon einmal ein Foto dieses Ereignisses:

Abb. 2: Der Flare am 6.9. wie ihn die Sonde SDO aufzeichnete. Quelle: NASA

 

Bleiben Sie also gespannt auf den nächsten Sonnenreport. Bis August 2017 stellte sich der Verglich der Zyklen untereinander so dar:

Abb.3: Die relative Stärke der Zyklen 1…24 bis zum aktuellen Monat 105 des SC24. Die Werte entstehen durch monatliche Aufsummierung der Differenzen zum mittleren Zyklus (blau in Abb.1).

 

Ob wir gegen Ende des Zyklus ( 80% seiner mittleren Lebensdauer von 11 Jahren sind inzwischen verstrichen) eine länger andauernde Aktivitätssteigerung sehen werden? Zum Zeitpunkt des Verfassens dieses Artikels sieht es nicht so aus, die großen Flecken des Monatsbeginnes im September waren wohl eher nur ein Gastspiel. Aber genau wissen kann man es bei der Sonne nie.

 

Hurricans zwischen Propaganda und Wissenschaft

Die aktuellen verheerenden Hurricans  (so bezeichnet man ausschließlich die großen tropischen Wirbelstürme des nördlichen Atlantiks) Harvey und bis jetzt Irma der höchsten Kategorie 5 riefen erwartungsgemäß einige Klima-Aktivisten auf den Plan. Das mediale Interesse ist garantiert, schließlich bringen diese Unwetter Zerstörung und Menschenopfer mit sich. Einige Beispiele hierhier, hier  , hier .  Der Tenor in allen Stellungnahmen: Die Hurricans werden nicht unmittelbar durch den Klimawandel verursacht, ihre Mächtigkeit (und damit ihre Zerstörungskraft) nimmt jedoch zu durch die menschgemachte Erwärmung.  Die These:  Wärmere Ozeane im Entstehungsgebiet der Wirbelstürme lassen mehr Wasserdampf entstehen und der vergrößert die Energiemenge in den Hurricans. Klingt doch plausibel, oder? Ist die Wissenschaft unserer Atmosphäre in Wechselwirkung mit den Ozeanen so einfach wie man es uns glauben machen will? Wir begeben uns auf die Suche. Wir nehmen die stärksten Hurricans der Kategorie 4 und 5 (also die mit der sich „mit dem menschgemachten Klimawandel manifestierenden zunehmenden Zerstörungskraft“) auf:

Abb. 4: Die Anzahl der Hurricans der Kategorie 4 und 5 zwischen 1924 und 2016

 

In den 30er und 50er bis in die frühen 60er Jahre sahen wir ebenfalls recht viele sehr starke Hurricans in den kritischen Monaten des späten Sommers,  nach 2010 gingen sie trotz weiterer  Erwärmung  deutlich zurück. Es entstehen leise Zweifel an der Stichhaltigkeit der Argumentation. Viele neuere Aussagen zum Anwachsen der Mächtigkeit einzelner starker Hurricans  gehen auf diese Arbeit zurück. Darin untersuchen die Autoren den Zusammenhang dadurch, dass sie einen Index („ACCI“) für die anthropogene Erwärmung aus Modellen ermitteln. Sie lassen die Temperaturen einmal mit der Wirkung von Treibhausgasen errechnen und einmal ohne diese. Die Differenz soll  dann anthropogen sein und wird zum ACCI Index der Arbeit. Wie schlecht Modelle die reale Entwicklung räumlich aufgelöst( für die Untersuchung hier besonders wichtig)  abbilden, hatten wir Ihnen ja bereits gezeigt. Die Fragezeichen werden nicht weniger. Für ihre Betrachtung untersuchen die Autoren lediglich den Zeitraum ab 1975. Damit sind die Häufungen an starken Hurricans davor ohne menschliche Ursachen (vgl. Abb. 4) mit einem ACCI Index nahe null schon mal  außen vor. Sie bilden das Verhältnis der Cat 4,5 –Stürme zu der Gesamtanzahl der Hurricans pro Saison. Für die Aussagen zum nördlichen Atlantik kommt es dann allerdings dick:

Abb. 5: Die Abhängigkeit des Anteils an starken(Cat.4-5) Stürme von dem modellierten Temperaturanstieg (ACCI) in verschiedenen Ozeanen, grün ist das Hurrican- Gebiet im Atlantik, rot: Indischer Ozean;  blau: Pazifik. (Quelle: Fig. 5b aus Holland et.al (2014).

 

Selbst für die Daten 1975 bis 2011, die in der Arbeit ausgewertet werden, ergibt sich kein signifikanter Trend und nur 26% der Variation der Anzahl der stärksten Hurricans lässt sich auf die Variation des modellierten Temperaturverlaufs zurückführen. Das ist eigentlich kaum eine Aussage wert, würde man die vorliegenden Daten bis 2016 einbeziehen, wäre das schlechte Ergebnis noch verheerender, vgl. Abb.4. Schon in der Arbeit wird das Ergebnis so kommentiert:

„Das führt zu der verblüffenden Möglichkeit, dass für einzelne Regionen die Festigkeit des Zusammenhanges umgekehrt proportional zur Anzahl der beteiligten Stürme ist.“

Der globale Trend wird fast ausschließlich durch den festen Zusammenhang im Indischen Ozean (rot in Abb.5) mit nur wenigen ausgewerteten Stürmen hergestellt. Der Pazifik mit seinen zahlreichen starken tropischen Stürmen (dort Taifune genannt, blau in Abb.5) weist auch mit den ausgesuchten Daten überhaupt keinen Zusammenhang auf (R² = 0,03). Die Autoren versprachen weitere Untersuchungen dazu. Ein kritischerer Reviewer hätte die Arbeit zunächst zurückgewiesen und auf das Ergebnis dieser Untersuchungen gewartet.

Die Einbeziehung der frühen Daten ließe auch für den Atlantik alles an Korrelation in sich zusammenbrechen, denn die Arbeit sieht einen menschgemachten Anteil an den Temperaturanstiegen erst nach 1960. Hier wurden auch noch die einigermaßen passenden Zeiträume gesucht und gefunden. Dabei ist die dekadische Variabilität der Energie der Hurricans (vgl. Abb. 8 unten) weithin bekannt, in der Literatur wird ein Einfluss der AMO nachgewiesen. Eine Arbeit unter Führung von Kevin J.E. Walsh von der Universität Melbourne zeigt die Schwierigkeiten auf, so etwas in den Griff zu bekommen:

„However, the Atlantic basin is noted for having significant multidecadal variability in TC (Tropic Cyclons, d.A.) activity levels. The basin was characterized by a more active period from the mid-1870s to the late 1890s as well as the mid-1940s to the late 1960s. These periods may have had levels of activity similar to what has been observed since the mid-1990s.”

Aus den Trends 1975…2011 einen starken anthropogenen Einfluss auf die Wucht der aktuellen starken atlantischen Ereignisse hinein zu interpretieren, grenzt im Lichte dieser Erkenntnisse schon an Dreistigkeit. Offensichtlich ist der behauptete evidente Zusammenhang zwischen dem menschgemachten Klimawandel und der sich verstärkenden Hurricans nicht nachgewiesen. Was also beeinflusst die Energie der Hurricans wirklich? Wir werden fündig in einer neuen Arbeit . Die Autoren ( es sind ausgewiesene Sturm-Experten) um Mark A.Saunders aus Großbritannien und den USA untersuchten akribisch die Beobachtungen soweit die Daten zurück reichen bis 1878 und finden besonders eine Größe, die die Energie der Hurricans sehr gut beschreibt: es ist die Stärke des nördlichen Passatwindes.

Abb. 6: Die Korrelation (r, blau)und ihre Signifikanz (p<0,1 ist hoch signifikant, rot ) der Energie der Hurricans (ACE für Accumulated Cyclone Energy), -durchgehend blau- und ihrer Anzahl -gepunktet blau- mit dem Passatwind. Besonders in den frühen Jahren und nach etwa 1950 ist der Zusammenhang außerordentlich robust. Quelle: Fig. 3a aus Saunders et.al (2017).

 

Eine zweite (damit auch zusammenhängende) Größe verbessert die Korrelation noch weiter: die Differenz der Meerestemperaturen  zwischen dem MDR (für Main Developing Region, das Seegebiet 10°N…20°N und 85°W…20°W)  und den globalen tropischen Meerestemperaturen  für  10°S bis 10°N. Es ist schon länger bekannt, dass die Hurrican-Entwicklung in ElNino Phasen gedämpft wird im Gegensatz zu  LaNina –Ereignissen. Diese Erscheinung ist ebenfalls Ausdruck der natürlichen Variabilität. Beeinflusst die vom Menschen getriebene Erwärmung der Ozeane an ihrer Oberfläche eine dieser Größen? Jetzt nehmen auch wir einmal Modelle zu Hilfe und lassen sie berechnen, ob sich die Tropen und der MDR unterschiedlich erwärmen sollen:

Abb. 7: die Erwärmungstrends der Ozeane im Mittel ( also nur der menschgemachte antreibende Anteil) der Modelle CMIP5  von 1861…2100. Das Bild wurde mit dem Climate Explorer generiert.

 

Es gibt da keine stärkere Erwärmung des MDR, alles in den Tropen wird sehr gleichmäßig warm. Aber es gibt eine ausgeprägte dekadische Variabilität wie die Beobachtungen seit 1854 zeigen.

Abb.8: Die Differenz der Meerestemperaturen (SST für Sea Surface Temperatures) von MDR und Tropen nach den Beobachtungen ERSSTv5 mit einer 10-jährigen Glättung. Die schwarze Linie ist nicht die Abszisse sondern der lineare Trend! Man beachte das AMO-ähnliche Muster.

 

Und die Passatwinde? Sollen die zunehmen  mit dem Klimawandel? Eher nicht, es gibt Literatur die eher ihr Abnehmen mit ihm vermutet und damit auch einen Rückgang der Hurricans. Alles an Wissenschaft, was sich ernsthaft mit den Hurricans beschäftigt, weist  keine Verschlimmerung der Hurricans durch den menschgemachten Klimawandel nach. Aber was ist denn nun mit der Thermodynamik: wärmere Ozeane, mehr Verdunstung, mehr  Hurricanenergie, die wir so oft hören? Ein Aufsatz von  Friederike Otto  aus Oxford rückt es gerade: Es gibt sehr viele mögliche Interaktionen bei diesem hoch komplexen Wetterphänomen.

„Dynamical factors and thermodynamic aspects of climate change can interact in complex ways and there are many examples where the circulation is as important as the thermodynamics.”

Und die schönen Modelläufe, die eine nicht vom Klimawandel betroffene Computerwelt mit einer ebenfalls berechneten,  unsere Einflüsse jedoch enthaltenden, gegenüberstellen? Otto sagt:

„But in practice this requires climate models that are able to reliably simulate the weather systems in questions over and over again to assess the likelihood of its occurrence.”

Es gibt die für solche Ereignisse benötigten Modelle schlicht nicht. Ein Artikel der BBC stellt am Ende klar, wo der menschgemachte Anteil an „Harvay“ und anderen Hurricans liegt: Die Leute siedeln immer mehr in den gefährdeten Gebieten. Vielleicht bleibt doch ein anthropogener Part der Auswirkungen (Fluten) von Hurricans übrig: Mit zunehmender Erwärmung der Ozeane wächst der Meerespegel, das ist unbestritten. Er hat seit 1960 um ca. 10 cm zugelegt. Die Wellen, die ein Hurrican erzeugt,  sind bis zu 6 m hoch. Der Ansatz, den Aktivisten medial immer wieder ins Spiel bringen, ist völlig untauglich wie wir sahen. Er beschreibt die Welt schön simpel- zu simpel! Wünschen wir also den betroffenen Menschen in den Hurrican- Gebieten, dass diese Kurve…

Abb. 9: Die aktuelle Differenz der Temperaturen zwischen dem MDR und den globalen tropischen Ozeanen, Quelle: „Tropical Tidbits“

 

…möglichst bald wieder zurück nahe null geht. Sie dokumentiert das Auseinanderdriften der Temperaturen im MDR und den tropischen Ozeanen in den letzten Monaten. Dort und in der Passatwindstärke liegen die wahren Gründe für die schlimmen Hurricans.  Alles andere ist Propaganda im Sinne einer angeblich „guten Sache“.

 

Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane

Die Tagesschau berichtete am 9. September 2017 über eine vermeintlich bedrohliche und anomale klimatische Entwicklung in der Nordsee:

Umweltministerium: Nordsee erwärmt sich schneller als Ozeane
Die Nordsee hat sich in den vergangenen 45 Jahren doppelt so schnell erwärmt wie die Ozeane. Die Durchschnittstemperatur der deutschen Nordsee stieg um 1,67 Grad, während es bei den Ozeanen 0,74 Grad waren. Das geht aus der Antwort des Bundesumweltministeriums auf eine Kleine Anfrage der Grünen hervor, die der “Neuen Osnabrücker Zeitung” vorliegen. Die Regierung beruft sich auf Zahlen des Weltklimarates IPCC und des Alfred-Wegener-Instituts bis zum Jahr 2010. [...] Die Grünen fordern Gegenmaßnahmen: “Die Klimakatastrophe schreitet voran, auch wenn US-Präsident Donald Trump sie leugnet oder Bundeskanzlerin Angela Merkel und SPD-Spitzenkandidat Martin Schulz sie aussitzen”, sagte die Grünen-Bundestagsabgeordnete Julia Verlinden der “Neuen Osnabrücker Zeitung”. [...]

Ganze Meldung auf Tagesschau.de lesen.

Ein wenig ungewöhnlich erscheint die Berichterstattung in Deutschlands wichtigster Nachrichtensendung über die Kleine Anfrage der Grünen schon. War die Meldung vielleicht als kleine Wahlkampfhilfe für die Grünen gedacht? Die Aussage der Meldung ist interessant. Wir nehmen sie zum Anlass, die Fakten zu überprüfen und Hintergründe zu diskutieren.

1) Erwärmung der Weltozeane während der letzten 45 Jahre

Auf welche Daten bezieht sich diese Aussage? Satellitendaten können es nicht sein, denn die sind nur für die letzten 38 Jahre verfügbar. Der Startpunkt der letzten 45 Jahre liegt im Jahr 1972. Der HadSST3-Datensatz erfasst die Entwicklung der globalen Meeresoberflächentemperaturen. Plotten kann man ihn online auf Woodfortrees (Abb. 1). Die Erwärmungsangabe im Tagesschau-Bericht von 0,74°C scheint in Ordnung zu sein.

Abb. 1: Entwicklung der Oberflächentemperatur der Ozeane in den letzten 45 Jahren.

 

2) Erwärmung der Nordsee während der letzten 45 Jahre

Im nächsten Schritt prüfen wir die Erwärmung der Nordsee im selben Zeitraum. Im letzten Jahr (2016) erschien ein von Markus Quante und Franciscus Colijn herausgegebener Klimareport zur Nordsee. Das pdf können Sie kostenfrei beim Springerverlag herunterladen. Auf Seite 88 finden wir in Fig. 3.3 den Meeresoberflächen-Temperaturverlauf der Nordsee für die vergangenen 140 Jahre:

Abb. 2: Temperaturverlauf der Meeresoberflächen in der Nordsee für die vergangenen 140 Jahre. Quelle: Huthnance et al. 2016 in Quante & Colijn 2016.

 

Gut zu erkennen: Zu Beginn der 1970er Jahre herrschte ein Temperaturplateau bei ca. 0,3°C in der Abbildung vor. Anfang der 1980er Jahre sackten die Temperaturen dann kräftig ab. Danach ein steiler Wiederanstieg, der um 2010 kulminierte. Im Anschluss sackten die Temperaturen wieder ab und liegen heute bei 0,4°C in der Abbildung. Wenn man die Punkt-zu-Punkt-Entwicklung von 1972 bis heute anschaut, so ergibt sich lediglich eine Erwärmung von 0,1°C, und nicht die von der Tagesschau behaupteten 1,67°C. Wie kommt die Tagesschau auf diesen hohen Wert? Zunächst einmal endet die Betrachtung im Jahr 2010, auf dem Höhepunkt der Entwicklung. Offenbar hat man ganz bewusst die Abkühlung in den Folgejahren ausgeklammert, lässt die Bürger über diesen Teil der Entwicklung im Dunklen. Das grenzt schon fast an Betrug. Desweiteren begann man die Betrachtung offenbar Anfang der 1980er Jahre – auf dem absoluten Tiefpunkt der letzten Jahre – was schlecht zum 45-Jahresintervall passt. Nur wenn man die in der Nordsee außerordentlich kalten 1980er Jahre einbezieht, kann man auf mehr als anderthalb Grad Erwärmung kommen.

Hätte man die warmen Jahre 1930-1980 berücksichtigt, so würde die Gesamterwärmung bis heute ebenfalls geringer ausfallen als angegeben. Sie können es aus Abbildung 2 selber grob abschätzen: Beginn der Zeitreihe um 1870 auf dem Niveau von ca. -0,1°C (rote Linie). Ende der Zeitreihe heute bei gemittelten 0,7°C. Das macht eine Gesamterwärmung in den letzten knapp 150 Jahren in der Nordsee von 0,8°C, was ironischerweise etwa der Erwärmung der globalen Ozeane in den letzten 45 Jahren entspricht. Die Nordsee erwärmt sich NICHT schneller als der Rest der globalen Ozeane. Hier werden die Ozeanzyklen und ihr modulierendes Wirken verschwiegen. Das wiegt umso schwerer, da der zitierte Nordseereport die Nordatlantische Oszillation und andere Ozeanzyklen als wichtigen Steuerungsfaktor herausarbeiten. Fazit: Das Bundesumweltministerium und die darüber berichtende Tagesschau tricksen hier, dass sich die Balken biegen. Zeitintervalle werden in fragwürdiger Weise gewählt, um die Erwärmung bewusst zu dramatisieren.

 

3) Wie ordnet sich die Erwärmung der Nordsee in den langfristigen Klimakontext ein?

Die Erwärmung der Nordsee in den letzten 150 Jahren verwundert nicht, denn es stellt den Übergang der Kleinen Eiszeit zur Modernen Wärmeperiode dar. Um Äpfel mit Äpfeln zu vergleichen, hätte eine Betrachtung der Mittelalterlichen Wärmeperiode (MWP) stattfinden müssen, die im nordatlantischen Raum gut beschrieben ist und ein ähnlich hohes Temperaturniveau zeigte wie das heutige Klima in der Region. Unser MWP-Kartierprojekt hat die entsprechenden Studien aufgearbeitet. Im Rahmen der Diskussion zum Tagesschau-Beitrag hat ein der Redaktion nahestehender Leser einen wichtigen Hinweis auf die MWP anbringen wollen. Die Aussparung dieses “Elefanten im Raum” wäre ein wichtiger Gedankenanstoß zur Debatte zum Beitrag gewesen. Sie werden es nicht glauben, der Kommentar wurde von der Tagesschau-Moderation nicht freigegeben:

Abb. 3: Screenshot des Kommentars zum Tagesschau-Beitrag, der von der Moderation aus unerfindlichen Gründen nicht freigegeben wurde.

 

Befindet sich etwas Anstößiges im Kommentar? Der Link kann es nicht sein, der führt nämlich zu einer angesehenen Fachzeitschrift. Laut Tagesschau-Kommentarregeln sind Links nicht von vorneherein verboten. Daher scheint es andere Gründe zu geben, weshalb die Moderation diesen Punkt nicht auf der Tagesschauseite sehen wollte. Vermutlich ging es einfach darum, den klimaalarmistischen Schwung der Meldung nicht durch unbequeme Fakten zu gefährden. Das läuft landläufig unter Zensur, die es in diesem Fall wert wäre, näher untersucht zu werden. Wer blockiert hier genau und aus welchen Gründen?

 

Ein unerwartetes Ergebnis: Sonnenaktivität steuert Überflutungen in den Alpen

Klimaextreme können nur in ihrem langfristigen Kontext korrekt bewertet werden. Heute stellen wir Ihnen Arbeiten aus den Alpen zur Überschwemmungsgeschichte vor.  Wir beginnen mit einer Studie von Wilhelm et al. 2016 in Climate of the Past aus den französischen Alpen. Die Forscher untersuchten die Flutgeschichte der letzten 1000 Jahre und fanden eine Häufung der Flutereignisse während der kalten Kleinen Eiszeit. Flutereignisse von hoher Intensität wurden sowohl in der Kleinen Eiszeit als auch in der Mittelalterlichen Wärmeperiode gefunden. Interessanterweise konnte für das 20. Jahrhundert trotz Erwärmung kein Trend in Häufigkeit und Intensität der Fluten ausgemacht werden. Hier der Abstract:

Frequency and intensity of palaeofloods at the interface of Atlantic and Mediterranean climate domains
Mediterranean climatic influences was explored by studying a lake sequence (Lake Foréant) of the Western European Alps. High-resolution sedimentological and geochemical analysis revealed 171 event layers, 168 of which result from past flood events over the last millennium. The layer thickness was used as a proxy of intensity of past floods. Because the Foréant palaeoflood record is in agreement with the documented variability of historical floods resulting from local and mesoscale, summer-to-autumn convective events, it is assumed to highlight changes in flood frequency and intensity related to such events typical of both Atlantic (local events) and Mediterranean (mesoscale events) climatic influences. Comparing the Foréant record with other Atlantic-influenced and Mediterranean-influenced regional flood records highlights a common feature in all flood patterns that is a higher flood frequency during the cold period of the Little Ice Age (LIA, AD 1300–1900). In contrast, high-intensity flood events are apparent during both the cold LIA and the warm Medieval Climate Anomaly (MCA, AD 950–1250). However, there is a tendency towards higher frequencies of high-intensity flood events during the warm MCA. The MCA extremes could mean that under the global warming scenario, we might see an increase in intensity (not in frequency). However, the flood frequency and intensity in the course of the 20th century warming trend did not change significantly. Uncertainties in future evolution of flood intensity lie in the interpretation of the lack of 20th century extremes (transition or stable?) and the different climate forcing factors between the two periods (greenhouse gases vs. solar and/or volcanic eruptions).

Weiter mit dem Mondsee in Österreich. Tina Swierczynski und Kollegen berichteten 2013 in Climate of the Past über eine Untersuchung der Flutfrequenz in der Jungsteinzeit. Sie fanden dabei starke Schwankungen. Besonder häufig waren die Überschwemmungen in einer Phase die vor knapp 6000 Jahren begann und um 4500 Jahren endete. Hier der Abstract:

Late Neolithic Mondsee Culture in Austria: living on lakes and living with flood risk?
Neolithic and Bronze Age lake dwellings in the European Alps became recently protected under the UNESCO World Heritage. However, only little is known about the cultural history of the related pre-historic communities, their adaptation strategies to environmental changes and particularly about the almost synchronous decline of many of these settlements around the transition from the Late Neolithic to the Early Bronze Age. For example, there is an ongoing debate whether the abandonment of Late Neolithic lake dwellings at Lake Mondsee (Upper Austria) was caused by unfavourable climate conditions or a single catastrophic event. Within the varved sediments of Lake Mondsee, we investigated the occurrence of intercalated detrital layers from major floods and debris flows to unravel extreme surface runoff recurrence during the Neolithic settlement period. A combination of detailed sediment microfacies analysis and μXRF element scanning allows distinguishing debris flow and flood deposits. A total of 60 flood and 12 debris flow event layers was detected between 7000 and 4000 varve years (vyr) BP. Compared to the centennial- to millennial-scale average, a period of increased runoff event frequency can be identified between 5900 and 4450 vyr BP. Enhanced flood frequency is accompanied by predominantly siliciclastic sediment supply between ca. 5500 and 5000 vyr BP and enhanced dolomitic sediment supply between 4900 and 4500 vyr BP. A change in the location and the construction technique of the Neolithic lake dwellings at Lake Mondsee can be observed during the period of higher flood frequency. While lake dwellings of the first settlement period (ca. 5800–5250 cal. yr BP) were constructed directly on the wetlands, later constructions (ca. 5400–4700 cal. yr BP) were built on piles upon the water, possibly indicating an adaptation to either increased flood risk or a general increase of the lake level. However, our results also indicate that other than climatic factors (e.g. socio-economic changes) must have influenced the decline of the Mondsee Culture because flood activity generally decreased since 4450 vyr BP, but no new lake dwellings have been established thereafter.

Die nächste Studie wurde am schweizerischen Oeschinensee von Benjamin Amann und Kollegen durchgeführt und reicht 1200 Jahre zurück. Erschienen ist die Arbeit im Mai 2015 in den Quaternary Science Reviews. Die Autoren fanden starek natürliche Schwankungen im Hochwasser. Einen stabilen Zusammenhang zwischen Temperatur und Niederschlägen konnten sie nicht finden. Das hat auch damit zu tun, weil sich die Zusammenhänge im Verlauf eines 60-jährigen Ozeanzyklus umkehrten. Allgemein ereigneten sich die stärksten Flutereignisse während Kältephasen. Aussagen über die zukünftige Überflutungsentwicklung lassen sich angesichts der Komplexität der Zusammenhänge nicht machen, erklären die Autoren. Hier die Kurzfassung:

A millennial-long record of warm season precipitation and flood frequency for the North-western Alps inferred from varved lake sediments: implications for the future
The recent warming of the global climate is well recognized. However, does a warmer climate also mean a moister climate? Does dry get drier and wet get wetter? There are important questions as they relate to changes in the water cycle and impacts the water resources as well as the frequency and intensity of storms and floods in the near future. In Europe, regional climate models do not show consistent and robust results for future hydroclimatic changes and how extreme events will evolve in response to future climate change.

Paleo-hydroclimatic data from natural archives are one of the few means to assess such changes in the longer context. Here, we present an annually-resolved record of warm season (MJJA) precipitation and summer flood frequency from the varved (annually laminated) sediments of proglacial Lake Oeschinen (46°30′N–7°44′E, 1580 m, NW Swiss Alps) back to AD 884. These data sets are inferred from the thickness of annual sediment deposits and the occurrence of flood event layers in the sediments. The chronology of the sediment record is based on multiple varve counts and validated with historical floods chronicled in written documents (back to the 14th century) and 14C AMS dates.

The precipitation record shows pronounced interannual to centennial variability with humid warm season phases between AD 920–950, AD 1100–1180, AD 1300–1400, AD 1590–1650, AD 1700–1790, AD 1820–1880, and AD 1960–2008. Driest conditions are reconstructed for AD 960–1080, AD 1250–1300 and for AD 1880–1900. Our precipitation record is consistent with the few multi-centennial warm-season precipitation records available for Europe.

We did not find a persistent relationship between warm-season precipitation and temperature. In contrast, results show that the relation between precipitation and temperature has oscillated between positive correlations (warmer gets wetter, cooler gets drier) and negative correlations (warmer gets drier, cooler gets wetter) with a highly significant (χ2 = 99%) multidecadal (60–70 yrs) periodicity over the last millennium. Possible explanations for this phenomenon are changes in the weather type statistics or the within-weather-type variability, which influence the combinations between precipitation and temperature over continental central Europe and operate at multidecadal scales. Such multidecadal effects might also be important for precipitation scenarios in the Alpine area under future warming.

Our record of flood frequency suggests more frequent floods under cool and humid climate during the warm seasons. This picture is consistent with other studies from small and medium size catchments at mid- and high elevations in the Alpine area. However, the 13th century reveals a period with high flood frequency during warm and moderately dry (average precipitation) conditions. This anomalous situation is currently not understood; nonetheless, this is also one out of several possible scenarios for the future. From the different combinations found in our record, we conclude that the relation between floods, precipitation and temperature and, in consequence, future projections remain poorly constrained.

Highlights:

–The precipitation reconstruction is representative for most of Western Europe.
–The relation PP–TT follows a multidecadal periodicity over the last millennium.
–Intense rainfall events were generally more frequent during wet and cool summers.

Eine ganze Reihe von Seen in den Zentralalpen haben Anselmetti et al. 2014 untersucht und dabei die Flutgeschichte der letzten 10.000 Jahre rekonstruiert. Die Studie erschien im Fachblatt Georeview. Dabei fanden die Autoren auch einen Zusammenhang mit den Aktivitätsschwankungen der Sonne, was sie dankenswerterweise gleich in den Totel schrieben:

Holocene flood frequency as reconstructed by lake sediments from multiple archives: A record influenced by solar forcing and atmospheric circulation patterns
The frequency of large-scale heavy precipitation events in mountain ranges is expected to undergo substantial changes with current climate change. Hence, knowledge about the past natural variability of floods caused by heavy precipitation constitutes important input for climate projections and natural hazard analyses. We present a comprehensive Holocene (10,000 years) reconstruction of the flood frequency in the Central European Alps combining 15 lacustrine sediment records. These records provide an extensive catalog of flood deposits, which were generated by flood-induced underflows delivering terrestrial material to the lake floors. The multi-archive approach allows suppressing local weather patterns, such as thunderstorms, from the obtained climate signal.

Auch Pena et al. 2015 fanden eine starke Sonnensignatur in der schweizerischen Flutgeschichte, die sie Hydrology and Earth System Sciences dokumentierten:

Influence of solar forcing, climate variability and modes of low-frequency atmospheric variability on summer floods in Switzerland
The higher frequency of severe flood events in Switzerland in recent decades has given fresh impetus to the study of flood patterns and their possible forcing mechanisms, particularly in mountain environments. This paper presents a new index of summer flood damage that considers severe and catastrophic summer floods in Switzerland between 1800 and 2009, and explores the influence of external forcings on flood frequencies. In addition, links between floods and low-frequency atmospheric variability patterns are examined. The flood damage index provides evidence that the 1817-1851, 1881-1927, 1977-1990 and 2005-present flood clusters occur mostly in phase with palaeoclimate proxies. The cross-spectral analysis documents that the periodicities detected in the coherency and phase spectra of 11 (Schwabe cycle) and 104 years (Gleissberg cycle) are related to a high frequency of flooding and solar activity minima, whereas the 22-year cyclicity detected (Hale cycle) is associated with solar activity maxima and a decrease in flood frequency. The analysis of low-frequency atmospheric variability modes shows that Switzerland lies close to the border of the principal summer mode. The Swiss river catchments situated on the centre and southern flank of the Alps are affected by atmospherically unstable areas defined by the positive phase of the pattern, while those basins located in the northern slope of the Alps are predominantly associated with the negative phase of the pattern. Furthermore, a change in the low-frequency atmospheric variability pattern related to the major floods occurred over the period from 1800 to 2009; the summer principal mode persists in the negative phase during the last cool pulses of the Little Ice Age (1817-1851 and 1881-927 flood clusters), whereas the positive phases of the mode prevail during the warmer climate of the last 4 decades (flood clusters from 1977 to present).

 

Überschwemmungen im bayerischen Alpenvorland häuften sich während solarer Schwächephasen

Immer wieder treten die Flüsse über die Ufer und das Land wird überschwemmt. Die Natur kann manchmal richtig grausam sein. Das menschliche Gedächtnis ist bekanntlich löcherig. Schlimme Ereignisse aus der Vergangenheit werden getilgt, während Aktuelles übergroß erscheint. So ist es auch bei den Überschwemmungen. Die jüngsten erscheinen immer die schlimmsten zu sein. Zu gerne würde man in einer ganz besonderen Zeit der Superlative leben. Das ist verständlich, denn man hat ja nur ein Leben, und das soll möglichst spektakulär sein.

Zum Glück gibt es abseits des medialen Alarmismus auch noch seriöse und faktenbasierte Studien, die eine guten klimahistorische Grundlage für die Diskussion schaffen. Im Aptil 2016 veröffentlichte eine Forschergruppe um Markus Czymzik im Fachblatt Climate of the Past eine Rekonstruktion der Überflutungsgeschichte des Flusses Ammer im bayerischen Alpenvorland für die vergangenen fünfeinhalbtausend Jahre. Das Ergebnis lässt aufhorchen: Immer wenn die Sonne in ihrer Strahlung nachließ, nahmen die Überschwemmungen zu. Dabei beobachteten die Wissenschaftler einen zeitlichen Verzug von zwei bis drei Jahren. Czymzik und Kollegen sehen die Ursache in der Zunahme blockierter Wetterlagen. Hier die Kurzfassung der Arbeit:

Solar modulation of flood frequency in central Europe during spring and summer on interannual to multi-centennial timescales
Solar influences on climate variability are one of the most controversially discussed topics in climate research. We analyze solar forcing of flood frequency in central Europe during spring and summer on interannual to multi-centennial timescales, integrating daily discharge data of the River Ammer (southern Germany) back to AD 1926 (∼  solar cycles 16–23) and the 5500-year flood layer record from varved sediments of the downstream Ammersee. Flood frequency in the River Ammer discharge record is significantly correlated to changes in solar activity when the flood record lags the solar signal by 2–3 years (2-year lag: r = −0.375, p = 0.01; 3-year lag: r = −0.371, p = 0.03). Flood layer frequency in the Ammersee sediment record depicts distinct multi-decadal variations and significant correlations to a total solar irradiance reconstruction (r = −0.4, p <  0.0001) and 14C production rates (r = 0.37, p <  0.0001), reflecting changes in solar activity. On all timescales, flood frequency is higher when solar activity is reduced. In addition, the configuration of atmospheric circulation associated with periods of increased River Ammer flood frequency broadly resembles that during intervals of reduced solar activity, as expected to be induced by the so-called solar top-down mechanism by model studies. Both atmospheric patterns are characterized by an increase in meridional airflow associated with enhanced atmospheric blocking over central Europe. Therefore, the significant correlations as well as similar atmospheric circulation patterns might provide empirical support for a solar influence on hydroclimate extremes in central Europe during spring and summer by the so-called solar top-down mechanism.

Spannende Ergebnisse, und hochrelevant hinsichtlich der aktuellen Klimadiskussion und den wiederkehrenden Fluten obendrein. Aber Sie ahnen es schon: Keine einzige Zeitung, kein Sender berichtete über die Studie. Können Sie es sich erklären?

Historische Hochwasserforschung betrieben bereits Rüdiger Glaser und Kollegen. Im auf der Webseite des Deutschen Wetterdienstes verfügbaren Klimastatusbericht von 2003 (pdf) stellen die Autoren die Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland dar. Damit waren sie ihrer Zeit voraus, denn später erkannte man, dass es politisch geeigneter ist, mit der Analyse der Trends erst in der Kleinen Eiszeit um 1800 zu beginnen. Denn dann muss man sich nicht mit der unbequemen Mittelalterlichen Wärmeperiode herumschlagen. Glaser und Kollegen kommen zu einem nüchternen Schluss: Extremwetter hat es stets in Deutschland gegeben, wobei es in der Vergangenheit bereits Phasen gab, in denen das Extremwetter intensiver war als heute. Ähnliches gilt für die Temperaturentwicklung. Hierein Auszug aus der lesenswerten und methodisch immer noch hochaktuellen Studie:

Schlussfolgerungen und Perspektiven:

Das Klima, sein Wandel und insbesondere klimabedingte Katastrophen zogen zu allen Zeiten ein großes öffentliches Interesse auf sich – wenn auch die Wahrnehmungs- und Interpretationsmuster im Laufe der Zeit einem beträchtlichen Wandel unterzogen waren. Die Analyse historischer Aufzeichnungen ermöglicht Rekonstruktionen von Hochwasserereignissen und klimatischen Parametern ab etwa dem Jahr 1000 n.Chr. Betrachtet man die Ergebnisse, so wird zunächst offensichtlich, dass es zu allen Zeiten klimatische Extremereignisse gab. Immer wieder wurde die Bevölkerung von Hitzewellen und Dürren, Frostperioden und Starkniederschlägen überrascht. In manchen Regionen übertrafen einzelne Hochwasserereignisse die „Jahrhunderthochwässer“ des vergangenen Jahrzehnts deutlich.

Ein Blick auf die langen Reihen offenbart die hohe Variabilität des mitteleuropäischen Klima- und Hochwassergeschehens. Während einzelne Temperatur- und Niederschlagstrends des vergangenen Jahrhunderts auch im historischen Vergleich bemerkenswert erscheinen, waren andererseits unsere Vorfahren in den in dieser Studie diskutierten Flußgebieten offenbar zeitweise einem höheren Hochwasserrisiko ausgesetzt.

Unter diesem Eindruck erscheint so manches Bild von „niedagewesenen Klimakapriolen“ oder den „hausgemachten Hochwässern“ in einem anderen Licht. Weitergehende Untersuchungen sollen die Bedeutung der verschiedenen Einflußfaktoren erhellen und so eine wichtige Grundlage für gesellschaftliche Bewertungen und die Ableitung möglicher Handlungsszenarien liefern.

Ganze DWD-Studie hier lesen.

 

Kann der Ozean aufatmen?

Pressemitteilung des Geomar vom 4. September 2017:

—————————-

Kann der Ozean aufatmen?

Forscherteam misst ungewöhnlich hohe Sauerstoffaufnahme in der Labrador-See

Stürmisch, rau und sehr kalt: Diese Eigenschaften der Labrador-See mögen zunächst ungemütlich wirken, sind für die Sauerstoffverteilung im Ozean aber von besonderer Bedeutung. Ein internationales Forschungsteam unter Beteiligung des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel hat dort an einer Langzeitmessstation kürzlich eine außergewöhnlich hohe Sauerstoffaufnahme bis in Wassertiefen von mehr als 1700 Metern gemessen. Das Ereignis kann auf den besonders kalten Winter 2014/2015 zurückgeführt werden. Trotz der starken Aufnahme kann das Ereignis den Sauerstoffverlust der Weltmeere nicht kompensieren. Die Ergebnisse der Studie sind jetzt in der internationalen Fachzeitschrift Geophysical Research Letters veröffentlicht worden.

Die Labrador-See im nördlichen Atlantik ist eines der wenigen Meeresgebiete weltweit, in dem kaltes, salzhaltiges Meerwasser in große Tiefen absinkt und so Tiefenwasser bildet. Beim Absinken des Wassers wird auch Sauerstoff in die Tiefsee transportiert. Ein Forscherteam der Scripps Institution of Oceanography (La Jolla, Kalifornien, USA), der Dalhousie Universität (Halifax, Kanada) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel veröffentlichen jetzt in der internationalen Fachzeitschrift Geophysical Research Letters die Analyse von Daten der Messstation K1, die zeigen, dass im Winter 2014/2015 ungewöhnlich viel Sauerstoff in dem Gebiet aufgenommen wurde. Die eigentliche Sauerstoffaufnahme an der Meeresoberfläche lässt sich nur sehr schwer direkt ermitteln, aber aus dem im Wasser gemessenen Sauerstoffgehalt konnte das Forscherteam die Sauerstoffaufnahme ableiten. Eine Frage, die die Wissenschaftler und Wissenschaftlerinnen dabei beschäftigte: Kann die starke Sauerstoffaufnahme in der Labrador-See den globalen Sauerstoffverlust des Ozeans aufhalten?

Das Oberflächenwasser der Meere befindet sich in ständigem Gasaustausch mit der Atmosphäre. Dabei reichert sich das Wasser auch mit Sauerstoff an. „Im Ozean sind es insbesondere die Temperatur und der Blaseneintrag durch den Wind, die die Sauerstoffaufnahme beeinflussen“, sagt Dr. Johannes Karstensen, Ozeanograph am GEOMAR und Koautor der Studie. Kühlt das Oberflächenwasser ab, verändert es seine Dichte und wird schwerer. Es sinkt in die Tiefe und nimmt den dabei gelösten Sauerstoff mit. Gleichzeitig steigt Wasser aus tieferen Schichten auf und wird wiederum mit Sauerstoff angereichert. „Auch wenn es manchmal so veranschaulicht wird, man kann sich den Absinkprozess nicht wie einen Wasserfall vorstellen “ sagt Dr. Johannes Karstensen (GEOMAR) „es ist eher ein Umschichten, also Wasser sinkt ab und das darunterliegende leichtere Wasser steigt auf, wird abgekühlt, sinkt wieder ab und so weiter“.

Wie die Daten der Langzeitmessstation K1 zeigen, wurde im besonders kalten und stürmischen Winter 2014/2015 in der Labrador-See ungewöhnlich viel Sauerstoff aufgenommen. Zum einen lag das daran, dass der Umwälzprozess bis in Tiefen von über 1700 Metern reichte. Zum anderen konnten die Wissenschaftler anhand der Messdaten zeigen, dass der beobachtete Sauerstoffanstieg nur unter Berücksichtigung des Blaseneintrags an der Oberfläche erklärbar ist. Dieses Ergebnis ist für die richtige Modellierung der Sauerstoffaufnahme in Tiefenkonvektionsgebieten besonders wichtig und dient auch der Verbesserung von Klimavorhersagen.

Erst kürzlich haben Forschende des GEOMAR eine Studie zur zeitlichen Entwicklung der Sauerstoffkonzentration im Weltozean veröffentlicht. Sie zeigt, dass der Sauerstoffgehalt der Weltmeere in den vergangenen 50 Jahren um mehr als zwei Prozent abgenommen hat. Eine naheliegende Frage ist: Kann die erhöhte Sauerstoffaufnahme in der Labrador-See den beobachteten Sauerstoffverlust der Weltmeere ausgleichen? „Selbst wenn wir annehmen, dass das in 2014/2015 neu gebildete Wasser ohne Verluste aus der Region abtransportiert wird, kann damit nur etwa ein Hundertstel des bisherigen weltweiten Sauerstoffverlustes ausgeglichen werden“, sagt Dr. Johannes Karstensen. „Insbesondere die durch die globale Erwärmung bedingte Abnahme des Sauerstoffgehalts im Oberflächenwasser lässt sich so nicht ausgleichen.“ Die Daten aus der Labrador-See tragen zudem zu einem besseren Verständnis der Umwälzprozesse bei. „Damit lässt sich die zukünftige Entwicklung des Sauerstoffs in den Meeren besser vorhersagen“, betont der Kieler Ozeanograph.

Originalarbeit: Koelling, J., D.W.R Wallace, U. Send, and J. Karstensen, 2017: Intense oceanic uptake of oxygen during 2014-15 winter convection in the Labrador Sea. Geophys. Res. Lett.

http://dx.doi.org/10.1002/2017GL073933

Hinweis: Die Studie wurde auf kanadischer Seite vom Canada Excellence Research Chair in Ocean Science and Technology sowie vom NSERC-geförderten Projekt  VITALS unterstützt. Die Verankerung K1 ist Teil des  OceanSITES-Netzwerkes. Die  Analyse wurde gefördert vom BMBF-Projekt RACE II, vom Projekt AtlantOS im Rahmen des EU-Horizon-2020-Programms und vom Projekt NACLIM im Rahmen des 7. Rahmenprogramms der EU

 

In Zukunft wohl weniger Überschwemmungen in Skandinavien

Die Klimadiskussion dreht sich im Kreise, ja beginnt in einigen Themenfelder bereits sogar zu langweilen. Die Abläufe scheinen sich entlang einem schlechten Filmskript entlangzuhangeln: Pünktlich nach Eintreten eines Extremwetterereignisses ruft der zuständige Redakteur den Aktivisten L oder R an. Jener verkündet dann mit tränenerstickter Stimme, dass der Klimawandel vermutlich schon seine Finger mit im Spiel hatte, es fällt der Begriff “gezinkter Würfel”. Eines stehe fest: In Zukunft wird alles noch viel schlimmer. Dazu noch das Bild eines vom Hurrikan verwüsteten Hauses, eines auf einer Eisscholle sitzenden traurigen Eisbären – fertig ist der neue warnende Artikel zum Klimawandel. Der Leser zeigt sich angesichts der vermeintlich drückenden Faktenlage überzeugt.

Dabei liegen zwei gewaltige Auslassungen vor: Extremwetter hat es in der Vergangenheit stets gegeben. Erstens: Weshalb werden uns keine konkreten Informationen über Häufigkeitstrends gegeben? Wie hat sich die Häufigkeit von Stürmen, Überschwemmungen in den letzten 150, 1000 oder 10.000 Jahren verändert? Ohne diese Information kann man das jeweilige Extremwetterereinis doch gar nicht in den Klimawandel einordnen. Zweitens: Für die gruseligen Zukunftsprognosen werden Klimamodelle herangezogen. Diese sind jedoch nur glaubwürdig, wenn sie auch die Klimageschichte, also die Extremwetterentwicklung der letzten 150, 1000 und 10.000 Jahre sauber reproduzieren können. Weshalb erwähnen die Journalisten nicht, dass die historische Klimakalibrierung in den allermeisten Fällen fehlt bzw. sogar fehlgegangen ist?

Das konsequente Verschweigen dieser wichtigen Kontextinformationen wirft kein gutes Licht auf Redakteure und Klimaaktivisten. Gebraucht wird eine Art “Klimaführerschein” für Journalisten, ein Mindeststandard, der bei der Berichterstattung in diesem politisch sensiblen Feld erfüllt sein muss, bevor ein Zeitungsartikel oder Fernsehbeitrag freigegeben werden kann. Das momentan grassierende Verfahren der spontanen Verquickung jeglichen Extremwetters mit dem anthropogenen Klimawandel ist naiv, ja sogar gefährlich. Wie kann man Redakteuren und Aktivisten L oder R in Zukunft überhaupt noch trauen, wenn sie historische Trends und Modellleistungsfähigkeit mutwillig verschweigen, vielleicht weil sie von der Bevölkerung “falsch aufgenommen” werden könnten?

Hier ein Beispiel für Überflutungen in Skandinavien. Eivind Støren und ØyvindPaasche berichteten im Februar 2014 in Global and Planetary Change, dass in 50-100 Jahren dort mit einer Abnahme der Überschwemmungen zu rechnen sei:

Scandinavian floods: From past observations to future trends
Although most climate models agree on a general increase in future precipitation in the Northern Hemisphere due to higher temperatures, no consensus has yet been reached on how this warming will perturb flooding rates. Here we examine the potential co-variability between winter precipitation (Pw) and floods on millennial time scales. This is accomplished by analyzing reconstructed Pw from five records in Scandinavia, which is, compared to data from two high-resolution flood records from southern Norway. These Holocene records reveal a positive correlation (R2 = 0.41, p > 0.01) between the number of floods and Pw on centennial time scales over the last 6000 years. Future projections for Pw over central Scandinavia for the next 100 years suggest a continued increase in Pw that approximates maximum Holocene precipitation values. Despite an anticipated increase in Pw, the paleodata, nevertheless, suggest that we are likely to witness a decrease in future floods 50–100 years from now because the accompanying warming will cancel that net effect of a wetter regime.

In einer anderen Studie untersuchten Kristina Seftigen und Kollegen Baumringe in Skandinavien und Finnland für die vergangenen 1000 Jahre. Sie fanden eine Phase mit starken Überschwemmungen im 17. Jahrhundert. Dabei konnten sie auch zeigen, dass sich das 20. Jahrhundert in keiner Weise vom Überflutungsgeschehen des letzten Millenniums unterscheidet. Die Arbeit erschien im Juni 2015 in Climate Dynamics. Vielmehr spielte der NAO-Ozeanzyklus eine wichtige Rolle:

A tree-ring field reconstruction of Fennoscandian summer hydroclimate variability for the last millennium
Hydroclimatological extremes, such as droughts and floods, are expected to increase in frequency and intensity with global climate change. An improved knowledge of its natural variability and the underlying physical mechanisms for changes in the hydrological cycle will help understand the response of extreme hydroclimatic events to climate warming. This study presents the first gridded hydroclimatic reconstruction (0.5° × 0.5° grid resolution), as expressed by the warm season Standardized Precipitation Evapotranspiration Index (SPEI), for most of Fennoscandia. A point-by-point regression approach is used to develop the reconstruction from a network of moisture sensitive tree-ring chronologies spanning over the past millennium. The reconstruction gives a unique opportunity to examine the frequency, severity, persistence, and spatial characteristics of Fennoscandian hydroclimatic variability in the context of the last 1,000 years. The full SPEI reconstruction highlights the seventeenth century as a period of frequent severe and widespread hydroclimatic anomalies. Although some severe extremes have occurred locally throughout the domain over the fifteenth and sixteenth centuries, the period is surprisingly free from any spatially extensive anomalies. The twentieth century is not anomalous in terms of the number of severe and spatially extensive hydro climatic extremes in the context of the last millennium. Principle component analysis reveals that there are two dominant modes of spatial moisture variability across Fennoscandia. The same patterns are evident in the observational record and in the reconstructed dataset over the instrumental era and two paleoperiods. The 500 mb pressure patterns associated with the two modes suggests the importance of the summer North Atlantic Oscillation.

 

 

Der Hochsommermonat August wird in Deutschland nicht mehr wärmer

Von Josef Kowatsch

Der Monat August 2017 hatte laut Deutschem Wetterdienst einen Schnitt von 17,9 C. Im Norden war er eher kühl und regnerisch, genauso wie die Nord- und Ostsee. Nur im Süden erfüllte er weitgehend die Sommererwartungen. In der Nähe der Alpen zeigte sich an einigen Tagen sogar mediterranes Klima.

Lange Zeiträume:

Im weiteren Verlauf betrachten wir nur die Temperaturentwicklung dieses Sommermonates über diverse Zeiträume und beginnen mit der Station Berlin-Tempelhof, die seit 1756 zuverlässige Werte liefert. Die 50 Jahre Messungen davor waren noch sehr unregelmäßig und fragwürdig. Die Trendlinie ist zugleich die Durchschnittslinie.

 

Abbildung 1: Augustverlauf seit über 250 Jahren. Der wärmste August in Berlin und wohl überall in Deutschland war der August 1807. Man beachte den letzten Wert 2017 von Tempelhof im Vergleich zu 1807. Weiter sind noch die Augustwerte von 1881 und 1931 eingetragen.

 

Man beachte: Die Werte sind nicht wärmeinselbereinigt, sonst lägen die letzten 130 Jahre tiefer. Tempelhof war 1756 im Geburtsjahr Mozarts noch ein kleiner ländlicher Vorort von Berlin, heute ist Tempelhof ein Stadtteil mit über 60 000 Einwohnern.

Für kürzere Zeiträume kann man auf die Messstationen des Reichswetterdienstes, bzw. Deutschen Wetterdienstes (DWD) zurückgreifen. Wir betrachten im Folgenden den Monat August ab 1942 bis heute:

 

Abbildung 2: Temperaturentwicklung in Deutschland für den Monat August seit 1942, gezeichnet nach den Daten des Deutschen Wetterdienstes.

 

Man kann den Temperaturgang der deutschen Durschnittstemperaturen seit 1942 in vier Abschnitte einteilen:

1) Während der Nazizeit warm.

2) Ab 1942 sanken die Durchschnittstemperaturen und die kühlen Augustmonate hielten an bis 1975.

3) Ab 1975 erfolgte ein Anstieg auf ein neues Temperaturhoch.

4) Seit der Jahrtausendwende haben wir dieses Temperaturhoch überschritten, die Temperaturen des Monates August sinken wieder. Insgesamt liegt das Temperaturniveau aber jetzt höher als zu Beginn der Betrachtung, zumindest zeigt das der Schnitt der  jetzigen DWD-Messstationen, die natürlich nicht dieselben sein können wie 1942.

Um die Entwicklung dramatischer aussehen zu lassen als sie ist, greifen einige Berichterstatter zu einem Trick: Sie lassen die Temperaturbetrachtung inmitten des Kältetales beginnen. Meist beginnt ihre Betrachtungskurve 1961 und im Wellental gestartet kann tatsächlich eine Erwärmung gezeigt werden. Tatsächlich sind aus dem Kältetal der 60er Jahre heraus bis heute die Augusttemperaturen deutlich angestiegen. Der Hochsommermonat August wurde in den letzten 57 Jahren deutlich wärmer. Die Durchschnittstemperaturen lagen damals laut Trendlinie bei 16 Grad, während wir in der Gegenwart laut Trendlinie um 2 Grad höher liegen.

 

Abbildung 3: Temperaturentwicklung in Deutschland für den Monat August seit 1961, gezeichnet nach den Daten des DWD.

 

Kürzere Zeiträume:

Die Trendlinie seit 1961 zeigt keinesfalls den Zukunftstrend, sondern nur den Wärmeverlauf bis 2017. Alle Trendlinien zeigen die Vergangenheit bis heute und nicht die Zukunft. Schon aus Grafik 2 ist erkennbar, dass der Anstieg in den letzten Jahrzehnten nicht mehr weiterging.

Betrachten wir nun die letzten 30 Augustmonate, also 1988 bis 2017, dieser Zeitraum ist die kleinste Klimaeinheit. Die Trendlinie hat nun ein gänzlich anderes Aussehen: Seit 30 Jahren stagnieren die deutschen Augusttemperaturen auf dem Niveau von 1988. Ein Temperaturplateau auf hohem Niveau hat sich herausgebildet

 


Abbildung 4: Temperaturentwicklung in Deutschland für den Monat August seit 1988, gezeichnet nach den Daten des Deutschen Wetterdienstes.

 

Interessant ist jedoch die Betrachtung der letzten 20 Jahre, also die Gegenwart. Der Hochsommermonat August hat seit zwei Jahrzehnten in Deutschland eine leichte Abkühlungstendenz. Der Trend ist nicht signifikant.

 

Abbildung 5: Temperaturentwicklung in Deutschland für den Monat August seit 1997.

 

Es lohnt sich, diese Fakten im Hinterkopf zu behalten, wenn in der Presse wieder einmal die sommerliche „Hitzesau“ durchs Dorf getrieben wird. Hier gilt es, einen kühlen Kopf zu behalten. Einige ländliche Stationen, in deren Umgebung sich weniger baulich verändert hat als in unseren Städten oder an den Flughäfen, zeigen bereits seit 30 Jahren eine leichte Abkühlung. Als Beispiel wählen wir Amtsberg-Dittersdorf im Erzgebirge:

Abbildung 6: Ländliche Stationen mit geringen Wärmeinselwirkungen zeigen bereits seit 30 Jahren eine leichte Augustabkühlung.

 

Fazit: Die Augusttemperaturen verlaufen in Mitteleuropa über mehrere Jahrzehnte betrachtet in Wellen. Momentan befinden wir uns auf einem hohen Niveau. Besonders die wärmeinselarmen Stationen auf dem Lande zeigen jedoch schon wieder eine leichte Abwärtsbewegung an.

 

Forschern dämmert: Atlantische Ozeanzyklen machen Klima

Die Ozeane stellen ein großes Wärmereservoir dar. Im Takte von 60 jährigen Zyklen verschlucken sie drei Jahrzehnte lang Wärme, die sie dann in den folgenden 30 Jahren wieder ausspucken. Im Atlantik läuft dieses Phänomen unter dem Begriff Atlantische Multidekadenoszillation (AMO). Klimamodelle können die Zyklik nicht richtig nachvollziehen, was die daraus abgeleiteten Klimaprognosen zweifelhaft erscheinen lässt. In den letzten Jahren hat sich auf dem Gebiet der Ozeanzyklik kräftig etwas getan. Die systematische Klimabeeinflussung ist jetzt von der Fachwelt endlich akzeptiert. Ein gutes Beispiel ist ein Paper von Dan Seidov und Kollegen im Mai 2017 in den Geophysical Research Letters:

Multidecadal variability and climate shift in the North Atlantic Ocean
Decadal variability of ocean heat content (OHC) and temperature trends over ~60 years in the North Atlantic Ocean were analyzed using a new high-resolution ocean climatology based on quality-controlled historic in situ observations. Тwo ~30 year ocean climates of 1955–1984 and 1985–2012 were compared to evaluate the climate shift in this region. The spatial distribution of the OHC climate shift is highly inhomogeneous, with the climate shift being the strongest southeast of the Gulf Stream Extension. This may be caused by the Atlantic Meridional Overturning Circulation slowdown in conjunction with heaving of warm subtropical water. The 30 year climate shift shows higher OHC gain in the Gulf Stream region than reported in shorter timescale estimates. The OHC change is generally coherent with the Atlantic Multidecadal Oscillation index. This coherence suggests that quasi-cyclicity of the OHC may exist, with a period of 60 to 80 years, superimposed on the slow basin-wide warming trend.

Endlich können auch klimatische Mittelfristprognosen von der Ozeanzyklik profitieren, die vor 5 Jahren – als unser Buch Die kalte Sonne erschien – noch heftig vom peinlich berührten Klimaestablishment abgestritten wurden. Heute ist man klüger. In Irland hängen Temperaturen und Niederschläge zu über 90% an der AMO, wie McCarthy et al. 2015 im Juli 2015 im Fachblatt ‚Weather‘ dokumentierten:

The influence of ocean variations on the climate of Ireland
The influence of the ocean circulation on the climate of Ireland is more subtle than it first appears. Temperatures in Ireland are warmer than similar Pacific maritime climates. It is heat – carried primarily in the Atlantic overturning circulation – released over the Atlantic that provides this additional warmth. We investigate variations in Irish climate using long-term station-based time series. The Atlantic multidecadal oscillation (AMO) explains over 90% of the pronounced decadal temperature and summer precipitation variation. Understanding the impact of these ocean variations when interpreting long climate records, particularly in the context of a changing climate, is crucial.

Die natürliche dekadische Variablität des irischen Klimas ist zwei mal so stark wie der Erwärmungstrend sagt die Arbeit. In den Jahren 1990-2002 trug also die Variabilität zum Anstieg bei. Das wird so nicht gesagt, jedoch vor der anderen “Flanke” des Signals gewarnt:

“Otherwise, decades of cooling can be seen as a contradiction to increased surface temperature trends (in response to continually increasing greenhouse gas emission) when natural ocean variability may be the cause.”

Modelle die die ansteigende Flanke der AMO gut replizieren und allein auf CO2 zurückführen, überschätzen es demnach. Auch wenn die volle Erkenntnis aus verschiedenen Gründen nicht immer vollständig genannt werden kann, setzt sich die überragende Bedeutung der Ozeanzyklen und ihr Beitrag zu den Erwärmungsphasen immer mehr durch. So erschien im Mai 2017 in PNAS eine Arbeit von Bowene und Kollegen. Dort traute man sich nicht ganz an die Heutezeit heran und beschäftigte sich lieber mit einem Zyklus früher. Ihre Botschaft: Die Erwärmung des frühen 20. Jahrhunderts in der Arktis wurde durch die Ozeanzyklen verstärkt. Hier die Pressemiteilung der Kyoto University (via Science Daily):

Scientists uncover a cause for early 20th century Arctic warming

Is a warmer Arctic a canary of global warming?

Since the 1970s the northern polar region has warmed faster than global averages by a factor or two or more, in a process of ‘Arctic amplification’ which is linked to a drastic reduction in sea ice. But then how to explain a similar rapid warming that occurred during the early 20th century, when the effects of greenhouse gases were considerably weaker than today? And what can we prove about the period, given the scarcity of usable data and observations prior to the 1950s? Now scientists from Kyoto University and UC San Diego have discovered that this phenomenon occurred when the warming phase — ‘interdecadal variability mode’ — of both the Pacific and Atlantic Oceans coincided. The team’s findings appeared recently in the journal PNAS.

“We found that early 20th century sea surface temperatures in the tropical Pacific and North Atlantic had warmed much more than previously thought,” explains lead author Hiroki Tokinaga of Kyoto. “Using observations and model simulations, we’ve demonstrated that rising Pacific-Atlantic temperatures were the major driver of rapid Arctic warming in the early 20th century.” Previous explanations for early Arctic warming have including decreased volcanic aerosols and increased solar radiation, but none of these have been able to simulate observed conditions from the period.

Tokinaga’s team found that when the interdecadal rise in sea surface temperatures was included in simulation calculations, the results properly reflected early Arctic conditions. “Coupled ocean-atmosphere simulations also support the intensification of Arctic warming,” continues Shang-Ping Xie of UCSD, “which was caused by a concurrent, cold-to-warm phase shift of Pacific and Atlantic interdecadal modes.” The researchers explain that these new findings can help constrain model climate projections over the Arctic region.

“It is likely that temperatures in the Arctic will continue to rise due to anthropogenic global warming,” concludes Tokinaga. “Our study does not deny this. We are rather suggesting that Arctic warming could accelerate or decelerate due to internal variability of the Pacific and the Atlantic.” “It is a challenge to accurately predict when the next big swing of multidecadal variability will occur. Careful monitoring is essential, given the enormous impact on the Arctic climate.”

Gabriel J. Bowene et al. Early 20th-century Arctic warming intensified by Pacific and Atlantic multidecadal variability. PNAS, May 2017 DOI: 10.1073/pnas.1615880114

Im September 2015 diskutierte Judith Curry eine Nature-Arbeit von McCarthy et al., in der der bevorstehende Umschwung der AMO in die negative, kühlende Phase prognostizert wird:

Ocean impact on decadal Atlantic climate variability revealed by sea-level observations
Decadal variability is a notable feature of the Atlantic Ocean and the climate of the regions it influences. Prominently, this is manifested in the Atlantic Multidecadal Oscillation (AMO) in sea surface temperatures. Positive (negative) phases of the AMO coincide with warmer (colder) North Atlantic sea surface temperatures. The AMO is linked with decadal climate fluctuations, such as Indian and Sahel rainfall1, European summer precipitation2, Atlantic hurricanes3 and variations in global temperatures4. It is widely believed that ocean circulation drives the phase changes of the AMO by controlling ocean heat content5. However, there are no direct observations of ocean circulation of sufficient length to support this, leading to questions about whether the AMO is controlled from another source6. Here we provide observational evidence of the widely hypothesized link between ocean circulation and the AMO. We take a new approach, using sea level along the east coast of the United States to estimate ocean circulation on decadal timescales. We show that ocean circulation responds to the first mode of Atlantic atmospheric forcing, the North Atlantic Oscillation, through circulation changes between the subtropical and subpolar gyres—the intergyre region7. These circulation changes affect the decadal evolution of North Atlantic heat content and, consequently, the phases of the AMO. The Atlantic overturning circulation is declining8 and the AMO is moving to a negative phase. This may offer a brief respite from the persistent rise of global temperatures4, but in the coupled system we describe, there are compensating effects. In this case, the negative AMO is associated with a continued acceleration of sea-level rise along the northeast coast of the United States9, 10.

Schauen wir auf die aktuelle AMO-Kurve der NOAA:

Abb. 1: Verlauf des AMO-Ozeanzyklus. Stand: 1. September 2017. Quelle: NOAA.

 

Naja, wenn man sich die bisherige AMO-Zyklik anschaut, könnte das AMO-Hoch noch mehr als ein Jahrzehnt andauern, so wie wir es auch in unserem Buch ‘Die kalte Sonne’ prognostizert haben. Allerdings befindet sich die PDO (Pazifische Dekadenoszillation) bereits im Sinkflug, was auf globale Sicht in den kommenden Jahren bereits wohl zur Abkühlung führen wird.

Der klimatisch umtriebige Mojib Latif ist übrigens auch Co-Autor einer Studie von Klöwer et al. aus dem Jahr 2014. Dort prognostizieren die Autoren doch in der Tat Ähnliches wie wir in unserem Buch ‘Die kalte Sonne’, nämlich die vorübergehende Fortsetzung des AMO-Plateaus, leicht abknicked, also leicht kühlend.

Abb. 2: AMO-Prognose der Latif-Gruppe (aus: Klöwer et al. 2014)

 

Abb. 3: AMO-Prognose aus unserem Buch “Die kalte Sonne” (2012).

 

Weshalb thematisiert Latif dies nicht einmal bei einem seiner nächsten Sparkassenauftritte? Hier der Abstract:

Atlantic meridional overturning circulation and the prediction of NorthAtlantic sea surface temperature
The Atlantic Meridional Overturning Circulation (AMOC), a major current system in the Atlantic Ocean, is thought to be an important driver of climate variability, both regionally and globally and on a large range of time scales from decadal to centennial and even longer. Measurements to monitor the AMOC strength have only started in 2004, which is too short to investigate its link to long-term climate variability. Here the surface heat flux-driven part of the AMOC during 1900–2010 is reconstructed from the history of the North Atlantic Oscillation, the most energetic mode of internal atmospheric variability in the Atlantic sector. The decadal variations of the AMOC obtained in that way are shown to precede the observed decadal variations in basin-wide North Atlantic sea surface temperature (SST), known as the Atlantic Multidecadal Oscillation (AMO) which strongly impacts societally important quantities such as Atlantic hurricane activity and Sahel rainfall. The future evolution of the AMO is forecast using the AMOC reconstructed up to 2010. The present warm phase of the AMO is predicted to continue until the end of the next decade, but with a negative tendency.

In den Highlights der Studie schreiben die Autoren:

North Atlantic sea surface temperature will stay anomalously warm until about 2030.

Sie hätten aber auch schreiben können:

Ab etwa 2030 wird sich der Nordatlantik spürbar abkühlen

Wie die AMO genau funktioniert inklusive grundsätzlicher Fragen wie Henne oder Ei, ist noch immer ungeklärt. Die Modellierer stehen im Regen, können die Zyklik nicht robust nachbilden. Peinlich. In der Fachwelt ist eine kontroverse Diskussion entbrannt. Beispiel Amy Clement und Kollegen im Oktober 2015 in Science:

The Atlantic Multidecadal Oscillation without a role for ocean circulation
The Atlantic Multidecadal Oscillation (AMO) is a major mode of climate variability with important societal impacts. Most previous explanations identify the driver of the AMO as the ocean circulation, specifically the Atlantic Meridional Overturning Circulation (AMOC). Here we show that the main features of the observed AMO are reproduced in models where the ocean heat transport is prescribed and thus cannot be the driver. Allowing the ocean circulation to interact with the atmosphere does not significantly alter the characteristics of the AMO in the current generation of climate models. These results suggest that the AMO is the response to stochastic forcing from the mid-latitude atmospheric circulation, with thermal coupling playing a role in the tropics. In this view, the AMOC and other ocean circulation changes would be largely a response to, not a cause of, the AMO.

Significance:

Ocean circulation changes not needed
What causes the pattern of sea surface temperature change that is seen in the North Atlantic Ocean? This naturally occurring quasi-cyclical variation, known as the Atlantic Multidecadal Oscillation (AMO), affects weather and climate. Some have suggested that the AMO is a consequence of variable large-scale ocean circulation. Clement et al. suggest otherwise. They find that the pattern of AMO variability can be produced in a model that does not include ocean circulation changes, but only the effects of changes in air temperatures and winds.

Hier die dazugehörige Pressemitteilung der University of Miami Rosenstiel School of Marine & Atmospheric Science vom 15. Oktober 2015:

New Study Questions Long-Held Theories of Climate Variability in the North Atlantic

UM Rosenstiel School researchers suggest atmosphere drives decades-long climate variations.

A University of Miami (UM) Rosenstiel School of Marine and Atmospheric-led study challenges the prevailing wisdom by identifying the atmosphere as the driver of a decades-long climate variation known as the Atlantic Multi-decadal Oscillation (AMO). The findings offer new insight on the causes and predictability of natural climate variations, which are known to cause wide-ranging global weather impacts, including increased rainfall, drought, and greater hurricane frequency in many parts of the Atlantic basin. (weiterlesen …)

Unerwarteter Wirkungsverlust: Staub reduziert solare Energieausbeute in einigen Regionen um mehr als 25%

Kostenlose Energie von der Sonne. Das stimmt, aber nur zur Hälfte. Denn um die kostenlose solare Energie einzufangen, braucht man Solarpanele – und natürlich reichlich Raum um diese aufzustellen. Ungenutzte Dächer bieten sich dazu an. Allerdings werden Solaranlagen zunehmend auf fruchtbarem Ackerland und anderen hochwertigen Flächen aufgestellt. Die Subventionspolitik treibt seltsam Blüten. Es soll sogar einige Solarfarmer geben, die ihre Zellen nachts mit Strom aus der Steckdose bescheinen, um den subventionierten “Solarstrom” auch nachts zu Höchstpreisen einzuspeisen.

Wo viel Geld im Spiel ist, dort gibt es Lobbyisten. Skeptiker werden kurzerhand kaltgestellt, entweder durch persönliche Attacken oder Fördermittelentzug. Das Carolina Journal berichtete am 25. Juli 2017 über einen krassen Fall des SolarLobby-Mobbings:

N.C. State researchers say solar lobby silencing them
Heiniger and Eckerlin removed from government-sponsored forums when they questioned effects of large solar facilities on farmland

Ron Heiniger just wanted to be a farmer. He encouraged research to avoid solar industry encroachment on North Carolina’s prime farmlands. But because of his academic study, the respected crop and soil scientist has become an unwilling poster child for anti-solar activists, vilified by the solar lobby, and chastened by his employer, N.C. State University. “I’ve been called crazy. I’ve been threatened. My job’s been threatened. I really don’t want to advertise my issue very much anymore,” said Heiniger, who works at the Vernon G. James Research and Extension Center in Plymouth.

Weiterlesen im Carolina Journal

Halten die Solarpanele eigentlich ewig? Antwort: Nein! Mittel- bis langfristig droht uns daher eine riesige Solarmüll-Lawine zu erschlagen, wie The Energy Collective am 28. Juni 2017 zu bedenken gab:

Are We Headed for a Solar Waste Crisis?

Last November, Japan’s Environment Ministry issued a stark warning: the amount of solar panel waste Japan produces every year will rise from 10,000 to 800,000 tons by 2040, and the nation has no plan for safely disposing of it. Neither does California, a world leader in deploying solar panels. Only Europe requires solar panel makers to collect and dispose of solar waste at the end of their lives. All of which begs the question: just how big of a problem is solar waste? Environmental Progress investigated the problem to see how the problem compared to the much more high-profile issue of nuclear waste. We found:

  • Solar panels create 300 times more toxic waste per unit of energy than do nuclear power plants.
  • If solar and nuclear produce the same amount of electricity over the next 25 years that nuclear produced in 2016, and the wastes are stacked on football fields, the nuclear waste would reach the height of the Leaning Tower of Pisa (52 meters), while the solar waste would reach the height of two Mt. Everests (16 km).
  • In countries like China, India, and Ghana, communities living near e-waste dumps often burn the waste in order to salvage the valuable copper wires for resale. Since this process requires burning off the plastic, the resulting smoke contains toxic fumes that are carcinogenic and teratogenic (birth defect-causing) when inhaled.

Weiterlesen auf The Energy Collective

Solaranlagen rentieren sich vor allem in warmen, heißen Gebieten, z.B. in Wüsten bzw. wüstenartigen Gegenden. Genau dort gibt es aber auch schlimme Staubstürme. Der Staub lagert sich auch auf den Solaranlagen ab. Duke University konnte nun in einer Studie zeigen, dass die Staubverunreinigungen in manchen Gegenden der Erde die elektrische Ausbeute der Solaranlagen um zum Teil mehr als 25% herabsetzen:

Air Pollution Casts Shadow over Solar Energy Production

First study of its kind shows airborne particles and their accumulation on solar cells is cutting energy output by more than 25 percent in certain parts of the world. Global solar energy production is taking a major hit due to air pollution and dust.

According to a new study, airborne particles and their accumulation on solar cells are cutting energy output by more than 25 percent in certain parts of the world. The regions hardest hit are also those investing the most in solar energy installations: China, India and the Arabian Peninsula. The study appears online June 23 in Environmental Science & Technology Letters. “My colleagues in India were showing off some of their rooftop solar installations, and I was blown away by how dirty the panels were,” said Michael Bergin, professor of civil and environmental engineering at Duke University and lead author of the study. “I thought the dirt had to affect their efficiencies, but there weren’t any studies out there estimating the losses. So we put together a comprehensive model to do just that.”

With colleagues at the Indian Institute of Technology-Gandhinagar and the University of Wisconsin at Madison, Bergin measured the decrease in solar energy gathered by the IITGN’s solar panels as they became dirtier over time. The data showed a 50-percent jump in efficiency each time the panels were cleaned after being left alone for several weeks. The researchers also sampled the grime to analyze its composition, revealing that 92 percent was dust while the remaining fraction was composed of carbon and ion pollutants from human activity. While this may sound like a small amount, light is blocked more efficiently by smaller man-made particles than by natural dust. As a result, the human contributions to energy loss are much greater than those from dust, making the two sources roughly equal antagonists in this case.

“The manmade particles are also small and sticky, making them much more difficult to clean off,” said Bergin. “You might think you could just clean the solar panels more often, but the more you clean them, the higher your risk of damaging them.” Having previously analyzed pollutants discoloring India’s Taj Mahal, Bergin already had a good idea of how these different particles react to sunlight. Using his earlier work as a base, he created an equation that accurately estimates the amount of sunlight blocked by different compositions of solar panel dust and pollution buildup. But grimy buildup on solar panels isn’t the only thing blocking sunlight—the ambient particles in the air also have a screening effect. For that half of the sun-blocking equation, Bergin turned to Drew Shindell, professor of climate sciences at Duke and an expert in using the NASA GISS Global Climate Model.

Because the climate model already accounts for the amount of the sun’s energy blocked by different types of airborne particles, it was not a stretch to estimate the particles’ effects on solar energy. The NASA model also estimates the amount of particulate matter deposited on surfaces worldwide, providing a basis for Bergin’s equation to calculate how much sunlight would be blocked by accumulated dust and pollution. The resulting calculations estimate the total loss of solar energy production in every part of the world. While the United States has relatively little migratory dust, more arid regions such as the Arabian Peninsula, Northern India and Eastern China are looking at heavy losses — 17 to 25 percent or more, assuming monthly cleanings. If cleanings take place every two months, those numbers jump to 25 or 35 percent.

There are, of course, multiple variables that affect solar power production both on a local and regional level. For example, a large construction zone can cause a swift buildup of dust on a nearby solar array. The Arabian Peninsula loses much more solar power to dust than it does manmade pollutants, Bergin said. But the reverse is true for regions of China, and regions of India are not far behind. “China is already looking at tens of billions of dollars being lost each year, with more than 80 percent of that coming from losses due to pollution,” said Bergin. “With the explosion of renewables taking place in China and their recent commitment to expanding their solar power capacity, that number is only going to go up.” “We always knew these pollutants were bad for human health and climate change, but now we’ve shown how bad they are for solar energy as well,” continued Bergin. “It’s yet another reason for policymakers worldwide to adopt emissions controls.” This work was supported by the US Agency for International Development and the Office of the Vice Provost for Research at Duke University.

“Large reductions in solar energy production due to dust and particulate air pollution,” Mike Bergin, Chinmay Ghoroi, Deepa Dixit, Jamie Schauer, Drew Shindell. Environmental Science & Technology Letters, June 26, 2017. DOI: 10.1021/acs.estlett.7b00197

Zum Abschluss wieder eine gute Nachricht. Die FAZ berichtete am 21. Juni 2017 über frische Ideen in der Energiespeicherung:

Friesische Salzkavernen werden zu Batterien
Die Achillesferse der Energiewende sind fehlende Stromspeicher. Doch in Ostfriesland hat man nun eine Lösung gefunden. Dort soll „die größte Batterie der Welt“ entstehen.

Weiterlesen in der FAZ

 

Tank oder Teller? Biotreibstoffe unter Beschuss

Elektoautos sind groß in Mode. Der Fahrer eines solchen wird als ökologisch und moralisch hochstehend behandelt. Ach, könnten wir doch alle so fortschrittlich und weitblickend wie E-Auto-Fahrer sein. Wie so oft klaffen jedoch Wahrnehmung und Wirklichkeit weit auseinander. Wussten Sie, dass das für die Batterien so wichtige Kobalt in kongolesischen Minen unter oft menschenunwürdigen Bedingungen, zum Teil durch Kinderarbeit gewonnen wird? Elektromobilität powered by child labour? Klingt plötzlich gar nicht mehr so gut. Zudem zeigten ökologische Gesamtberechnungen, dass die Gesamt-CO2-Bilanz von Elektroautos gar nicht so beeindruckend aussieht wie lange gedacht. Es dauert viele tausende von Kilometern, bis die E-Kutschen mit den Benzinern gleichziehen. So muss ein Tesla offenbar 8 Jahre fahren, um Emissionvorteile gegenüber herkömmlichen Autos zu erzielen.

Außerdem hängt der CO2-Fussabruck auch stark vom Energiemix des jeweiligen Landes ab. In Deutschland wird noch immer ein großer Teil der Elektrizität von Kohlekraftwerken produziert, die mehr CO2 ausstoßen als die Benzinmotoren. Elektromobilität powered by coal? Nur mit rosaroter Brille und Scheuklappen kann man sich die E-Autos richtig schön reden. Wer alle Faktoren einbezieht, erkennt schnell die dunklen Flecken auf der E-Autoweste, die politisch gerne totgeschwiegen werden.

Bei den Biotriebstoffen ist schon länger bekannt, dass sie keine bedeutenden CO2-Einsparungen bringen. Der Anbau der Energiepflanzen in Monokulturen bringt jedoch große Probleme für Flora und Fauna, wie die Deutsche Wildtierstiftung am 14. August 2017 per Pressemitteilung bekanntgab:

Das Verschwinden der Schmetterlinge

Der Statusbericht “Das Verschwinden der Schmetterlinge” des renommierten Biologen Professor Dr. rer nat. Josef H. Reichholf hat erschreckende Erkenntnisse gebracht: Der Rückgang der Populationen ist bundesweit dramatisch – das stille Sterben schreitet ungebremst voran. Am 21. August, um 10 Uhr, erfahren Sie im Veranstaltungsraum “High End” des Radisson Blue Hotel, Marseiller Str. 2, 20355 Hamburg (gleich neben dem Bahnhof Dammtor) die Ergebnisse der Forschungsarbeit zu Schmetterlingen in Deutschland. Zu dem Thema hat die Deutsche Wildtier Stiftung begleitend bei dem Institut für Demoskopie Allensbach eine repräsentative Umfrage zu Schmetterlingen in Auftrag gegeben. Auf der Pressekonferenz werden die Ergebnisse der Allensbach-Umfrage vorgestellt. Gibt es Rettung für die Schmetterlinge und was ist zu tun? Die Deutsche Wildtier Stiftung stellt zum Abschluss vor, welche Konsequenzen zu ziehen sind und was sich in urbanen und ländlichen Räumen ändern muss.

Siehe auch Artikel in der Zeit. und auf t-online.

Was wir schon immer geahnt haben: Getreide sollte lieber auf dem Teller anstatt im Tank landen. Zu diesem Ergebnis kam jetzt auch die University of Illinois:

Corn better used as food than biofuel, study finds

Corn is grown not only for food, it is also an important renewable energy source. Renewable biofuels can come with hidden economic and environmental issues, and the question of whether corn is better utilized as food or as a biofuel has persisted since ethanol came into use. For the first time, researchers at the University of Illinois have quantified and compared these issues in terms of economics of the entire production system to determine if the benefits of biofuel corn outweigh the costs.

Civil and environmental engineering professor Praveen Kumar and graduate student Meredith Richardson published their findings in the journal Earth’s Future. As part of a National Science Foundation project that is studying the environmental impact of agriculture in the U.S., the Illinois group introduced a comprehensive view of the agricultural system, called critical zone services, to analyze crops’ impacts on the environment in monetary terms. “The critical zone is the permeable layer of the landscape near the surface that stretches from the top of the vegetation down to the groundwater,” Kumar said. “The human energy and resource input involved in agriculture production alters the composition of the critical zone, which we are able to convert into a social cost.”

To compare the energy efficiency and environmental impacts of corn production and processing for food and for biofuel, the researchers inventoried the resources required for corn production and processing, then determined the economic and environmental impact of using these resources – all defined in terms of energy available and expended, and normalized to cost in U.S. dollars. “There are a lot of abstract concepts to contend with when discussing human-induced effects in the critical zone in agricultural areas,” Richardson said. “We want to present it in a way that will show the equivalent dollar value of the human energy expended in agricultural production and how much we gain when corn is used as food versus biofuel.”

Kumar and Richardson accounted for numerous factors in their analysis, including assessing the energy required to prepare and maintain the landscape for agricultural production for corn and its conversion to biofuel. Then, they quantified the environmental benefits and impacts in terms of critical zone services, representing the effects on the atmosphere, water quality and corn’s societal value, both as food and fuel. In monetary terms, their results show that the net social and economic worth of food corn production in the U.S. is $1,492 per hectare, versus a $10 per hectare loss for biofuel corn production.

“One of the key factors lies in the soil,” Richardson said. The assessment considered both short-term and long-term effects, such as nutrients and carbon storage in the soil. “We found that most of the environmental impacts came from soil nutrient fluxes. Soil’s role is often overlooked in this type of assessment, and viewing the landscape as a critical zone forces us to include that,” Richardson said. “Using corn as a fuel source seems to be an easy path to renewable energy,” said Richard Yuretich, the NSF program director for Critical Zone Observatories. “However, this research shows that the environmental costs are much greater, and the benefits fewer, than using corn for food.” The National Science Foundation supported this research through the Grants for Intensively Managed Landscapes Critical Zone Observatory.