Wir sind wieder online!

Liebe Leser,

Letztes Wochenende (14./15. Juli 2018) war unser Blog leider wegen einer Serverumstellung nicht erreichbar. Wir erhielten zahlreiche Mails von besorgten Lesern. Seit Montag ist die Seite wieder online, allerdings fehlten einige Artikel, da die verschiedenen Eingangsseiten www.kaltesonne.de, www.kalte-sonne.de und www.diekaltesonne.de noch nicht synchron liefen. Nun leiten wir alle Zugriffe auf www.diekaltesonne.de um, so dass alles erstmal wieder im Takt läuft. Mittelfristig soll sich alles wieder normalisieren. Leider funktionieren die Kaltesonne.de Email-Adressen momentan nicht. Bei dringenden Mails bitte die im Impressum angegebene Email verwenden. Ab Morgen (Mittwoch, 18. Juli 2018) werden wir wieder wie gewohnt über den Klimawandel berichten können, pünktlich um 7:30 Uhr morgens deutscher Zeit. Danke für Ihre Geduld, Treue und Interesse am Thema.

Beste Grüße

Das Kalte-Sonne-Team

Insektensterben durch Lichtverschmutzung!?

Pressemitteilung des Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) vom 19. Juni 2018:

————

Insektensterben durch Lichtverschmutzung!?

Künstliche Beleuchtung in der Nacht könnte ein Grund für den Insektenrückgang sein

Klimawandel, Pestizide und Landnutzungsänderungen allein können den Rückgang von Insektengemeinschaften in Deutschland nicht vollends erklären. WissenschaftlerInnen vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben nun festgestellt, dass die Regionen, die einen starken Rückgang an Fluginsekten verzeichnen, auch unter einer hohen Lichtverschmutzung leiden. Viele Studien weisen bereits darauf hin, dass künstliches Licht in der Nacht negative Auswirkungen auf Insekten hat und dass diesem Umstand künftig mehr Beachtung geschenkt werden sollte, wenn es an die Ursachenforschung für das Insektensterben geht.

Die Biomasse fliegender Insekten ist um mehr als 75 Prozent zurückgegangen – diese alarmierende Zahl hat im Herbst 2017 Schlagzeilen gemacht. Die AutorInnen der 2017 veröffentlichten Studie hatten die Zahl der Fluginsekten in ausgewählten Schutzgebieten innerhalb von Landwirtschaftsflächen in Deutschland über 27 Jahre beobachtet und vermuten, dass die Veränderungen von Klima und Lebensraum für den Rückgang der Insektenpopulationen verantwortlich sind. Gleichzeitig wiesen sie darauf hin, dass diese Einflüsse allein den drastischen Rückgang noch nicht erklären können.

Licht zur falschen Zeit bringt Ökosysteme aus dem Gleichgewicht

Ein klarer Arbeitsauftrag für die WissenschaftlerInnen der IGB-Arbeitsgruppe Lichtverschmutzung und Ökophysiologie. Denn dass künstliche Beleuchtung in der Nacht die Zahl und Gemeinschaften von Insekten stark beeinflusst, wissen sie aus früheren Arbeiten. Das Team um IGB-Forscherin Dr. Maja Grubisic hat sich deshalb zunächst die Lage der 2017er-Untersuchungsgebiete angeschaut: Gebiete in Ballungszentren, die eine überdurchschnittlich hohe Lichtverschmutzung aufweisen. „Die Hälfte aller Insektenarten ist nachtaktiv. Sie sind auf Dunkelheit und natürliches Licht von Mond und Sternen angewiesen, um sich zu orientieren und fortzubewegen oder Räubern auszuweichen. Und um ihren allnächtlichen Aufgaben wie Nahrungssuche und Fortpflanzung nachzugehen. Eine künstlich erhellte Nacht stört dieses natürliche Verhalten – mit negativen Auswirkungen auf die Überlebenschancen“, begründet Maja Grubisic den Ausgangspunkt ihrer Untersuchung.

Die WissenschaftlerInnen haben alle jüngsten Einzelstudien zu den Auswirkungen von künstlichem Licht in der Nacht auf Insekten ausgewertet und festgestellt, dass Vieles für einen ernstzunehmenden Zusammenhang zwischen Lichtverschmutzung und Insektensterben spricht. Fluginsekten werden beispielsweise von künstlichen Lichtquellen angezogen – und gleichzeitig aus anderen Ökosystemen abgezogen – und sterben durch Erschöpfung oder als leichte Beute. Zusätzlich werden sie durch Lichtbarrieren in ihrer Ausbreitung gebremst. Der dadurch fehlende genetische Austausch innerhalb zergliederter Insektenpopulationen könnte deren Widerstandsfähigkeit gegen andere negative Umwelteinflüsse reduzieren, die sich in landwirtschaftlich genutzten Gebieten besonders akkumulieren.

Auf Landwirtschaftsflächen – die immerhin elf Prozent der weltweiten Bodennutzung ausmachen – bedeuten weniger Insekten aber nicht nur eine geringere Artenvielfalt, sondern auch die Gefährdung wichtiger Ökosystemleistungen: weniger Nachtfalter, Käfer und Fliegen bestäuben zum Beispiel weniger Pflanzen. Und auch Veränderungen im Vorkommen und Verhalten von Schädlingen wie Blattläusen oder aber deren Feinden wie Käfern und Spinnen können das eingespielte System aus dem Gleichgewicht bringen. Darüber hinaus kann künstliches Licht in der Nacht auch direkte Auswirkungen auf Wachstum und Blütezeit der Pflanzen und somit den Ertrag haben.

Alle Einflussfaktoren müssen verstanden und berücksichtigt werden – darunter auch Lichtverschmutzung

„Unsere Übersichtsstudie zeigt, dass künstliches Licht in der Nacht weit verbreitet ist und komplexe Auswirkungen in landwirtschaftlichen Gebieten mit unbekannten Konsequenzen für die Biodiversität in Agrarökosystemen haben kann. Daher sollte Lichtverschmutzung in zukünftigen Studien generell als potentieller Stressfaktor berücksichtigt werden, um letztlich Wege aufzuzeigen, die helfen Umweltprobleme zu reduzieren,“ resümiert Dr. Franz Hölker, Leiter der Arbeitsgruppe Lichtverschmutzung und Ökophysiologie am IGB.

Lesen Sie die Studie in der Fachzeitschrift Annals of Applied Biology >

Grubisic, M., van Grunsven, R.H.A., Kyba, C.C.M., Manfrin, A. and Hölker, F. (2018) Insect declines and agroecosystems: does light pollution matter? Ann Appl Biol. doi:10.1111/aab.12440

 

Serverumstellung

Liebe Leser,

An diesem Wochenende (14./15. Juli 2018) stellen wir unseren Server um. Aus diesem Grund werden wir zu dieser Zeit voraussichtlich keine neuen Blogartikel veröffentlichen. Bitte nutzen Sie diese Pause zu einem schönen Sommer-Spaziergang an der frischen Luft oder in ähnlich nachhaltiger Weise. Wir sind in Kürze wieder für Sie da und werden weiter über die wundersame Welt des Klimawandels berichten.

Beste Grüße

Ihre Kalte-Sonne Redaktion

 

Der städtische Wärmeinseleffekt in Deutschland – Teil 2

Von Dipl.-Phys. Dr. Jan Olzem

Im ersten Teil des Artikels haben wir uns ausführlich mit der Zeitreihe der Jahresmitteltemperaturen in Deutschland auseinandergesetzt und die Frage aufgeworfen, welchen Einfluß das Wachstum der Städte auf die gemessene Temperaturentwicklung der letzten Jahrzehnte gehabt hat. Um dies zu klären, muss ein geeignetes Kriterium gefunden werden, mit dessen Hilfe sich die unmittelbare Umgebung einer Wetterstation als ländlich bzw. urban (städtisch) charakterisieren lässt. Auf diese Weise können urban gelegene Stationen separat betrachtet und Unterschiede in der Temperaturentwicklung gegenüber der ländlichen Umgebung dargestellt werden.

In den letzten Jahren hat sich ein sehr nützliches Mittel für diesen Zweck herauskristallisiert: die satellitengestützte Kartierung der nächtlichen Lichtintensität (Nighttime Lights) aus künstlichen Quellen. Der Zusammenhang leuchtet unmittelbar ein: Straßenlaternen, Gebäudebeleuchtung, Fahrzeugscheinwerfer, Leuchtreklame und viele andere anthropogene Lichtquellen sind typische Merkmale der städtischen Umgebung und eng mit den Ursachen des städtischen Wärmeinseleffektes (Bebauung und Versiegelung) verknüpft. Hinzu kommt die weiträumige atmosphärische Streuung des Lichtes in der Umgebung der Städte. Tatsächlich ist der Zusammenhang zwischen Urbanisierung und Lichtintensität seit einigen Jahren intensiv erforscht und sehr gut belegt worden. Es bietet sich also an, die Lichtintensität in der Umgebung einer Wetterstation als Maß für den Wärmeinseleinfluß zu nutzen.

 

Abbildung 6: Links: die Verteilung der Lichtintensität aus künstlichen Lichtquellen (Nighttime Lights) in Deutschland (Datenquelle: NOAA, US Air Force Weather Agency); rechts: die Verteilung der AHI (Datenquelle: Benz et al. 2017)

 

Satellitendaten zur nächtlichen Lichtintensität sind aus verschiedenen Quellen frei verfügbar. Die linke Seite der Abbildung 6 zeigt die Messung des OLS-Instrumentes an Bord eines DMSP-Satelliten (US-Verteidigungsministerium) für das Jahr 2013. Es handelt sich um ein Komposit aus vielen über das Jahr verteilten Einzelmessungen, wobei temporäre Lichtquellen (z.B. Wolken, Brände) herausgefiltert wurden. Die Lichtintensität wird in der abstrakten Einheit DN angegeben und reicht von 1 (stockfinster) bis 63 (sehr hell). Die Daten liegen in Form eines Rasters mit einer Auflösung von 30 Bogensekunden vor, das entspricht etwas weniger als 1 Kilometer auf der Erdoberfläche. Auf diese Weise kann jedem Ort in Deutschland ein DN-Wert für die Lichtintensität direkt zugeordnet werden.

 

Abbildung 7: Wetterstationen mit DN >= 15 (urban, rote Punkte) und DN < 15 (ländlich, blaue Punkte) in der Mainregion vor dem Hintergrund der Nighttime Lights

 

Somit haben wir nun ein Maß für die Charakterisierung der Umgebung von Wetterstationen zur Hand. Abbildung 7 zeigt dies beispielhaft für die Mainregion vor dem Hintergrund der Nighttime Lights. Jeder farbige Punkt stellt den Ort einer der betrachteten Wetterstationen in der Region dar, wobei zwischen ländlich (blau) und urban (rot) unterschieden wird. Als Grenzwert wurde hier DN = 15 gewählt, was einen etwas willkürlichen aber in der Literatur durchaus gängigen Wert darstellt. Zusätzlich ist die Lage einiger größerer Städte eingezeichnet. Ein erheblicher Teil der Stationen befindet sich demnach tatsächlich in stark bebauten Gebieten (bzw. “befand”, da nicht alle Stationen heute noch in Betrieb sind).

 

Abbildung 8: Zehnjährige gleitende Mittelwerte der Jahresmitteltemperatur (unkorrigierte Rohdaten) in Deutschland seit dem Jahr 1900 für verschiedene DN-Obergrenzen. Die Mittelwerte sind zentriert und werden somit erst ab dem Jahr 1905 dargestellt.

 

Nun wird es interessant. Wie sieht der Temperaturverlauf der letzten Jahrzehnte in Abhängigkeit von der Lage der Wetterstationen aus? In Abbildung 8 ist die Temperaturentwicklung für verschiedene Obergrenzen von DN dargestellt, d.h. beginnend mit den Stationen in den nachtdunkelsten Gebieten (rosa) bis hin zu allen betrachteten Stationen (grau). Zur Glättung der Kurven wurde ein zehnjähriger gleitender Mittelwert verwendet. Zunächst einmal ist deutlich erkennbar, dass die Temperatur tatsächlich mit der nächtlichen Lichtintensität variiert – je dunkler die Umgebung, desto niedriger ist auch die mittlere Temperatur. Bei genauem Hinsehen offenbart sich allerdings eine faustdicke Überraschung: in den nachtdunkleren Gebieten mit niedrigem DN ist die Temperatur offensichtlich sehr viel stärker angestiegen als im Mittel aller Stationen (einschließlich der Städte). Die Differenz von über 2°C ist erheblich und stellt genau das Gegenteil dessen dar, was man vom Wärmeinseleffekt erwarten würde. Wie kann das sein?

 

Abbildung 9: Änderung der mittleren Stationshöhe für verschiedene Werte von DN

 

Die Lösung des Rätsels hat wieder einmal etwas mit der Höhe über N.N. zu tun. Betrachtet man die Veränderung der gemittelten Stationshöhe für die verschiedenen DN-Obergrenzen (Abbildung 9), zeigt sich ein klarer Trend. Während die über alle Stationen gemittelte Höhe (grau) mit der Zeit nur geringfügig abgenommen hat, liegen die nachtdunkelsten Stationen (rosa) heute im Durchschnitt mehr als 350 m tiefer als zu Beginn des letzten Jahrhunderts. Dies läßt sich folgendermaßen interpretieren: Stationen in Höhenlagen wurden aufgegeben und zum Teil durch neue Messstellen an vergleichbar entlegenen, jedoch weniger gebirgigen Orten, ersetzt. Sicherlich spielen die Unterhaltskosten dabei eine wichtige Rolle. Hier zeichnen sich erste Hinweise ab auf ein Tendenz, von der später noch ausführlich die Rede sein wird.

Abbildung 8 zeigt also einen Effekt, der hauptsächlich auf der Veränderung des Messnetzes beruht, da die nächtliche Lichtintensität eben auch eine starke Korrelation zur Höhe aufweist. Eine Möglichkeit, dies in den Griff zu bekommen, bestünde nun darin, die Temperaturdaten mit Hilfe der im ersten Teil dieses Artikels beschriebenen Höhenkorrektur einheitlich auf N.N. zu reduzieren, d.h. den Einfluß der Höhe auf die Temperatur herauszurechnen. Die Sache hat aber leider einen Haken: die Höhenkorrektur ist aus verschiedenen Gründen nicht perfekt und kann somit den Höheneinfluß nicht immer restlos eliminieren. Da der Höheneffekt sehr ausgeprägt ist, bestünde nach der Korrektur das Risiko von Restabhängigkeiten, die in den Daten verbleiben und nur sehr schwer von einem möglichen echten Wärmeinselsignal zu trennen sind.

Besser wäre, wenn man DN ersetzen könnte durch eine Größe, die per se weniger anfällig für derartige Störeffekte ist. Ein solcher Ansatz wurde 2017 von Forschern des KIT (Karlsruhe) und der TH Ingolstadt (Benz et al.) publiziert. Im kaltesonne-Blog wurde darüber berichtet. Die Autoren definieren dort die Größe AHI (anthropogenic heat intensity), die die Temperaturdifferenz eines Ortes gegenüber seinem ländlich geprägten Umland darstellt. Als Quelle der Temperaturmesswerte dienten auch hier die Wetterstationen des DWD. Ein Ort in der Umgebung wird von den Autoren als ländlich eingestuft, wenn die nächtliche Lichtintensität dort gering ist (DN < 15). Es handelt sich bei AHI also im Prinzip um einen Indikator, der direkt gemessene Temperaturdifferenzen widergibt, aber indirekt dennoch auf den Nighttime Lights basiert. Frau Benz hat freundlicherweise die AHI-Daten für diese Analyse zur Verfügung gestellt.

Wie die Nighttime Lights kann auch AHI flächendeckend für jeden Ort in Deutschland bestimmt werden. Eine Karte der AHI-Werte zeigt die rechte Seite der Abbildung 6 am Anfang des Artikels: Ihre Verteilung ähnelt sehr stark derjenigen der Nighttime Lights, was nicht verwunderlich ist, da AHI ja auf Basis der nächtlichen Lichtintensität berechnet wird. Der Vorteil von AHI besteht jedoch darin, dass die Temperatur an einem Ort direkt zu seiner unmittelbaren Umgebung in Bezug gesetzt wird. Ersetzt beispielsweise eine neue Wetterstation eine kürzlich geschlossene, so “wandert” die Bezugsregion sozusagen mit, was den störenden Einfluss von Größen wie etwa der Höhe wirkungsvoll unterdrückt.

 

Abbildung 10: Häufigkeitsverteilung der Stationen nach AHI-Wert (Datenquelle: Benz et al. 2017)

 

Die Häufigkeitsverteilung der AHI-Werte der DWD-Wetterstationen zeigt Abbildung 10. AHI liegt zwischen -1°C und ca. +3,5°C, d.h. die stärksten Wärmeinseln sind demnach im Mittel über 3°C wärmer als ihre Umgebung (z.B. die Stationen München-Bogenhausen, Dresden-Mitte, Hamburg-Deutsche Seewarte, Augsburg-Sankt Stephan, Berlin-Invalidenstraße, Berlin-Ostkreuz und Berlin-Mitte). Die Spitzenwerte der Temperaturdifferenz zum Umland können an einzelnen Tagen jedoch auch deutlich darüber liegen. Damit ist bereits allein aufgrund der Verteilung der AHI-Werte klar, dass der Wärmeinseleffekt existiert und in den DWD-Daten messbar ist.

Benz et al. lassen bei der Auswahl der ländlichen Umgebung eines Ortes Höhenunterschiede von bis zu ±90 m zu. Auf diese Weise ist es durchaus möglich, dass die ländliche Umgebung eines Ortes im Mittel höher liegt und dadurch etwas kühler ist als der Ort selbst, so dass ihm ein AHI-Wert unter null zugeordnet wird. Darüberhinaus gibt es natürlich auch weitere Faktoren, die die mittlere Temperatur lokal beeinflussen können. Beispiele für Orte mit sehr niedrigem AHI-Wert (ca. -0,9°C) sind: Zwieselberg (Allgäu), Schulenberg (Oberharz), Veilsdorf (Thüringer Wald) und Mittenwald-Buckelwiesen (Oberbayern), die sich alle in Gegenden mit vergleichsweise hoher Reliefenergie befinden.

 

Abbildung 11: Zehnjährige gleitende Mittelwerte der Jahresmitteltemperatur (unkorrigierte Rohdaten) Deutschland für verschiedene AHI-Obergrenzen

 

Abbildung 11 zeigt die Temperaturentwicklung für verschiedene Obergrenzen von AHI. Die rote Kurve gibt den Temperaturverlauf für die Wetterstationen mit den höchsten Temperaturdifferenzen gegenüber ihrer ländlichen Umgebung wieder (AHI > 2), die graue Kurve diejenige für alle Wetterstationen. Es ist ein deutlicher Temperaturunterschied erkennbar, wie es aufgrund der Häufigkeitsverteilung der AHI (Abbildung 10) zu erwarten war. Im Gegensatz zu den Temperaturverläufen für verschiedene DN (Abbildung 8) fehlt jedoch der durch die Verschiebung hin zu geringerer Stationshöhe verursachte starke Temperaturanstieg in ländlichen Gebieten mit niedrigen AHI-Werten. Offensichtlich haben wir nun tatsächlich einen zuverlässigen Wärmeinselindikator bei der Hand, der nur in geringem Maße von der Entwicklung des DWD-Messnetzes beeinflusst wird.

Die entscheidende Frage ist nun, ob – und ggf. wie stark – der Wärmeinseleffekt zum Anstieg der Temperaturen in Deutschland in den letzten Jahrzehnten beigetragen hat. Anders ausgedrückt: Stieg die Temperatur in den Städten schneller als auf dem Land? Mit dieser Frage werde ich mich im dritten Teil des Artikels befassen.

 

Der städtische Wärmeinseleffekt in Deutschland – Teil 1

Von Dipl.-Phys. Dr. Jan Olzem

Städte und besonders urbane Ballungsräume weisen im Vergleich zu ihrem ländlich geprägten Umland eine höhere durchschnittliche Lufttemperatur auf. Dieses Phänomen ist als städtischer Wärmeinseleffekt (engl. urban heat island, UHI) bekannt. Im kaltesonne-Blog ist schon mehrfach darüber berichtet worden. Die maximalen Temperaturdifferenzen zur Umgebung liegen bei Kleinstädten meist im Bereich von etwa 3-4°C, können bei Großstädten aber durchaus auch 10°C und darüber betragen, insbesondere nachts während längerer Hitzeperioden. Der städtische Wärmeinseleffekt hat eine Reihe verschiedener Ursachen wie etwa die Strahlungsabsorption und Wärmespeicherung durch Bebauung und Versiegelung (z.B. Asphalt und Beton), verringerte Verdunstungskühlung und eingeschränkte Luftzirkulation.

Aufgrund des seit Jahrzehnten in Deutschland anhaltenden Trends zur Suburbanisierung, d.h. der Abwanderung der Bevölkerung aus den Innenstädten in das Umland, steigt auch der Grad der Bebauung und Flächenversiegelung in den städtischen Randgebieten. Es liegt nahe, dass im Zuge dieses Prozesses auch der städtische Wärmeinseleffekt und damit die Lufttemperatur in den Städten zunimmt. Was passiert nun, wenn eine Wetterstation, die sich jahrelang auf freier Fläche außerhalb der Stadt befand, zunehmend umbaut wird? Geschieht das überhaupt? Wenn ja, wie wirkt es sich auf die Messung der langfristigen Wetterstatistik – des Klimas – aus? Hat der Wärmeinseleffekt einen Einfluss auf die Messung der Temperaturentwicklung in Deutschland? Diesen Fragen möchte ich in diesem Artikel nachgehen.

 

Abbildung 1: Links: die geografische Position aller betrachteter DWD-Wetterstationen (rote Punkte); rechts: DWD-Messfeld auf dem Hohen Peißenberg (Quelle: Deutscher Wetterdienst)

 

Hierzu benötigt man zunächst eine geeignete Datenbasis. Der Deutsche Wetterdienst (DWD) stellt auf seinem FTP-Server umfangreiche Beobachtungsdaten aller seiner Stationen zur Verfügung. Auch gemittelte Zeitreihen können — neben einer Fülle anderer Daten — von dort heruntergeladen werden. Aktuelle und historische Temperaturdatensätze umfassen Beobachtungen von insgesamt 1053 Wetterstationen in Deutschland. Laut DWD handelt es sich dabei um qualitätsgeprüfte rohe Messwerte. Nicht alle Stationen waren jedoch durchgehend in Betrieb und existieren zum Teil heute nicht mehr. Im Februar 2017 sind noch von 578 aktiven Stationen Temperaturmesswerte vorhanden. Auch waren nicht alle Stationen dabei immer am selben Ort. Viele sind im Laufe der Jahre teils mehrfach verlegt worden, wobei zwischen den alten und neuen Standorten manchmal auch geringe Höhenunterschiede auftraten. Die linke Seite der Abbildung 1 zeigt eine Karte mit der Position aller betrachteten Stationen. Als Hintergrund für die Grafik habe ich die Nighttime Lights (d.h. die nächtliche Lichtintensität durch künstliche Lichtquellen) gewählt, von denen später noch ausführlich die Rede sein wird.

 

Abbildung 2: Entwicklung der Anzahl der Wetterstationen für verschiedene Stationshöhenintervalle

 

Schauen wir uns zunächst einmal an, wie sich das Messnetz des DWD mit den Jahren verändert hat. In Abbildung 2 ist die Entwicklung der Anzahl der Wetterstationen von 1900 bis heute dargestellt, wobei zwischen verschiedenen Höhenlagen (über N.N.) unterschieden wird. Deutlich erkennbar ist zunächst, wie die in den 1920er Jahren begonnene rasche Erweiterung des Messnetzes vermutlich kriegsbedingt zunächst zum Stillstand kam, um dann nach 1945 umso schneller fortgesetzt zu werden. Seit den späten 50er Jahren ist die Gesamtzahl der Stationen dann in etwa konstant geblieben. Das bedeutet jedoch nicht zwangsläufig, dass es sich fortan immer um die selben Stationen gehandelt haben muss. Auch kontinuierliche Stillegungen alter Stationen und die parallele Inbetriebnahme neuer Stationen würden zu einem Bild wie in Abbildung 2 führen.

Interessant ist auch die Höhenverteilung. Die weitaus meisten Stationen befinden sich im Flachland unter 100 m über N.N. Es gibt jedoch auch einen erheblichen Anteil von Stationen in Höhenlagen oder im Gebirge. Die größte Höhe weist hierbei die Station Zugspitze mit 2964 m über N.N. auf, gefolgt von den inzwischen stillgelegten Messstellen Watzmannhaus (1923 m) Wendelstein (1832 m).

 

Abbildung 3: Änderung der gemittelten Höhe alle Wetterstationen

 

Betrachtet man die gemittelte Höhe aller Wetterstationen (Abbildung 3), so fällt auf, dass sie keineswegs konstant geblieben ist. Das Mittel liegt heute ca. 30 m tiefer als zu Beginn des vorigen Jahrhunderts. Einige hoch gelegene Stationen wurden gegen Ende der 30er Jahre aufgegeben, so dass der Mittelwert insgesamt abnahm. Es sind auch in späteren Jahren noch kleinere Schwankungen erkennbar, so etwa um die Jahrtausendwende.

Weshalb ist das wichtig? Wir alle sind vertraut mit der Beobachtung, dass die Lufttemperatur mit der Höhe abnimmt. Dieser sogenannte atmosphärische Temperaturgradient ist abhängig von der Luftfeuchte und beträgt im Mittel etwa 0,5°C pro 100 Höhenmeter, d.h. auf einem Berg in 1000 m Höhe ist es im Schnitt rund 5°C kühler als auf Meeresspiegelniveau, sofern man andere die Temperatur beeinflussende Faktoren einmal ausser Acht lässt. Dies bedeutet aber auch, dass die Skala der Temperaturen, die vom Thermometer gemessen werden, nicht unwesentlich von der Stationshöhe abhängt. Insbesondere können die Temperaturzeitreihen zweier beliebiger Stationen aus diesem Grunde nicht ohne weiteres miteinander verglichen werden.

 

Abbildung 4: Temperaturmittel 1961-1990 für verschiedene Stationen und gemessene atmosphärische Temperaturgradienten (rote Linien) im Norden Baden-Württembergs für die Monate Januar (links) und Juli (rechts). Die Gradienten betragen 0,55°C bzw. 0,59°C pro 100 Höhenmeter.

 

Um dieses Problem zu umgehen und den Einfluß der Stationshöhe auf die Temperaturen zu unterdrücken, wurden zunächst alle Temperaturmesswerte auf Meeresspiegelniveau korrigiert. Die Temperaturen einer Wetterstation, die man durch diese Korrektur erhält, verhalten sich dann so, als würde die Stationshöhe 0 m betragen, wobei jedoch alle anderen temperaturrelevanten Einflussfaktoren unberührt bleiben. Hierfür wurden die DWD-Wetterstationen in geografische Regionen zusammengefasst und die Höhenabhängigkeit der Temperatur für jede Region jahreszeitabhängig aus den Daten bestimmt. Nach Glättung von Ausreissern und Interpolation kann dann für jeden Ort in Deutschland und für jeden Monat des Jahres ein Temperaturgradient angegeben werden, mit dem sich die Höhe einer Wetterstation jeweils individuell auf N.N. reduzieren lässt. Die genaue Vorgehensweise orientiert sich an dieser Publikation des DWD. Abbildung 4 zeigt beispielhaft den Zusammenhang zwischen Höhe und gemessenem Temperaturmittel der Stationen einer Region im Südwesten Deutschlands im Winter bzw. im Sommer. Es bleibt anzumerken, dass eine solche Datenkorrektur aus verschiedenen Gründen nicht perfekt sein kann, so dass der Einfluß der Höhe auf die Temperaturmessung zwar deutlich verringert, aber nicht vollständig eliminiert wird.

 

Abbildung 5: Zeitreihen der Jahresmitteltemperatur Deutschland: unkorrigierte Stationsdaten (grau-blau), höhenkorrigierte Stationsdaten (rot) und DWD-Zeitreihe (grün)

 

Mit den so gewonnenen Stationsdaten können nun Temperaturzeitreihen ermittelt und mit den vom DWD veröffentlichten Zeitreihen verglichen werden. In Abbildung 5 sind die Jahresmitteltemperaturen für Deutschland dargestellt, die aus den unkorrigierten Temperaturdaten (grau-blaue Kurve) und den höhenkorrigierten Daten (rote Kurve) errechnet wurden. Sofort fällt auf, dass die korrigierten Mittelwerte durchgehend ca. 1,5°C höher ausfallen als die unkorrigierten. Ein kurzer Blick auf Abbildung 3 liefert schnell die Erklärung hierfür: Der Mittelwert aller Stationshöhen beträgt grob 300 m über N.N. Die Höhenkorrektur wirkt nun wie ein „Abstieg“ auf Meeresspiegelniveau. Mit dem oben angesprochenen atmosphärischen Temperaturgradienten von rund 0,5°C pro 100 m würde man also einen Temperaturanstieg von rund 1,5°C erwarten, was sich sehr gut mit der beobachteten Differenz deckt.

Die grünen Punkte in Abbildung 5 geben die vom DWD veröffentliche Zeitreihe der Jahresmitteltemperatur für Deutschland wieder. Sofort wird deutlich, dass die DWD-Zeitreihe nicht aus höhenkorrigierten Daten gewonnen worden ist: Es zeigt sich eine sehr gute Übereinstimmung mit der aus den unkorrigierten Daten ermittelten Zeitreihe, mit den höhenkorrigierten Daten jedoch überhaupt nicht. Das klingt zunächst überraschend, ist aber durchaus legitim, sofern das Höhenprofil der Wetterstationen mit der Zeit nicht zu stark variiert (wir kommen später noch darauf zurück). Die absolute Temperaturskala spielt dann keine Rolle, und es geht lediglich um die Änderung des Temperaturmittels mit der Zeit. Die hier beschriebene Höhenkorrektur wird sich übrigens dennoch später als nützlich erweisen.

Vergleicht man die grünen DWD-Punkte und die unkorrigierten Jahresmitteltemperaturen (grau-blaue Kurve) in Abbildung 5 etwas genauer, erkennt man einige geringfügige Unterschiede. So weicht einerseits die DWD-Jahresmitteltemperatur für das Jahr 1945 um über 1°C von Mittelwert der Rohdaten ab. Das ist nicht wirklich verwunderlich. Sicherlich konnten nicht alle Wetterstationen in diesem schwierigen Jahr verlässliche Daten liefern, und man kann davon ausgehen, dass dies beim DWD bekannt ist und entsprechend berücksichtigt wurde. Systematische Abweichungen findet man in den Jahren vor 1940, wo die Jahresmittel des DWD durchgehend ein wenig höher ausfallen als diejenigen der unkorrigierten Rohdaten. Die Differenz beträgt etwa 0,1-0,2°C. Was ist der Grund hierfür? Vielleicht hat es wieder etwas mit der Höhe zu tun. Der Abbildung 3 entnehmen wir, dass die Wetterstationen in den Jahren vor Kriegsbeginn im Mittel etwa 30 m höher lagen als in der 2. Hälfte des 20. Jahrhunderts. Mit dem atmosphärischen Temperaturgradienten von rund 0,5°C pro 100 m ergibt das eine zu erwartende Abweichung von 0,15°C, was ziemlich gut mit der beobachteten Differenz übereinstimmt. Man hat beim DWD also offensichtlich die Verlagerung der Wetterstationen hin zu geringeren Höhen durchaus berücksichtigt und die Zeitreihe entsprechend korrigiert. So weit, so gut.

Wir haben nun eine gute Vorstellung davon, wie die Zeitreihe der Jahresmitteltemperaturen des DWD zustande kommt. Die interessante Frage ist nun, welchen Einfluß das Wachstum der Städte auf die Temperaturen gehabt hat. Um dies zu ermitteln, ist es notwendig, diejenigen Wetterstationen zu identifizieren, die von der Suburbanisierung betroffen waren, und zu prüfen, ob sich die dort gemessenen Temperaturen anders verhalten als im ländlichen Umland. Das Mittel der Wahl für diesen Zweck sind Satelliten – und Straßenlaternen. Darauf werde ich im zweiten Teil des Artikels näher eingehen.

 

Australische James Cook Universität tritt akademische Freiheit mit Füßen

Pressemitteilung der Deutschen Wildtierstiftung vom 20. Juni 2018:

Wälder schützen – Rodung für die Windkraft stoppen
Deutsche Wildtier Stiftung begrüßt den Antrag der FDP-Bundestagsfraktion
“Im Interesse der Windkraftlobby setzt sich die Politik über das Tötungs- und Verletzungsverbot von Wildtieren tagtäglich hinweg”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Pro Jahr sterben rund 12.000 Greifvögel – unter ihnen auch bedrohte Arten – und rund 250.000 Fledermäuse durch Windenergieanlagen. “Massive Bürgerproteste bleiben weitgehend ungehört!” Jetzt will die FDP-Bundestagsfraktion mit dem Antrag “Wälder schützen – Rodungen für die Windkraft stoppen” im Bundestag Gehör finden.

Hier weiterlesen

———————-

Eine australische Uni feuerte einen Professor, dessen Meinung zum Klimawandel aus der Reihe tanzt. Querdenken verboten. Wer sich eigene Gedanken macht, fliegt raus. Was zunächst wie eine gute Idee aussah, wird für die Univerwaltung nun zum ernsthaften Problem. Die internationale Presse hat den Fall entdeckt und erkennt darin, was wohl jeder mit einem gesunden Menschenverstand ausgestattete Zeitgenosse darin sieht: Zensur! Lesen Sie dazu einen Artikel im Guardian vom 5. Juni 2018:

Peter Ridd’s sacking pushes the limit of academic freedom
James Cook University may have damaged its reputation with a heavy-handed approach to the academic with minority views on climate change and the reef

Weiterlesen im Guardian

———————-

Wochenblick vom 15. Juni 2018:

Dürre-Attacken in Österreich: „Am Klimawandel liegt es nicht“
[...] Klaus Haslinger, Klimaforscher an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG), von der Abteilung für Klimaforschung mit Schwerpunkt Regionale Klimaanalyse und Modellierung, Hydrologie und Trockenheit, erklärt im Gespräch mit dem „Wochenblick“, dass die derzeit sehr trockene Witterung im Grunde genommen nicht mehr als ein Wetterphänomen sei und mit dem „menschengemachten Klimawandel“ per se nichts zu tun hätte.

Weiterlesen im Wochenblick

 

Wer hat den Baobab kaputt gemacht?

Kuriose Geschichte im Stern am 14. Juni 2018:

Berühmte Baobab-Bäume: Klimawandel? Jahrtausendealte Wahrzeichen Afrikas sterben plötzlich
Wissenschaftler schlagen Alarm: Einige von Afrikas größten und ältesten Affenbrotbäumen sind im Laufe der letzten Jahre plötzlich abgestorben. Die Bäume sind entweder komplett oder in Teilen zugrunde gegangen, berichtet ein Forscherteam um Adrian Patrut im Fachblatt “Nature Plants“. Der Grund für den plötzlichen Tod der Bäume sei zwar “unklar”, heißt es in dem Bericht. Möglicherweise spielen dabei jedoch Veränderungen im Zusammenhang mit dem Klimawandel eine Rolle, vermuten die Wissenschaftler.

Alte Bäume sterben plötzlich. Nicht ungewöhnlich, möchte man meinen. Die Hintergründe sind trotzdem unklar. Da kommt der Universalschuldige gerade recht: Der Klimawandel hat Schuld. Das hat gleich drei Vorteile: 1) Das Rätsel scheint gelöst, 2) Das gibt ein tolles Paper in einer Nature-Zeitschrift, 3) mediales Interesse ist gesichert. Der folgende Absatz im Sternbericht macht stutzig:

Die betroffenen Bäume waren demnach zwischen 1100 und 2500 Jahre alt und besaßen eine stattliche Größe. Einige von ihnen waren so breit wie ein Bus.  Das Forscherteam hatte insgesamt mehr als 60 Baobab-Bäume zwischen den Jahren 2005 und 2017 untersucht. Ursprüngliches Ziel der Studie war es, den Grund für das enorme Wachstum der Bäume herauszufinden. Doch zum Erstaunen der Forscher starben neun Bäume im Laufe der Beobachtungszeit ab.

Könnte es vielleicht mit den Forschern selber zu tun haben? Mit welchen Methoden gingen sie vor? Rammten sie vielleicht eine Mess-Sonde in das Holz? Und dann ein paar Jahre später wunderte man sich, dass die Bäume alle eingingen. Nein, nein, wir waren’s nicht, das war sicher der Klimawandel…

Spaß beiseite. Im Paper selber findet sich auch kein Hinweis auf einen Zusammenhang mit dem Klimawandel, lediglich der dürre spekulative Hinweis. Mit den Hauptklimaparametern Temperatur und Niederschlag kann dies wenig zu tun  haben. Im Laufe der letzten Jahrhunderte und Jahrtausende haben die Baobabs eine wahre klimatische Achterbahnfahrt durchgemacht. Das heutige Klima liegt dabei noch voll und ganz im Bereich der natürlichen Schwankungsbreite. Siehe Luening et al. 2017 und Luening et al. 2018. Der Spiegel hat auch ein schönes Bild der Bäume.

 

Rätsel um starken Meeresspiegelanstieg an US-Ostküste aufgeklärt: Schuld hatten die Ozeanzyklen

Thema heute: Der Meeresspiegel in Nordamerika. Die University of California – Berkeley wies im März 2018 darauf hin, dass neben dem Meeresspiegelanstieg auch die Landabsenkung eine große Rolle spielt:

Sinking land will exacerbate flooding from sea level rise in Bay Area
Rising sea levels are predicted to submerge many coastal areas around San Francisco Bay by 2100, but a new study warns that sinking land — primarily the compaction of landfill in places such as Treasure Island and Foster City — will make flooding even worse.

Using precise measurements of subsidence around the Bay Area between 2007 and 2011 from state-of-the-art satellite-based synthetic aperture radar (InSAR), scientists from the University of California, Berkeley, and Arizona State University mapped out the waterfront areas that will be impacted by various estimates of sea level rise by the end of the century. They found that, depending on how fast seas rise, the areas at risk of inundation could be twice what had been estimated from sea level rise only. Previous studies, which did not take subsidence into account, estimated that between 20 and 160 square miles (51 to 413 square kilometers) of San Francisco Bay shoreline face a risk of flooding by the year 2100, depending on how quickly sea levels rise.

Adding the effects of sinking ground along the shoreline, the scientists found that the area threatened by rising seawater rose to between 48 and 166 square miles (125 to 429 square kilometers). “We are only looking at a scenario where we raise the bathtub water a little bit higher and look where the water level would stand,” said senior author Roland Bürgmann, a UC Berkeley professor of earth and planetary science. “But what if we have a 100-year storm, or king tides or other scenarios of peak water-level change? We are providing an average; the actual area that would be flooded by peak rainfall and runoff and storm surges is much larger.”

The data will help state and local agencies plan for the future and provide improved hazard maps for cities and emergency response agencies. “Accurately measuring vertical land motion is an essential component for developing robust projections of flooding exposure for coastal communities worldwide,” said Patrick Barnard, a research geologist with the U.S. Geological Survey in Menlo Park. “This work is an important step forward in providing coastal managers with increasingly more detailed information on the impacts of climate change, and therefore directly supports informed decision-making that can mitigate future impacts.” The low-end estimates of flooding reflect conservative predictions of sea level rise by 2100: about one and a half feet. Those are now being questioned, however, since ice sheets in Greenland and West Antarctica are melting faster than many scientists expected. Today, some extreme estimates are as high as five and a half feet.

That said, the subsidence – which the geologists found to be as high as 10 millimeters per year in some areas – makes less of a difference in extreme cases, Bürgmann noted. Most of the Bay Area is subsiding at less than 2 millimeters per year. “The ground goes down, sea level comes up and flood waters go much farther inland than either change would produce by itself,” said first author Manoochehr Shirzaei, a former UC Berkeley postdoctoral fellow who is now an assistant professor in ASU’s School of Earth and Space Exploration and a member of NASA’s Sea Level Change planning team. Shirzaei and Bürgmann will publish their findings March 7 in the online journal Science Advances.

Combining InSAR and GPS

InSAR, which stands for interferometric synthetic aperture radar, has literally changed our view of Earth’s landscape with its ability to measure elevations to within one millimeter, or four-hundredths of an inch, from Earth orbit. While it has been used to map landscapes worldwide – Bürgmann has used InSAR data to map landslides in Berkeley and land subsidence in Santa Clara County – this may be the first time someone has combined such data with future sea level estimates, he said. The team used continuous GPS monitoring of the Bay Area to link the InSAR data to sea level estimates.

“Flooding from sea level rise is clearly an issue in many coastal urban areas,” Bürgmann said. “This kind of analysis is probably going to be relevant around the world, and could be expanded to a much, much larger scale.” In the Bay Area, one threatened area is Treasure Island, which is located in the Bay midway between San Francisco and Oakland and was created by landfill for the 1939 Golden Gate International Exposition. It is sinking at a rate of one-half to three-quarters of an inch (12 to 20 millimeters) per year. Projections for San Francisco International Airport show that when land subsidence is combined with projected rising sea levels, water will cover approximately half the airport’s runways and taxiways by the year 2100. Parts of Foster City were built in the 1960s on engineered landfill that is now subsiding, presenting a risk of flooding by 2100.

Not all endangered areas are landfill, however. Areas where streams and rivers have deposited mud as they flow into the Bay are also subsiding, partly because of compaction and partly because they are drying out. Other areas are subsiding because of groundwater pumping, which depletes the aquifer and allows the land to sink. In the early 20th century, the Santa Clara Valley at the south end of San Francisco Bay subsided as much as nine feet (three meters) due to groundwater depletion, though that has stabilized with restrictions on pumping. Shirzaei noted that flooding is not the only problem with rising seas and sinking land. When formerly dry land becomes flooded, it causes saltwater contamination of surface and underground water and accelerates coastal erosion and wetland losses. The work was supported by the National Science Foundation, National Aeronautics and Space Administration and Point Reyes Bird Observatory Conservation Science.

Paper: Global climate change and local land subsidence exacerbate inundation risk to the San Francisco Bay Area (Science Advances)

Talke et al. 2018 präsentierten Meeresspiegelpegelmessungen aus dem Hafen von Boston für die letzten 200 Jahre. In der ganzen Zeit stieg der Meeresspiegel um 28 cm an. Dies entspricht einem Anstieg von 1,45 mm pro Jahr. Hier gehts zum Paper, und hier zur Pressemitteilung.

Auf Climate Audit diskutierte Steve McIntyre im November 2017 die verschiedenen Versuche, Meeresspiegel-Hockeysticks für die US Ostküste zu produzieren. Was hatten Anhänger des Aarmismus übersehen? Trompetenstoß: Die Ozeanzyklen, speziell ENSO und NAO, wie die University of Florida am 9. August 2017 bekanntgab:

East Coast’s rapidly rising seas explained

University of Florida scientists discover cause of Atlantic coastline’s sea level rise hot spots

When the Indian River Lagoon on Florida’s Atlantic coast became much saltier after 2011, Arnoldo Valle-Levinson began to investigate. The UF professor of civil and coastal engineering sciences in the College of Engineering checked local tidal gauges, revealing that seas in the region were rising nearly 10 times faster than the long-term rate recorded in that region. When he reviewed tidal data for the entire eastern seaboard, he found similar numbers for all the tide gauge stations south of Cape Hatteras, revealing the regional extent of the “hot spot.”  Sea level rise hot spots — bursts of accelerated sea rise that last three to five years — happen along the U.S. East Coast thanks to a one-two punch from naturally occurring climate variations, according to a new study lead by Valle-Levinson.

After UF scientists identified the hot spot reaching from Cape Hatteras to Miami, they probed the causes by analyzing tidal and climate data for the U.S. eastern seaboard. The study, published online today in Geophysical Research Letters, shows that seas rose in the southeastern U.S. between 2011 and 2015 by more than six times the global average sea level rise that is already happening due to human-induced global warming. The study’s findings suggest that future sea level rise resulting from global warming will also have these hot spot periods superimposed on top of steadily rising seas, said study co-author Andrea Dutton, assistant professor in UF’s department of geological sciences in the College of Liberal Arts and Sciences. “The important point here is that smooth projections of sea level rise do not capture this variability, so adverse effects of sea level rise may occur before they are predicted to happen,” Dutton said. “The entire U.S. Atlantic coastline is vulnerable to these hot spots that may amplify the severity of coastal flooding.”

The combined effects of El Niño (ENSO) and the North Atlantic Oscillation (NAO), both of which are naturally occurring climate processes, drove the recent hot spot, according to the study. Study authors also discovered similar hot spots at various positions along the U.S. eastern seaboard over the past century. They found that these past hot spots are also explained by the combined influence of ENSO and NAO. The finding challenges previous arguments that a hot spot north of Cape Hatteras over the past few decades was due to a slowdown of circulation in the North Atlantic, which is itself due to global warming. Instead, study authors discovered the combination of these two naturally occurring ocean-atmosphere processes explained both the timing and the location of hot spots observed along the entire U.S. Atlantic coast, Dutton said.

While a slowdown of circulation in the North Atlantic can further exacerbate sea level rise in the northeast, it does not explain the accelerations observed in the southeast, and was not required to explain the hot spots observed in the northeast, according to the study. The authors found that hot spots observed over the past century were created by the influence of ENSO that affects the amount of water that accumulates in the western portion of the North Atlantic and causes seas to rise along the entire U.S. Atlantic coast. This sea level rise is then concentrated to the north or south by the NAO, which is a measure of the atmospheric pressure difference between Iceland and the Azores.

Valle-Levinson said hot spots are difficult to predict and it’s not clear if the hot spots will worsen with time. By decreasing emissions, he said we may be able to stabilize rising seas long-term, but the trend will likely be difficult to reverse. “It’s amazing to see construction along the East Coast. That’s the worst place to build anything,” said Valle-Levinson, who described the future for some southeastern U.S. cities as “Venice-like.” “We need to understand that the ocean is coming.” The study was also co-authored by Jonathan Martin, a UF professor of geological sciences in the College of Liberal Arts and Sciences.

Das Virginia Institute of Marine Science gibt offenbar eine Art von “Karteikarte” für US-Küstenpegel und ihren Wasserstandsverlauf heraus. Hier nachlesen. Wer noch viel mehr über die US-Meeresspiegelmessungen wissen möchte, wird bei Judith Cury fündig.

 

Vor 5300 Jahren lag der Meeresspiegel in Surinam und Guyana etwa 1m höher als heute

In einer Arbeit von Khan et al. 2017 wird die Meeresspiegelgeschichte der Karibik während der letzten 10.000 Jahre berichtet. Nach Ende der letzten Eiszeit vor 11.000 Jahren stieg der Meeresspiegel in Surinam und Guyana mit einer Rate von 11 mm pro Jahr an. Das ist etwa 5 mal schneller als heute. Im mittleren und späten Holozän (also seit 5000 Jahren vor heute), betrug der Meeresspiegelanstieg dann weniger als 2,4 mm pro Jahr. Übrigens: Vor 5300 Jahren lag der Meeresspiegel in den beiden Ländern etwa 1 m über dem heutigen Stand. Überrascht? Abstract:

Drivers of Holocene sea-level change in the Caribbean
We present a Holocene relative sea-level (RSL) database for the Caribbean region (5°N to 25°N and 55°W to 90°W) that consists of 499 sea-level index points and 238 limiting dates. The database was compiled from multiple sea-level indicators (mangrove peat, microbial mats, beach rock and acroporid and massive corals). We subdivided the database into 20 regions to investigate the influence of tectonics and glacial isostatic adjustment on RSL. We account for the local-scale processes of sediment compaction and tidal range change using the stratigraphic position (overburden thickness) of index points and paleotidal modeling, respectively. We use a spatio-temporal empirical hierarchical model to estimate RSL position and its rates of change in the Caribbean over 1-ka time slices. Because of meltwater input, the rates of RSL change were highest during the early Holocene, with a maximum of 10.9 ± 0.6 m/ka in Suriname and Guyana and minimum of 7.4 ± 0.7 m/ka in south Florida from 12 to 8 ka. Following complete deglaciation of the Laurentide Ice Sheet (LIS) by ∼7 ka, mid-to late-Holocene rates slowed to < 2.4 ± 0.4 m/ka. The hierarchical model constrains the spatial extent of the mid-Holocene highstand. RSL did not exceed the present height during the Holocene, except on the northern coast of South America, where in Suriname and Guyana, RSL attained a height higher than present by 6.6 ka (82% probability). The highstand reached a maximum elevation of +1.0 ± 1.1 m between 5.3 and 5.2 ka. Regions with a highstand were located furthest away from the former LIS, where the effects from ocean syphoning and hydro-isostasy outweigh the influence of subsidence from forebulge collapse.

Peinlich: Klimamodelle bekommen den Regen nicht in den Griff

Bartlein et al. 2017 machten eine eklatante Schwäche der Klimamodelle bekannt: Für die Zeit vor 5000 Jahren errechnen die Modelle im Vergleich zu den geologisch ermittelten Werten viel zu hohe Temperaturen und zu geringe Niederschläge. Abstract:

Underlying causes of Eurasian midcontinental aridity in simulations of mid‐Holocene climate
Climate model simulations uniformly show drier and warmer summers in the Eurasian midcontinent during the mid‐Holocene, which is not consistent with paleoenvironmental observations. The simulated climate results from a reduction in the zonal temperature gradient, which weakens westerly flow and reduces moisture flux and precipitation in the midcontinent. As a result, sensible heating is favored over evaporation and latent heating, resulting in substantial surface‐driven atmospheric warming. Thus, the discrepancy with the paleoenvironmental evidence arises initially from a problem in the simulated circulation and is exacerbated by feedback from the land surface. This region is also drier and warmer than indicated by observations in the preindustrial control simulations, and this bias arises in the same way: zonal flow and hence moisture flux into the midcontinent are too weak, and feedback from the land surface results in surface‐driven warming. These analyses suggest the need to improve those aspects of climate models that affect the strength of westerly circulation.

Yuan & Zhu 2018 weisen darauf hin, dass Effekte der Ozeanzyklen PDO und AMO unbedingt in Niederschlags-Simulationen mit einbezogen werden sollten, um die Prognoseleistung zu verbessern:

A First Look at Decadal Hydrological Predictability by Land Surface Ensemble Simulations
Abstract: The prediction of terrestrial hydrology at the decadal scale is critical for managing water resources in the face of climate change. Here we conducted an assessment by global land model simulations following the design of the fifth Coupled Model Intercomparison Project (CMIP5) decadal hindcast experiments, specifically testing for the sensitivity to perfect initial or boundary conditions. The memory for terrestrial water storage (TWS) is longer than 6 years over 11% of global land areas where the deep soil moisture and aquifer water have a long memory and a nonnegligible variability. Ensemble decadal predictions based on realistic initial conditions are skillful over 31%, 43%, and 59% of global land areas for TWS, deep soil moisture, and aquifer water, respectively. The fraction of skillful predictions for TWS increases by 10%–16% when conditioned on Pacific Decadal Oscillation and Atlantic Multidecadal Oscillation indices. This study provides a first look at decadal hydrological predictability, with an improved skill when incorporating low‐frequency climate information.

Plain Language Summary: Decadal prediction, which was initially proposed to more accurately project near‐term (e.g., 10–30 years) climate change by using the experiences in weather and seasonal climate forecasting, has raised a wide concern since the IPCC CMIP5 project. The climate community is now trying to transition the decadal prediction from a pure research to a quasi‐real‐time operational effort. However, very limited information is known about the decadal hydrological predictability over land, which is more relevant to the livelihood and stakeholders. Here we combine an ensemble simulation method that is widely used to assess seasonal hydrological predictability, with the experimental design of the CMIP5 decadal climate hindcasts, to provide a first look at decadal hydrological predictability and skill by carrying out over 2,000 years global land model simulations. We found skillful decadal prediction for terrestrial water storage over one third land areas where deep soil moisture and aquifer have a nonnegligible variability. And the skill can be further enhanced by incorporating low‐frequency teleconnection information from Atlantic and Pacific Oceans. This study suggests that it is possible to provide water resources managers useful hydrological forecast information over arid and semiarid regions a few years or even a decade in advance.

Eine hochinteressante neue Arbeit stammt von Bothe et al. 2018. Darin stellen sie zunächst fest, dass die Niederschläge in Großbritannien während der vergangenen 350 Jahre stark von den Ozeanzyklen abhängen und externe Faktoren nahezu keine Rolle spielen. Zudem bemängeln sie eine starke Diskrepanz zwischen Modellsimulationen und echten Messdaten. Kurz gesagt: Die Modelle bekommen die Realität einfach nicht in den Griff. Abstract:

Inconsistencies between observed, reconstructed, and simulated precipitation over the British Isles during the last 350 years
The scarcity of long instrumental records, uncertainty in reconstructions, and insufficient skill in model simulations hamper assessing how regional precipitation changed over past centuries. Here, we use standardised precipitation data to compare global and regional climate simulations and reconstructions and long observational records of seasonal mean precipitation in England and Wales over the past 350 years. The effect of the external forcing on the precipitation records appears very weak. Internal variability dominates all records. Even the relatively strong exogenous forcing history of the late 18th and early 19th century shows only little effect in synchronizing the different records. Multi-model simulations do not agree on the changes over this period. Precipitation estimates are also not consistent among reconstructions, simulations, and instrumental observations regarding the probability distributions’ changes in the quantiles for severe and extreme dry or wet conditions and in the standard deviations. We have also investigated the possible link between precipitation and temperature variations in the various data sets. This relationship is also not consistent across the data sets. Thus, one cannot reach any clear conclusions about precipitation changes in warmer or colder background climates during the past centuries. Our results emphasize the complexity of changes in the hydroclimate during the most recent historical period and stress the necessity of a thorough understanding of the processes affecting forced and unforced precipitation variability.