News und Termine

Wir sind wieder online!

Liebe Leser,

Letztes Wochenende (14./15. Juli 2018) war unser Blog leider wegen einer Serverumstellung nicht erreichbar. Wir erhielten zahlreiche Mails von besorgten Lesern. Seit Montag ist die Seite wieder online, allerdings fehlten einige Artikel, da die verschiedenen Eingangsseiten www.kaltesonne.de, www.kalte-sonne.de und www.diekaltesonne.de noch nicht synchron liefen. Nun leiten wir alle Zugriffe auf www.diekaltesonne.de um, so dass alles erstmal wieder im Takt läuft. Mittelfristig soll sich alles wieder normalisieren. Leider funktionieren die Kaltesonne.de Email-Adressen momentan nicht. Bei dringenden Mails bitte die im Impressum angegebene Email verwenden. Ab Morgen (Mittwoch, 18. Juli 2018) werden wir wieder wie gewohnt über den Klimawandel berichten können, pünktlich um 7:30 Uhr morgens deutscher Zeit. Danke für Ihre Geduld, Treue und Interesse am Thema.

Beste Grüße

Das Kalte-Sonne-Team

Insektensterben durch Lichtverschmutzung!?

Pressemitteilung des Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) vom 19. Juni 2018:

————

Insektensterben durch Lichtverschmutzung!?

Künstliche Beleuchtung in der Nacht könnte ein Grund für den Insektenrückgang sein

Klimawandel, Pestizide und Landnutzungsänderungen allein können den Rückgang von Insektengemeinschaften in Deutschland nicht vollends erklären. WissenschaftlerInnen vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben nun festgestellt, dass die Regionen, die einen starken Rückgang an Fluginsekten verzeichnen, auch unter einer hohen Lichtverschmutzung leiden. Viele Studien weisen bereits darauf hin, dass künstliches Licht in der Nacht negative Auswirkungen auf Insekten hat und dass diesem Umstand künftig mehr Beachtung geschenkt werden sollte, wenn es an die Ursachenforschung für das Insektensterben geht.

Die Biomasse fliegender Insekten ist um mehr als 75 Prozent zurückgegangen – diese alarmierende Zahl hat im Herbst 2017 Schlagzeilen gemacht. Die AutorInnen der 2017 veröffentlichten Studie hatten die Zahl der Fluginsekten in ausgewählten Schutzgebieten innerhalb von Landwirtschaftsflächen in Deutschland über 27 Jahre beobachtet und vermuten, dass die Veränderungen von Klima und Lebensraum für den Rückgang der Insektenpopulationen verantwortlich sind. Gleichzeitig wiesen sie darauf hin, dass diese Einflüsse allein den drastischen Rückgang noch nicht erklären können.

Licht zur falschen Zeit bringt Ökosysteme aus dem Gleichgewicht

Ein klarer Arbeitsauftrag für die WissenschaftlerInnen der IGB-Arbeitsgruppe Lichtverschmutzung und Ökophysiologie. Denn dass künstliche Beleuchtung in der Nacht die Zahl und Gemeinschaften von Insekten stark beeinflusst, wissen sie aus früheren Arbeiten. Das Team um IGB-Forscherin Dr. Maja Grubisic hat sich deshalb zunächst die Lage der 2017er-Untersuchungsgebiete angeschaut: Gebiete in Ballungszentren, die eine überdurchschnittlich hohe Lichtverschmutzung aufweisen. „Die Hälfte aller Insektenarten ist nachtaktiv. Sie sind auf Dunkelheit und natürliches Licht von Mond und Sternen angewiesen, um sich zu orientieren und fortzubewegen oder Räubern auszuweichen. Und um ihren allnächtlichen Aufgaben wie Nahrungssuche und Fortpflanzung nachzugehen. Eine künstlich erhellte Nacht stört dieses natürliche Verhalten – mit negativen Auswirkungen auf die Überlebenschancen“, begründet Maja Grubisic den Ausgangspunkt ihrer Untersuchung.

Die WissenschaftlerInnen haben alle jüngsten Einzelstudien zu den Auswirkungen von künstlichem Licht in der Nacht auf Insekten ausgewertet und festgestellt, dass Vieles für einen ernstzunehmenden Zusammenhang zwischen Lichtverschmutzung und Insektensterben spricht. Fluginsekten werden beispielsweise von künstlichen Lichtquellen angezogen – und gleichzeitig aus anderen Ökosystemen abgezogen – und sterben durch Erschöpfung oder als leichte Beute. Zusätzlich werden sie durch Lichtbarrieren in ihrer Ausbreitung gebremst. Der dadurch fehlende genetische Austausch innerhalb zergliederter Insektenpopulationen könnte deren Widerstandsfähigkeit gegen andere negative Umwelteinflüsse reduzieren, die sich in landwirtschaftlich genutzten Gebieten besonders akkumulieren.

Auf Landwirtschaftsflächen – die immerhin elf Prozent der weltweiten Bodennutzung ausmachen – bedeuten weniger Insekten aber nicht nur eine geringere Artenvielfalt, sondern auch die Gefährdung wichtiger Ökosystemleistungen: weniger Nachtfalter, Käfer und Fliegen bestäuben zum Beispiel weniger Pflanzen. Und auch Veränderungen im Vorkommen und Verhalten von Schädlingen wie Blattläusen oder aber deren Feinden wie Käfern und Spinnen können das eingespielte System aus dem Gleichgewicht bringen. Darüber hinaus kann künstliches Licht in der Nacht auch direkte Auswirkungen auf Wachstum und Blütezeit der Pflanzen und somit den Ertrag haben.

Alle Einflussfaktoren müssen verstanden und berücksichtigt werden – darunter auch Lichtverschmutzung

„Unsere Übersichtsstudie zeigt, dass künstliches Licht in der Nacht weit verbreitet ist und komplexe Auswirkungen in landwirtschaftlichen Gebieten mit unbekannten Konsequenzen für die Biodiversität in Agrarökosystemen haben kann. Daher sollte Lichtverschmutzung in zukünftigen Studien generell als potentieller Stressfaktor berücksichtigt werden, um letztlich Wege aufzuzeigen, die helfen Umweltprobleme zu reduzieren,“ resümiert Dr. Franz Hölker, Leiter der Arbeitsgruppe Lichtverschmutzung und Ökophysiologie am IGB.

Lesen Sie die Studie in der Fachzeitschrift Annals of Applied Biology >

Grubisic, M., van Grunsven, R.H.A., Kyba, C.C.M., Manfrin, A. and Hölker, F. (2018) Insect declines and agroecosystems: does light pollution matter? Ann Appl Biol. doi:10.1111/aab.12440

 

Serverumstellung

Liebe Leser,

An diesem Wochenende (14./15. Juli 2018) stellen wir unseren Server um. Aus diesem Grund werden wir zu dieser Zeit voraussichtlich keine neuen Blogartikel veröffentlichen. Bitte nutzen Sie diese Pause zu einem schönen Sommer-Spaziergang an der frischen Luft oder in ähnlich nachhaltiger Weise. Wir sind in Kürze wieder für Sie da und werden weiter über die wundersame Welt des Klimawandels berichten.

Beste Grüße

Ihre Kalte-Sonne Redaktion

 

Der städtische Wärmeinseleffekt in Deutschland – Teil 2

Von Dipl.-Phys. Dr. Jan Olzem

Im ersten Teil des Artikels haben wir uns ausführlich mit der Zeitreihe der Jahresmitteltemperaturen in Deutschland auseinandergesetzt und die Frage aufgeworfen, welchen Einfluß das Wachstum der Städte auf die gemessene Temperaturentwicklung der letzten Jahrzehnte gehabt hat. Um dies zu klären, muss ein geeignetes Kriterium gefunden werden, mit dessen Hilfe sich die unmittelbare Umgebung einer Wetterstation als ländlich bzw. urban (städtisch) charakterisieren lässt. Auf diese Weise können urban gelegene Stationen separat betrachtet und Unterschiede in der Temperaturentwicklung gegenüber der ländlichen Umgebung dargestellt werden.

In den letzten Jahren hat sich ein sehr nützliches Mittel für diesen Zweck herauskristallisiert: die satellitengestützte Kartierung der nächtlichen Lichtintensität (Nighttime Lights) aus künstlichen Quellen. Der Zusammenhang leuchtet unmittelbar ein: Straßenlaternen, Gebäudebeleuchtung, Fahrzeugscheinwerfer, Leuchtreklame und viele andere anthropogene Lichtquellen sind typische Merkmale der städtischen Umgebung und eng mit den Ursachen des städtischen Wärmeinseleffektes (Bebauung und Versiegelung) verknüpft. Hinzu kommt die weiträumige atmosphärische Streuung des Lichtes in der Umgebung der Städte. Tatsächlich ist der Zusammenhang zwischen Urbanisierung und Lichtintensität seit einigen Jahren intensiv erforscht und sehr gut belegt worden. Es bietet sich also an, die Lichtintensität in der Umgebung einer Wetterstation als Maß für den Wärmeinseleinfluß zu nutzen.

 

Abbildung 6: Links: die Verteilung der Lichtintensität aus künstlichen Lichtquellen (Nighttime Lights) in Deutschland (Datenquelle: NOAA, US Air Force Weather Agency); rechts: die Verteilung der AHI (Datenquelle: Benz et al. 2017)

 

Satellitendaten zur nächtlichen Lichtintensität sind aus verschiedenen Quellen frei verfügbar. Die linke Seite der Abbildung 6 zeigt die Messung des OLS-Instrumentes an Bord eines DMSP-Satelliten (US-Verteidigungsministerium) für das Jahr 2013. Es handelt sich um ein Komposit aus vielen über das Jahr verteilten Einzelmessungen, wobei temporäre Lichtquellen (z.B. Wolken, Brände) herausgefiltert wurden. Die Lichtintensität wird in der abstrakten Einheit DN angegeben und reicht von 1 (stockfinster) bis 63 (sehr hell). Die Daten liegen in Form eines Rasters mit einer Auflösung von 30 Bogensekunden vor, das entspricht etwas weniger als 1 Kilometer auf der Erdoberfläche. Auf diese Weise kann jedem Ort in Deutschland ein DN-Wert für die Lichtintensität direkt zugeordnet werden.

 

Abbildung 7: Wetterstationen mit DN >= 15 (urban, rote Punkte) und DN < 15 (ländlich, blaue Punkte) in der Mainregion vor dem Hintergrund der Nighttime Lights

 

Somit haben wir nun ein Maß für die Charakterisierung der Umgebung von Wetterstationen zur Hand. Abbildung 7 zeigt dies beispielhaft für die Mainregion vor dem Hintergrund der Nighttime Lights. Jeder farbige Punkt stellt den Ort einer der betrachteten Wetterstationen in der Region dar, wobei zwischen ländlich (blau) und urban (rot) unterschieden wird. Als Grenzwert wurde hier DN = 15 gewählt, was einen etwas willkürlichen aber in der Literatur durchaus gängigen Wert darstellt. Zusätzlich ist die Lage einiger größerer Städte eingezeichnet. Ein erheblicher Teil der Stationen befindet sich demnach tatsächlich in stark bebauten Gebieten (bzw. “befand”, da nicht alle Stationen heute noch in Betrieb sind).

 

Abbildung 8: Zehnjährige gleitende Mittelwerte der Jahresmitteltemperatur (unkorrigierte Rohdaten) in Deutschland seit dem Jahr 1900 für verschiedene DN-Obergrenzen. Die Mittelwerte sind zentriert und werden somit erst ab dem Jahr 1905 dargestellt.

 

Nun wird es interessant. Wie sieht der Temperaturverlauf der letzten Jahrzehnte in Abhängigkeit von der Lage der Wetterstationen aus? In Abbildung 8 ist die Temperaturentwicklung für verschiedene Obergrenzen von DN dargestellt, d.h. beginnend mit den Stationen in den nachtdunkelsten Gebieten (rosa) bis hin zu allen betrachteten Stationen (grau). Zur Glättung der Kurven wurde ein zehnjähriger gleitender Mittelwert verwendet. Zunächst einmal ist deutlich erkennbar, dass die Temperatur tatsächlich mit der nächtlichen Lichtintensität variiert – je dunkler die Umgebung, desto niedriger ist auch die mittlere Temperatur. Bei genauem Hinsehen offenbart sich allerdings eine faustdicke Überraschung: in den nachtdunkleren Gebieten mit niedrigem DN ist die Temperatur offensichtlich sehr viel stärker angestiegen als im Mittel aller Stationen (einschließlich der Städte). Die Differenz von über 2°C ist erheblich und stellt genau das Gegenteil dessen dar, was man vom Wärmeinseleffekt erwarten würde. Wie kann das sein?

 

Abbildung 9: Änderung der mittleren Stationshöhe für verschiedene Werte von DN

 

Die Lösung des Rätsels hat wieder einmal etwas mit der Höhe über N.N. zu tun. Betrachtet man die Veränderung der gemittelten Stationshöhe für die verschiedenen DN-Obergrenzen (Abbildung 9), zeigt sich ein klarer Trend. Während die über alle Stationen gemittelte Höhe (grau) mit der Zeit nur geringfügig abgenommen hat, liegen die nachtdunkelsten Stationen (rosa) heute im Durchschnitt mehr als 350 m tiefer als zu Beginn des letzten Jahrhunderts. Dies läßt sich folgendermaßen interpretieren: Stationen in Höhenlagen wurden aufgegeben und zum Teil durch neue Messstellen an vergleichbar entlegenen, jedoch weniger gebirgigen Orten, ersetzt. Sicherlich spielen die Unterhaltskosten dabei eine wichtige Rolle. Hier zeichnen sich erste Hinweise ab auf ein Tendenz, von der später noch ausführlich die Rede sein wird.

Abbildung 8 zeigt also einen Effekt, der hauptsächlich auf der Veränderung des Messnetzes beruht, da die nächtliche Lichtintensität eben auch eine starke Korrelation zur Höhe aufweist. Eine Möglichkeit, dies in den Griff zu bekommen, bestünde nun darin, die Temperaturdaten mit Hilfe der im ersten Teil dieses Artikels beschriebenen Höhenkorrektur einheitlich auf N.N. zu reduzieren, d.h. den Einfluß der Höhe auf die Temperatur herauszurechnen. Die Sache hat aber leider einen Haken: die Höhenkorrektur ist aus verschiedenen Gründen nicht perfekt und kann somit den Höheneinfluß nicht immer restlos eliminieren. Da der Höheneffekt sehr ausgeprägt ist, bestünde nach der Korrektur das Risiko von Restabhängigkeiten, die in den Daten verbleiben und nur sehr schwer von einem möglichen echten Wärmeinselsignal zu trennen sind.

Besser wäre, wenn man DN ersetzen könnte durch eine Größe, die per se weniger anfällig für derartige Störeffekte ist. Ein solcher Ansatz wurde 2017 von Forschern des KIT (Karlsruhe) und der TH Ingolstadt (Benz et al.) publiziert. Im kaltesonne-Blog wurde darüber berichtet. Die Autoren definieren dort die Größe AHI (anthropogenic heat intensity), die die Temperaturdifferenz eines Ortes gegenüber seinem ländlich geprägten Umland darstellt. Als Quelle der Temperaturmesswerte dienten auch hier die Wetterstationen des DWD. Ein Ort in der Umgebung wird von den Autoren als ländlich eingestuft, wenn die nächtliche Lichtintensität dort gering ist (DN < 15). Es handelt sich bei AHI also im Prinzip um einen Indikator, der direkt gemessene Temperaturdifferenzen widergibt, aber indirekt dennoch auf den Nighttime Lights basiert. Frau Benz hat freundlicherweise die AHI-Daten für diese Analyse zur Verfügung gestellt.

Wie die Nighttime Lights kann auch AHI flächendeckend für jeden Ort in Deutschland bestimmt werden. Eine Karte der AHI-Werte zeigt die rechte Seite der Abbildung 6 am Anfang des Artikels: Ihre Verteilung ähnelt sehr stark derjenigen der Nighttime Lights, was nicht verwunderlich ist, da AHI ja auf Basis der nächtlichen Lichtintensität berechnet wird. Der Vorteil von AHI besteht jedoch darin, dass die Temperatur an einem Ort direkt zu seiner unmittelbaren Umgebung in Bezug gesetzt wird. Ersetzt beispielsweise eine neue Wetterstation eine kürzlich geschlossene, so “wandert” die Bezugsregion sozusagen mit, was den störenden Einfluss von Größen wie etwa der Höhe wirkungsvoll unterdrückt.

 

Abbildung 10: Häufigkeitsverteilung der Stationen nach AHI-Wert (Datenquelle: Benz et al. 2017)

 

Die Häufigkeitsverteilung der AHI-Werte der DWD-Wetterstationen zeigt Abbildung 10. AHI liegt zwischen -1°C und ca. +3,5°C, d.h. die stärksten Wärmeinseln sind demnach im Mittel über 3°C wärmer als ihre Umgebung (z.B. die Stationen München-Bogenhausen, Dresden-Mitte, Hamburg-Deutsche Seewarte, Augsburg-Sankt Stephan, Berlin-Invalidenstraße, Berlin-Ostkreuz und Berlin-Mitte). Die Spitzenwerte der Temperaturdifferenz zum Umland können an einzelnen Tagen jedoch auch deutlich darüber liegen. Damit ist bereits allein aufgrund der Verteilung der AHI-Werte klar, dass der Wärmeinseleffekt existiert und in den DWD-Daten messbar ist.

Benz et al. lassen bei der Auswahl der ländlichen Umgebung eines Ortes Höhenunterschiede von bis zu ±90 m zu. Auf diese Weise ist es durchaus möglich, dass die ländliche Umgebung eines Ortes im Mittel höher liegt und dadurch etwas kühler ist als der Ort selbst, so dass ihm ein AHI-Wert unter null zugeordnet wird. Darüberhinaus gibt es natürlich auch weitere Faktoren, die die mittlere Temperatur lokal beeinflussen können. Beispiele für Orte mit sehr niedrigem AHI-Wert (ca. -0,9°C) sind: Zwieselberg (Allgäu), Schulenberg (Oberharz), Veilsdorf (Thüringer Wald) und Mittenwald-Buckelwiesen (Oberbayern), die sich alle in Gegenden mit vergleichsweise hoher Reliefenergie befinden.

 

Abbildung 11: Zehnjährige gleitende Mittelwerte der Jahresmitteltemperatur (unkorrigierte Rohdaten) Deutschland für verschiedene AHI-Obergrenzen

 

Abbildung 11 zeigt die Temperaturentwicklung für verschiedene Obergrenzen von AHI. Die rote Kurve gibt den Temperaturverlauf für die Wetterstationen mit den höchsten Temperaturdifferenzen gegenüber ihrer ländlichen Umgebung wieder (AHI > 2), die graue Kurve diejenige für alle Wetterstationen. Es ist ein deutlicher Temperaturunterschied erkennbar, wie es aufgrund der Häufigkeitsverteilung der AHI (Abbildung 10) zu erwarten war. Im Gegensatz zu den Temperaturverläufen für verschiedene DN (Abbildung 8) fehlt jedoch der durch die Verschiebung hin zu geringerer Stationshöhe verursachte starke Temperaturanstieg in ländlichen Gebieten mit niedrigen AHI-Werten. Offensichtlich haben wir nun tatsächlich einen zuverlässigen Wärmeinselindikator bei der Hand, der nur in geringem Maße von der Entwicklung des DWD-Messnetzes beeinflusst wird.

Die entscheidende Frage ist nun, ob – und ggf. wie stark – der Wärmeinseleffekt zum Anstieg der Temperaturen in Deutschland in den letzten Jahrzehnten beigetragen hat. Anders ausgedrückt: Stieg die Temperatur in den Städten schneller als auf dem Land? Mit dieser Frage werde ich mich im dritten Teil des Artikels befassen.

 

Der städtische Wärmeinseleffekt in Deutschland – Teil 1

Von Dipl.-Phys. Dr. Jan Olzem

Städte und besonders urbane Ballungsräume weisen im Vergleich zu ihrem ländlich geprägten Umland eine höhere durchschnittliche Lufttemperatur auf. Dieses Phänomen ist als städtischer Wärmeinseleffekt (engl. urban heat island, UHI) bekannt. Im kaltesonne-Blog ist schon mehrfach darüber berichtet worden. Die maximalen Temperaturdifferenzen zur Umgebung liegen bei Kleinstädten meist im Bereich von etwa 3-4°C, können bei Großstädten aber durchaus auch 10°C und darüber betragen, insbesondere nachts während längerer Hitzeperioden. Der städtische Wärmeinseleffekt hat eine Reihe verschiedener Ursachen wie etwa die Strahlungsabsorption und Wärmespeicherung durch Bebauung und Versiegelung (z.B. Asphalt und Beton), verringerte Verdunstungskühlung und eingeschränkte Luftzirkulation.

Aufgrund des seit Jahrzehnten in Deutschland anhaltenden Trends zur Suburbanisierung, d.h. der Abwanderung der Bevölkerung aus den Innenstädten in das Umland, steigt auch der Grad der Bebauung und Flächenversiegelung in den städtischen Randgebieten. Es liegt nahe, dass im Zuge dieses Prozesses auch der städtische Wärmeinseleffekt und damit die Lufttemperatur in den Städten zunimmt. Was passiert nun, wenn eine Wetterstation, die sich jahrelang auf freier Fläche außerhalb der Stadt befand, zunehmend umbaut wird? Geschieht das überhaupt? Wenn ja, wie wirkt es sich auf die Messung der langfristigen Wetterstatistik – des Klimas – aus? Hat der Wärmeinseleffekt einen Einfluss auf die Messung der Temperaturentwicklung in Deutschland? Diesen Fragen möchte ich in diesem Artikel nachgehen.

 

Abbildung 1: Links: die geografische Position aller betrachteter DWD-Wetterstationen (rote Punkte); rechts: DWD-Messfeld auf dem Hohen Peißenberg (Quelle: Deutscher Wetterdienst)

 

Hierzu benötigt man zunächst eine geeignete Datenbasis. Der Deutsche Wetterdienst (DWD) stellt auf seinem FTP-Server umfangreiche Beobachtungsdaten aller seiner Stationen zur Verfügung. Auch gemittelte Zeitreihen können — neben einer Fülle anderer Daten — von dort heruntergeladen werden. Aktuelle und historische Temperaturdatensätze umfassen Beobachtungen von insgesamt 1053 Wetterstationen in Deutschland. Laut DWD handelt es sich dabei um qualitätsgeprüfte rohe Messwerte. Nicht alle Stationen waren jedoch durchgehend in Betrieb und existieren zum Teil heute nicht mehr. Im Februar 2017 sind noch von 578 aktiven Stationen Temperaturmesswerte vorhanden. Auch waren nicht alle Stationen dabei immer am selben Ort. Viele sind im Laufe der Jahre teils mehrfach verlegt worden, wobei zwischen den alten und neuen Standorten manchmal auch geringe Höhenunterschiede auftraten. Die linke Seite der Abbildung 1 zeigt eine Karte mit der Position aller betrachteten Stationen. Als Hintergrund für die Grafik habe ich die Nighttime Lights (d.h. die nächtliche Lichtintensität durch künstliche Lichtquellen) gewählt, von denen später noch ausführlich die Rede sein wird.

 

Abbildung 2: Entwicklung der Anzahl der Wetterstationen für verschiedene Stationshöhenintervalle

 

Schauen wir uns zunächst einmal an, wie sich das Messnetz des DWD mit den Jahren verändert hat. In Abbildung 2 ist die Entwicklung der Anzahl der Wetterstationen von 1900 bis heute dargestellt, wobei zwischen verschiedenen Höhenlagen (über N.N.) unterschieden wird. Deutlich erkennbar ist zunächst, wie die in den 1920er Jahren begonnene rasche Erweiterung des Messnetzes vermutlich kriegsbedingt zunächst zum Stillstand kam, um dann nach 1945 umso schneller fortgesetzt zu werden. Seit den späten 50er Jahren ist die Gesamtzahl der Stationen dann in etwa konstant geblieben. Das bedeutet jedoch nicht zwangsläufig, dass es sich fortan immer um die selben Stationen gehandelt haben muss. Auch kontinuierliche Stillegungen alter Stationen und die parallele Inbetriebnahme neuer Stationen würden zu einem Bild wie in Abbildung 2 führen.

Interessant ist auch die Höhenverteilung. Die weitaus meisten Stationen befinden sich im Flachland unter 100 m über N.N. Es gibt jedoch auch einen erheblichen Anteil von Stationen in Höhenlagen oder im Gebirge. Die größte Höhe weist hierbei die Station Zugspitze mit 2964 m über N.N. auf, gefolgt von den inzwischen stillgelegten Messstellen Watzmannhaus (1923 m) Wendelstein (1832 m).

 

Abbildung 3: Änderung der gemittelten Höhe alle Wetterstationen

 

Betrachtet man die gemittelte Höhe aller Wetterstationen (Abbildung 3), so fällt auf, dass sie keineswegs konstant geblieben ist. Das Mittel liegt heute ca. 30 m tiefer als zu Beginn des vorigen Jahrhunderts. Einige hoch gelegene Stationen wurden gegen Ende der 30er Jahre aufgegeben, so dass der Mittelwert insgesamt abnahm. Es sind auch in späteren Jahren noch kleinere Schwankungen erkennbar, so etwa um die Jahrtausendwende.

Weshalb ist das wichtig? Wir alle sind vertraut mit der Beobachtung, dass die Lufttemperatur mit der Höhe abnimmt. Dieser sogenannte atmosphärische Temperaturgradient ist abhängig von der Luftfeuchte und beträgt im Mittel etwa 0,5°C pro 100 Höhenmeter, d.h. auf einem Berg in 1000 m Höhe ist es im Schnitt rund 5°C kühler als auf Meeresspiegelniveau, sofern man andere die Temperatur beeinflussende Faktoren einmal ausser Acht lässt. Dies bedeutet aber auch, dass die Skala der Temperaturen, die vom Thermometer gemessen werden, nicht unwesentlich von der Stationshöhe abhängt. Insbesondere können die Temperaturzeitreihen zweier beliebiger Stationen aus diesem Grunde nicht ohne weiteres miteinander verglichen werden.

 

Abbildung 4: Temperaturmittel 1961-1990 für verschiedene Stationen und gemessene atmosphärische Temperaturgradienten (rote Linien) im Norden Baden-Württembergs für die Monate Januar (links) und Juli (rechts). Die Gradienten betragen 0,55°C bzw. 0,59°C pro 100 Höhenmeter.

 

Um dieses Problem zu umgehen und den Einfluß der Stationshöhe auf die Temperaturen zu unterdrücken, wurden zunächst alle Temperaturmesswerte auf Meeresspiegelniveau korrigiert. Die Temperaturen einer Wetterstation, die man durch diese Korrektur erhält, verhalten sich dann so, als würde die Stationshöhe 0 m betragen, wobei jedoch alle anderen temperaturrelevanten Einflussfaktoren unberührt bleiben. Hierfür wurden die DWD-Wetterstationen in geografische Regionen zusammengefasst und die Höhenabhängigkeit der Temperatur für jede Region jahreszeitabhängig aus den Daten bestimmt. Nach Glättung von Ausreissern und Interpolation kann dann für jeden Ort in Deutschland und für jeden Monat des Jahres ein Temperaturgradient angegeben werden, mit dem sich die Höhe einer Wetterstation jeweils individuell auf N.N. reduzieren lässt. Die genaue Vorgehensweise orientiert sich an dieser Publikation des DWD. Abbildung 4 zeigt beispielhaft den Zusammenhang zwischen Höhe und gemessenem Temperaturmittel der Stationen einer Region im Südwesten Deutschlands im Winter bzw. im Sommer. Es bleibt anzumerken, dass eine solche Datenkorrektur aus verschiedenen Gründen nicht perfekt sein kann, so dass der Einfluß der Höhe auf die Temperaturmessung zwar deutlich verringert, aber nicht vollständig eliminiert wird.

 

Abbildung 5: Zeitreihen der Jahresmitteltemperatur Deutschland: unkorrigierte Stationsdaten (grau-blau), höhenkorrigierte Stationsdaten (rot) und DWD-Zeitreihe (grün)

 

Mit den so gewonnenen Stationsdaten können nun Temperaturzeitreihen ermittelt und mit den vom DWD veröffentlichten Zeitreihen verglichen werden. In Abbildung 5 sind die Jahresmitteltemperaturen für Deutschland dargestellt, die aus den unkorrigierten Temperaturdaten (grau-blaue Kurve) und den höhenkorrigierten Daten (rote Kurve) errechnet wurden. Sofort fällt auf, dass die korrigierten Mittelwerte durchgehend ca. 1,5°C höher ausfallen als die unkorrigierten. Ein kurzer Blick auf Abbildung 3 liefert schnell die Erklärung hierfür: Der Mittelwert aller Stationshöhen beträgt grob 300 m über N.N. Die Höhenkorrektur wirkt nun wie ein „Abstieg“ auf Meeresspiegelniveau. Mit dem oben angesprochenen atmosphärischen Temperaturgradienten von rund 0,5°C pro 100 m würde man also einen Temperaturanstieg von rund 1,5°C erwarten, was sich sehr gut mit der beobachteten Differenz deckt.

Die grünen Punkte in Abbildung 5 geben die vom DWD veröffentliche Zeitreihe der Jahresmitteltemperatur für Deutschland wieder. Sofort wird deutlich, dass die DWD-Zeitreihe nicht aus höhenkorrigierten Daten gewonnen worden ist: Es zeigt sich eine sehr gute Übereinstimmung mit der aus den unkorrigierten Daten ermittelten Zeitreihe, mit den höhenkorrigierten Daten jedoch überhaupt nicht. Das klingt zunächst überraschend, ist aber durchaus legitim, sofern das Höhenprofil der Wetterstationen mit der Zeit nicht zu stark variiert (wir kommen später noch darauf zurück). Die absolute Temperaturskala spielt dann keine Rolle, und es geht lediglich um die Änderung des Temperaturmittels mit der Zeit. Die hier beschriebene Höhenkorrektur wird sich übrigens dennoch später als nützlich erweisen.

Vergleicht man die grünen DWD-Punkte und die unkorrigierten Jahresmitteltemperaturen (grau-blaue Kurve) in Abbildung 5 etwas genauer, erkennt man einige geringfügige Unterschiede. So weicht einerseits die DWD-Jahresmitteltemperatur für das Jahr 1945 um über 1°C von Mittelwert der Rohdaten ab. Das ist nicht wirklich verwunderlich. Sicherlich konnten nicht alle Wetterstationen in diesem schwierigen Jahr verlässliche Daten liefern, und man kann davon ausgehen, dass dies beim DWD bekannt ist und entsprechend berücksichtigt wurde. Systematische Abweichungen findet man in den Jahren vor 1940, wo die Jahresmittel des DWD durchgehend ein wenig höher ausfallen als diejenigen der unkorrigierten Rohdaten. Die Differenz beträgt etwa 0,1-0,2°C. Was ist der Grund hierfür? Vielleicht hat es wieder etwas mit der Höhe zu tun. Der Abbildung 3 entnehmen wir, dass die Wetterstationen in den Jahren vor Kriegsbeginn im Mittel etwa 30 m höher lagen als in der 2. Hälfte des 20. Jahrhunderts. Mit dem atmosphärischen Temperaturgradienten von rund 0,5°C pro 100 m ergibt das eine zu erwartende Abweichung von 0,15°C, was ziemlich gut mit der beobachteten Differenz übereinstimmt. Man hat beim DWD also offensichtlich die Verlagerung der Wetterstationen hin zu geringeren Höhen durchaus berücksichtigt und die Zeitreihe entsprechend korrigiert. So weit, so gut.

Wir haben nun eine gute Vorstellung davon, wie die Zeitreihe der Jahresmitteltemperaturen des DWD zustande kommt. Die interessante Frage ist nun, welchen Einfluß das Wachstum der Städte auf die Temperaturen gehabt hat. Um dies zu ermitteln, ist es notwendig, diejenigen Wetterstationen zu identifizieren, die von der Suburbanisierung betroffen waren, und zu prüfen, ob sich die dort gemessenen Temperaturen anders verhalten als im ländlichen Umland. Das Mittel der Wahl für diesen Zweck sind Satelliten – und Straßenlaternen. Darauf werde ich im zweiten Teil des Artikels näher eingehen.

 

Australische James Cook Universität tritt akademische Freiheit mit Füßen

Pressemitteilung der Deutschen Wildtierstiftung vom 20. Juni 2018:

Wälder schützen – Rodung für die Windkraft stoppen
Deutsche Wildtier Stiftung begrüßt den Antrag der FDP-Bundestagsfraktion
“Im Interesse der Windkraftlobby setzt sich die Politik über das Tötungs- und Verletzungsverbot von Wildtieren tagtäglich hinweg”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Pro Jahr sterben rund 12.000 Greifvögel – unter ihnen auch bedrohte Arten – und rund 250.000 Fledermäuse durch Windenergieanlagen. “Massive Bürgerproteste bleiben weitgehend ungehört!” Jetzt will die FDP-Bundestagsfraktion mit dem Antrag “Wälder schützen – Rodungen für die Windkraft stoppen” im Bundestag Gehör finden.

Hier weiterlesen

———————-

Eine australische Uni feuerte einen Professor, dessen Meinung zum Klimawandel aus der Reihe tanzt. Querdenken verboten. Wer sich eigene Gedanken macht, fliegt raus. Was zunächst wie eine gute Idee aussah, wird für die Univerwaltung nun zum ernsthaften Problem. Die internationale Presse hat den Fall entdeckt und erkennt darin, was wohl jeder mit einem gesunden Menschenverstand ausgestattete Zeitgenosse darin sieht: Zensur! Lesen Sie dazu einen Artikel im Guardian vom 5. Juni 2018:

Peter Ridd’s sacking pushes the limit of academic freedom
James Cook University may have damaged its reputation with a heavy-handed approach to the academic with minority views on climate change and the reef

Weiterlesen im Guardian

———————-

Wochenblick vom 15. Juni 2018:

Dürre-Attacken in Österreich: „Am Klimawandel liegt es nicht“
[...] Klaus Haslinger, Klimaforscher an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG), von der Abteilung für Klimaforschung mit Schwerpunkt Regionale Klimaanalyse und Modellierung, Hydrologie und Trockenheit, erklärt im Gespräch mit dem „Wochenblick“, dass die derzeit sehr trockene Witterung im Grunde genommen nicht mehr als ein Wetterphänomen sei und mit dem „menschengemachten Klimawandel“ per se nichts zu tun hätte.

Weiterlesen im Wochenblick

 

Wer hat den Baobab kaputt gemacht?

Kuriose Geschichte im Stern am 14. Juni 2018:

Berühmte Baobab-Bäume: Klimawandel? Jahrtausendealte Wahrzeichen Afrikas sterben plötzlich
Wissenschaftler schlagen Alarm: Einige von Afrikas größten und ältesten Affenbrotbäumen sind im Laufe der letzten Jahre plötzlich abgestorben. Die Bäume sind entweder komplett oder in Teilen zugrunde gegangen, berichtet ein Forscherteam um Adrian Patrut im Fachblatt “Nature Plants“. Der Grund für den plötzlichen Tod der Bäume sei zwar “unklar”, heißt es in dem Bericht. Möglicherweise spielen dabei jedoch Veränderungen im Zusammenhang mit dem Klimawandel eine Rolle, vermuten die Wissenschaftler.

Alte Bäume sterben plötzlich. Nicht ungewöhnlich, möchte man meinen. Die Hintergründe sind trotzdem unklar. Da kommt der Universalschuldige gerade recht: Der Klimawandel hat Schuld. Das hat gleich drei Vorteile: 1) Das Rätsel scheint gelöst, 2) Das gibt ein tolles Paper in einer Nature-Zeitschrift, 3) mediales Interesse ist gesichert. Der folgende Absatz im Sternbericht macht stutzig:

Die betroffenen Bäume waren demnach zwischen 1100 und 2500 Jahre alt und besaßen eine stattliche Größe. Einige von ihnen waren so breit wie ein Bus.  Das Forscherteam hatte insgesamt mehr als 60 Baobab-Bäume zwischen den Jahren 2005 und 2017 untersucht. Ursprüngliches Ziel der Studie war es, den Grund für das enorme Wachstum der Bäume herauszufinden. Doch zum Erstaunen der Forscher starben neun Bäume im Laufe der Beobachtungszeit ab.

Könnte es vielleicht mit den Forschern selber zu tun haben? Mit welchen Methoden gingen sie vor? Rammten sie vielleicht eine Mess-Sonde in das Holz? Und dann ein paar Jahre später wunderte man sich, dass die Bäume alle eingingen. Nein, nein, wir waren’s nicht, das war sicher der Klimawandel…

Spaß beiseite. Im Paper selber findet sich auch kein Hinweis auf einen Zusammenhang mit dem Klimawandel, lediglich der dürre spekulative Hinweis. Mit den Hauptklimaparametern Temperatur und Niederschlag kann dies wenig zu tun  haben. Im Laufe der letzten Jahrhunderte und Jahrtausende haben die Baobabs eine wahre klimatische Achterbahnfahrt durchgemacht. Das heutige Klima liegt dabei noch voll und ganz im Bereich der natürlichen Schwankungsbreite. Siehe Luening et al. 2017 und Luening et al. 2018. Der Spiegel hat auch ein schönes Bild der Bäume.

 

Rätsel um starken Meeresspiegelanstieg an US-Ostküste aufgeklärt: Schuld hatten die Ozeanzyklen

Thema heute: Der Meeresspiegel in Nordamerika. Die University of California – Berkeley wies im März 2018 darauf hin, dass neben dem Meeresspiegelanstieg auch die Landabsenkung eine große Rolle spielt:

Sinking land will exacerbate flooding from sea level rise in Bay Area
Rising sea levels are predicted to submerge many coastal areas around San Francisco Bay by 2100, but a new study warns that sinking land — primarily the compaction of landfill in places such as Treasure Island and Foster City — will make flooding even worse.

Using precise measurements of subsidence around the Bay Area between 2007 and 2011 from state-of-the-art satellite-based synthetic aperture radar (InSAR), scientists from the University of California, Berkeley, and Arizona State University mapped out the waterfront areas that will be impacted by various estimates of sea level rise by the end of the century. They found that, depending on how fast seas rise, the areas at risk of inundation could be twice what had been estimated from sea level rise only. Previous studies, which did not take subsidence into account, estimated that between 20 and 160 square miles (51 to 413 square kilometers) of San Francisco Bay shoreline face a risk of flooding by the year 2100, depending on how quickly sea levels rise.

Adding the effects of sinking ground along the shoreline, the scientists found that the area threatened by rising seawater rose to between 48 and 166 square miles (125 to 429 square kilometers). “We are only looking at a scenario where we raise the bathtub water a little bit higher and look where the water level would stand,” said senior author Roland Bürgmann, a UC Berkeley professor of earth and planetary science. “But what if we have a 100-year storm, or king tides or other scenarios of peak water-level change? We are providing an average; the actual area that would be flooded by peak rainfall and runoff and storm surges is much larger.”

The data will help state and local agencies plan for the future and provide improved hazard maps for cities and emergency response agencies. “Accurately measuring vertical land motion is an essential component for developing robust projections of flooding exposure for coastal communities worldwide,” said Patrick Barnard, a research geologist with the U.S. Geological Survey in Menlo Park. “This work is an important step forward in providing coastal managers with increasingly more detailed information on the impacts of climate change, and therefore directly supports informed decision-making that can mitigate future impacts.” The low-end estimates of flooding reflect conservative predictions of sea level rise by 2100: about one and a half feet. Those are now being questioned, however, since ice sheets in Greenland and West Antarctica are melting faster than many scientists expected. Today, some extreme estimates are as high as five and a half feet.

That said, the subsidence – which the geologists found to be as high as 10 millimeters per year in some areas – makes less of a difference in extreme cases, Bürgmann noted. Most of the Bay Area is subsiding at less than 2 millimeters per year. “The ground goes down, sea level comes up and flood waters go much farther inland than either change would produce by itself,” said first author Manoochehr Shirzaei, a former UC Berkeley postdoctoral fellow who is now an assistant professor in ASU’s School of Earth and Space Exploration and a member of NASA’s Sea Level Change planning team. Shirzaei and Bürgmann will publish their findings March 7 in the online journal Science Advances.

Combining InSAR and GPS

InSAR, which stands for interferometric synthetic aperture radar, has literally changed our view of Earth’s landscape with its ability to measure elevations to within one millimeter, or four-hundredths of an inch, from Earth orbit. While it has been used to map landscapes worldwide – Bürgmann has used InSAR data to map landslides in Berkeley and land subsidence in Santa Clara County – this may be the first time someone has combined such data with future sea level estimates, he said. The team used continuous GPS monitoring of the Bay Area to link the InSAR data to sea level estimates.

“Flooding from sea level rise is clearly an issue in many coastal urban areas,” Bürgmann said. “This kind of analysis is probably going to be relevant around the world, and could be expanded to a much, much larger scale.” In the Bay Area, one threatened area is Treasure Island, which is located in the Bay midway between San Francisco and Oakland and was created by landfill for the 1939 Golden Gate International Exposition. It is sinking at a rate of one-half to three-quarters of an inch (12 to 20 millimeters) per year. Projections for San Francisco International Airport show that when land subsidence is combined with projected rising sea levels, water will cover approximately half the airport’s runways and taxiways by the year 2100. Parts of Foster City were built in the 1960s on engineered landfill that is now subsiding, presenting a risk of flooding by 2100.

Not all endangered areas are landfill, however. Areas where streams and rivers have deposited mud as they flow into the Bay are also subsiding, partly because of compaction and partly because they are drying out. Other areas are subsiding because of groundwater pumping, which depletes the aquifer and allows the land to sink. In the early 20th century, the Santa Clara Valley at the south end of San Francisco Bay subsided as much as nine feet (three meters) due to groundwater depletion, though that has stabilized with restrictions on pumping. Shirzaei noted that flooding is not the only problem with rising seas and sinking land. When formerly dry land becomes flooded, it causes saltwater contamination of surface and underground water and accelerates coastal erosion and wetland losses. The work was supported by the National Science Foundation, National Aeronautics and Space Administration and Point Reyes Bird Observatory Conservation Science.

Paper: Global climate change and local land subsidence exacerbate inundation risk to the San Francisco Bay Area (Science Advances)

Talke et al. 2018 präsentierten Meeresspiegelpegelmessungen aus dem Hafen von Boston für die letzten 200 Jahre. In der ganzen Zeit stieg der Meeresspiegel um 28 cm an. Dies entspricht einem Anstieg von 1,45 mm pro Jahr. Hier gehts zum Paper, und hier zur Pressemitteilung.

Auf Climate Audit diskutierte Steve McIntyre im November 2017 die verschiedenen Versuche, Meeresspiegel-Hockeysticks für die US Ostküste zu produzieren. Was hatten Anhänger des Aarmismus übersehen? Trompetenstoß: Die Ozeanzyklen, speziell ENSO und NAO, wie die University of Florida am 9. August 2017 bekanntgab:

East Coast’s rapidly rising seas explained

University of Florida scientists discover cause of Atlantic coastline’s sea level rise hot spots

When the Indian River Lagoon on Florida’s Atlantic coast became much saltier after 2011, Arnoldo Valle-Levinson began to investigate. The UF professor of civil and coastal engineering sciences in the College of Engineering checked local tidal gauges, revealing that seas in the region were rising nearly 10 times faster than the long-term rate recorded in that region. When he reviewed tidal data for the entire eastern seaboard, he found similar numbers for all the tide gauge stations south of Cape Hatteras, revealing the regional extent of the “hot spot.”  Sea level rise hot spots — bursts of accelerated sea rise that last three to five years — happen along the U.S. East Coast thanks to a one-two punch from naturally occurring climate variations, according to a new study lead by Valle-Levinson.

After UF scientists identified the hot spot reaching from Cape Hatteras to Miami, they probed the causes by analyzing tidal and climate data for the U.S. eastern seaboard. The study, published online today in Geophysical Research Letters, shows that seas rose in the southeastern U.S. between 2011 and 2015 by more than six times the global average sea level rise that is already happening due to human-induced global warming. The study’s findings suggest that future sea level rise resulting from global warming will also have these hot spot periods superimposed on top of steadily rising seas, said study co-author Andrea Dutton, assistant professor in UF’s department of geological sciences in the College of Liberal Arts and Sciences. “The important point here is that smooth projections of sea level rise do not capture this variability, so adverse effects of sea level rise may occur before they are predicted to happen,” Dutton said. “The entire U.S. Atlantic coastline is vulnerable to these hot spots that may amplify the severity of coastal flooding.”

The combined effects of El Niño (ENSO) and the North Atlantic Oscillation (NAO), both of which are naturally occurring climate processes, drove the recent hot spot, according to the study. Study authors also discovered similar hot spots at various positions along the U.S. eastern seaboard over the past century. They found that these past hot spots are also explained by the combined influence of ENSO and NAO. The finding challenges previous arguments that a hot spot north of Cape Hatteras over the past few decades was due to a slowdown of circulation in the North Atlantic, which is itself due to global warming. Instead, study authors discovered the combination of these two naturally occurring ocean-atmosphere processes explained both the timing and the location of hot spots observed along the entire U.S. Atlantic coast, Dutton said.

While a slowdown of circulation in the North Atlantic can further exacerbate sea level rise in the northeast, it does not explain the accelerations observed in the southeast, and was not required to explain the hot spots observed in the northeast, according to the study. The authors found that hot spots observed over the past century were created by the influence of ENSO that affects the amount of water that accumulates in the western portion of the North Atlantic and causes seas to rise along the entire U.S. Atlantic coast. This sea level rise is then concentrated to the north or south by the NAO, which is a measure of the atmospheric pressure difference between Iceland and the Azores.

Valle-Levinson said hot spots are difficult to predict and it’s not clear if the hot spots will worsen with time. By decreasing emissions, he said we may be able to stabilize rising seas long-term, but the trend will likely be difficult to reverse. “It’s amazing to see construction along the East Coast. That’s the worst place to build anything,” said Valle-Levinson, who described the future for some southeastern U.S. cities as “Venice-like.” “We need to understand that the ocean is coming.” The study was also co-authored by Jonathan Martin, a UF professor of geological sciences in the College of Liberal Arts and Sciences.

Das Virginia Institute of Marine Science gibt offenbar eine Art von “Karteikarte” für US-Küstenpegel und ihren Wasserstandsverlauf heraus. Hier nachlesen. Wer noch viel mehr über die US-Meeresspiegelmessungen wissen möchte, wird bei Judith Cury fündig.

 

Vor 5300 Jahren lag der Meeresspiegel in Surinam und Guyana etwa 1m höher als heute

In einer Arbeit von Khan et al. 2017 wird die Meeresspiegelgeschichte der Karibik während der letzten 10.000 Jahre berichtet. Nach Ende der letzten Eiszeit vor 11.000 Jahren stieg der Meeresspiegel in Surinam und Guyana mit einer Rate von 11 mm pro Jahr an. Das ist etwa 5 mal schneller als heute. Im mittleren und späten Holozän (also seit 5000 Jahren vor heute), betrug der Meeresspiegelanstieg dann weniger als 2,4 mm pro Jahr. Übrigens: Vor 5300 Jahren lag der Meeresspiegel in den beiden Ländern etwa 1 m über dem heutigen Stand. Überrascht? Abstract:

Drivers of Holocene sea-level change in the Caribbean
We present a Holocene relative sea-level (RSL) database for the Caribbean region (5°N to 25°N and 55°W to 90°W) that consists of 499 sea-level index points and 238 limiting dates. The database was compiled from multiple sea-level indicators (mangrove peat, microbial mats, beach rock and acroporid and massive corals). We subdivided the database into 20 regions to investigate the influence of tectonics and glacial isostatic adjustment on RSL. We account for the local-scale processes of sediment compaction and tidal range change using the stratigraphic position (overburden thickness) of index points and paleotidal modeling, respectively. We use a spatio-temporal empirical hierarchical model to estimate RSL position and its rates of change in the Caribbean over 1-ka time slices. Because of meltwater input, the rates of RSL change were highest during the early Holocene, with a maximum of 10.9 ± 0.6 m/ka in Suriname and Guyana and minimum of 7.4 ± 0.7 m/ka in south Florida from 12 to 8 ka. Following complete deglaciation of the Laurentide Ice Sheet (LIS) by ∼7 ka, mid-to late-Holocene rates slowed to < 2.4 ± 0.4 m/ka. The hierarchical model constrains the spatial extent of the mid-Holocene highstand. RSL did not exceed the present height during the Holocene, except on the northern coast of South America, where in Suriname and Guyana, RSL attained a height higher than present by 6.6 ka (82% probability). The highstand reached a maximum elevation of +1.0 ± 1.1 m between 5.3 and 5.2 ka. Regions with a highstand were located furthest away from the former LIS, where the effects from ocean syphoning and hydro-isostasy outweigh the influence of subsidence from forebulge collapse.

Peinlich: Klimamodelle bekommen den Regen nicht in den Griff

Bartlein et al. 2017 machten eine eklatante Schwäche der Klimamodelle bekannt: Für die Zeit vor 5000 Jahren errechnen die Modelle im Vergleich zu den geologisch ermittelten Werten viel zu hohe Temperaturen und zu geringe Niederschläge. Abstract:

Underlying causes of Eurasian midcontinental aridity in simulations of mid‐Holocene climate
Climate model simulations uniformly show drier and warmer summers in the Eurasian midcontinent during the mid‐Holocene, which is not consistent with paleoenvironmental observations. The simulated climate results from a reduction in the zonal temperature gradient, which weakens westerly flow and reduces moisture flux and precipitation in the midcontinent. As a result, sensible heating is favored over evaporation and latent heating, resulting in substantial surface‐driven atmospheric warming. Thus, the discrepancy with the paleoenvironmental evidence arises initially from a problem in the simulated circulation and is exacerbated by feedback from the land surface. This region is also drier and warmer than indicated by observations in the preindustrial control simulations, and this bias arises in the same way: zonal flow and hence moisture flux into the midcontinent are too weak, and feedback from the land surface results in surface‐driven warming. These analyses suggest the need to improve those aspects of climate models that affect the strength of westerly circulation.

Yuan & Zhu 2018 weisen darauf hin, dass Effekte der Ozeanzyklen PDO und AMO unbedingt in Niederschlags-Simulationen mit einbezogen werden sollten, um die Prognoseleistung zu verbessern:

A First Look at Decadal Hydrological Predictability by Land Surface Ensemble Simulations
Abstract: The prediction of terrestrial hydrology at the decadal scale is critical for managing water resources in the face of climate change. Here we conducted an assessment by global land model simulations following the design of the fifth Coupled Model Intercomparison Project (CMIP5) decadal hindcast experiments, specifically testing for the sensitivity to perfect initial or boundary conditions. The memory for terrestrial water storage (TWS) is longer than 6 years over 11% of global land areas where the deep soil moisture and aquifer water have a long memory and a nonnegligible variability. Ensemble decadal predictions based on realistic initial conditions are skillful over 31%, 43%, and 59% of global land areas for TWS, deep soil moisture, and aquifer water, respectively. The fraction of skillful predictions for TWS increases by 10%–16% when conditioned on Pacific Decadal Oscillation and Atlantic Multidecadal Oscillation indices. This study provides a first look at decadal hydrological predictability, with an improved skill when incorporating low‐frequency climate information.

Plain Language Summary: Decadal prediction, which was initially proposed to more accurately project near‐term (e.g., 10–30 years) climate change by using the experiences in weather and seasonal climate forecasting, has raised a wide concern since the IPCC CMIP5 project. The climate community is now trying to transition the decadal prediction from a pure research to a quasi‐real‐time operational effort. However, very limited information is known about the decadal hydrological predictability over land, which is more relevant to the livelihood and stakeholders. Here we combine an ensemble simulation method that is widely used to assess seasonal hydrological predictability, with the experimental design of the CMIP5 decadal climate hindcasts, to provide a first look at decadal hydrological predictability and skill by carrying out over 2,000 years global land model simulations. We found skillful decadal prediction for terrestrial water storage over one third land areas where deep soil moisture and aquifer have a nonnegligible variability. And the skill can be further enhanced by incorporating low‐frequency teleconnection information from Atlantic and Pacific Oceans. This study suggests that it is possible to provide water resources managers useful hydrological forecast information over arid and semiarid regions a few years or even a decade in advance.

Eine hochinteressante neue Arbeit stammt von Bothe et al. 2018. Darin stellen sie zunächst fest, dass die Niederschläge in Großbritannien während der vergangenen 350 Jahre stark von den Ozeanzyklen abhängen und externe Faktoren nahezu keine Rolle spielen. Zudem bemängeln sie eine starke Diskrepanz zwischen Modellsimulationen und echten Messdaten. Kurz gesagt: Die Modelle bekommen die Realität einfach nicht in den Griff. Abstract:

Inconsistencies between observed, reconstructed, and simulated precipitation over the British Isles during the last 350 years
The scarcity of long instrumental records, uncertainty in reconstructions, and insufficient skill in model simulations hamper assessing how regional precipitation changed over past centuries. Here, we use standardised precipitation data to compare global and regional climate simulations and reconstructions and long observational records of seasonal mean precipitation in England and Wales over the past 350 years. The effect of the external forcing on the precipitation records appears very weak. Internal variability dominates all records. Even the relatively strong exogenous forcing history of the late 18th and early 19th century shows only little effect in synchronizing the different records. Multi-model simulations do not agree on the changes over this period. Precipitation estimates are also not consistent among reconstructions, simulations, and instrumental observations regarding the probability distributions’ changes in the quantiles for severe and extreme dry or wet conditions and in the standard deviations. We have also investigated the possible link between precipitation and temperature variations in the various data sets. This relationship is also not consistent across the data sets. Thus, one cannot reach any clear conclusions about precipitation changes in warmer or colder background climates during the past centuries. Our results emphasize the complexity of changes in the hydroclimate during the most recent historical period and stress the necessity of a thorough understanding of the processes affecting forced and unforced precipitation variability.

 

TU Delft: Überschwemmungen in Europa zeigen während der vergangenen 150 Jahre keinen Anstieg von finanziellen Schäden oder Opferzahlen

Die TU Delft gab am 31. Mai 2018 per Pressemitteilung eine gute Nachricht bekannt: Während der letzten 150 Jahre haben sich weder die Opferzahlen, noch die finanziellen Schäden im Zusammenhang mit Überschwemmungen in Europa erhöht, wenn man entsprechende Korrekturen für demographische und ökonomische Veränderungen berücksichtigt:

No increase in losses in Europe from floods in the past 150 years

Extreme hydrological events are generally predicted to become more frequent and damaging in Europe due to warming climate. Researchers from TU Delft and Rice University (Houston) have now shown that, correcting for economic and demographic changes, there has been no increase in financial losses and fatalities from floods in the last 150 years. They have reported on their findings in Nature Communications.

Correcting

An analysis of long-term trends in flood losses should account for changes in size and distribution of population and assets. Without correcting reported losses for changes in exposure, studies (logically) report a significant upward trend in losses. ‘Such ‘normalization’ processes have also proven to be important for explaining trends in other natural hazards’, says Dominik Paprotny, researcher at TU Delft and lead author of the paper in Nature Communications.

So adverse consequences of floods change are influenced by both natural and socio-economic trends and interactions. In Europe, previous studies of historical flood losses that were corrected for demographic and economic growth (‘normalized’) have been limited, leading to an incomplete representation of trends in losses over time. ‘After adjusting nominal losses for demographic and economic growth, no significant trends in flood losses, both on European scale and for individual countries were observed.’

Less fatalities

Paprotny and his colleagues utilized a gridded reconstruction of flood exposure in 37 European countries and a new database of damaging floods since 1870. ‘Our results indicate that, after correcting for changes in flood exposure, there has been an increase in annually inundated area and number of persons affected since 1870, but we have also found a substantial decrease in flood fatalities. For more recent decades we found a considerable decline in financial losses per year. We estimate, however, that there is large underreporting of smaller floods beyond most recent years, and show that underreporting has a substantial impact on observed trends.’

Changes

Extreme hydrological events are generally predicted to become more frequent and damaging in Europe due to warming climate and there seems to be large consensus regarding the trajectory of future climatic developments. ‘There is however less confidence in the changes in flood losses as a result of climate change so far’, says Paprotny. ‘Qualitative and quantitative hydrological studies for Europe have indicated no general continental-wide trend in river flood occurrences, extreme precipitation, or annual maxima of runoff. However, substantial variations between different catchments have been observed, ranging from an increase in north-western Europe to no trend or a decrease in other parts of the continent. Similar findings were reported for storminess along the European coasts.’

Bereits im September 2017 hatte eine Forschergruppe um Glenn Hodgkins in einer Studie Trends großer Fluten in Europa und Nordamerika berechnet. Nur wenige Flüsse zeigten einen signifikanten Langzeittrend, der jedoch aufgrund der hohen Anzahl an Datensätzen auch bei einem Zufallsexperiment aufgetreten wäre. Stattdessen scheint das Flutgeschehen in Europa und Nordamerika eng an den Ozeanzyklus der Atlantischen Multidekadenoszillation gebunden zu sein. Hier der Abstract:

 Climate-driven variability in the occurrence of major floods across North America and Europe
Concern over the potential impact of anthropogenic climate change on flooding has led to a proliferation of studies examining past flood trends. Many studies have analysed annual-maximum flow trends but few have quantified changes in major (25–100 year return period) floods, i.e. those that have the greatest societal impacts. Existing major-flood studies used a limited number of very large catchments affected to varying degrees by alterations such as reservoirs and urbanisation. In the current study, trends in major-flood occurrence from 1961 to 2010 and from 1931 to 2010 were assessed using a very large dataset (>1200 gauges) of diverse catchments from North America and Europe; only minimally altered catchments were used, to focus on climate-driven changes rather than changes due to catchment alterations. Trend testing of major floods was based on counting the number of exceedances of a given flood threshold within a group of gauges. Evidence for significant trends varied between groups of gauges that were defined by catchment size, location, climate, flood threshold and period of record, indicating that generalizations about flood trends across large domains or a diversity of catchment types are ungrounded. Overall, the number of significant trends in major-flood occurrence across North America and Europe was approximately the number expected due to chance alone. Changes over time in the occurrence of major floods were dominated by multidecadal variability rather than by long-term trends. There were more than three times as many significant relationships between major-flood occurrence and the Atlantic Multidecadal Oscillation than significant long-term trends.

 

Einen guten Journalisten erkennt man daran, dass er sich nicht gemein macht mit einer Sache, auch nicht mit einer guten Sache

Bei der Deutschen Welle gibt es eine Sendung namens Wirtschaft_plus. Der Journalist Thomas Spahn berichtete dort, dass Elektromobile nicht so umweltschonend sind wie landläufig angenommen wird. Das Video hat Robert Scherleitner zur Verfügung gestellt. Anzuschauen hier bei Notrickszone. Thomas Spahns Motto ist vorbildlich. Auf seiner Profilseite der Deutschen Welle schreibt er:

“Einen guten Journalisten erkennt man daran, dass er sich nicht gemein macht mit einer Sache, auch nicht mit einer guten Sache.”

Notrickszone weist in diesem Zusammenhang auch auf einen Artikel auf shz.de hin:

Schwedische Untersuchung: Akkus in Elektroautos belasten das Klima
Der Anschein, mit dem Elektroauto eine klimafreundliche Alternative zu herkömmlichen Fahrzeugen gefunden zu haben, bröckelt. Denn schon die Produktion der für die Autos lebenswichtigen Lithium-Ionen-Batterien geht mit enormen Emissionen einher. Das besagt eine neue schwedische Studie, die die bisherigen Untersuchungen in einer Metastudie analysiert und zusammengefasst hat, so die Fach-Zeitschrift „Ingeniøren“.

Weiterlesen auf shz.de

Ganz  frisch im Juni 2018 zum Thema herausgekommen ist eine Arbeit von Ajanovic und Haas im Fachblatt Environment, Development and Sustainability:

Electric vehicles: solution or new problem?
Since electric vehicles (EVs) have been recognized as a technology that reduces local air pollution while improving transport energy security, they have been promoted in many countries. Yet, mainly due to their high costs, especially in the case of pure battery electric vehicles, and a lack of proper infrastructure, the use of EVs is still very limited. In this paper, some of the major barriers and the future challenges are discussed. The current problems are mainly attributed to two categories: (1) the battery performances and costs, as well as battery production including issue of material availability and (2) environmental benefits of EVs depending on the sources used for the electricity generation and their carbon intensity. The major conclusions are that (1) research and development with respect to batteries has by far the highest priority and (2) it has to be ensured that the electricity used in EVs is generated largely from renewable energy sources.

Aus den Conclusions:

One of the largest challenges for the future will be to provide clean carbon-free sources for electricity generation. While this is a minor problem in countries with large shares of renewables as Norway, Austria or Sweden, in most other countries which largely use coal for electricity generation (e.g., China, Turkey, Greece), it may cause a severe barrier. Currently, in many countries, the CO2 emissions per kWh of electricity generated are very high, leading to the effect that virtually no reduction in GHG emissions is brought about by EVs. Future policy designs should ensure high environmental benefits of EVs.

Neuer Kälterekord in der Antarktis: fast minus 100 Grad

Unerwartete Meldung am 1. Juli 2018 in der Tagesschau:

Neuer Kälterekord in der Antarktis
Bislang galten die 1983 gemessenen minus 89,2 Grad als niedrigste jemals gemessene Temperatur auf der Erde. Doch nun wurde in der Antarktis ein neuer Kälterekord dokumentiert: fast minus 100 Grad.

Weiterlesen bei der Tagesschau.

Hier die dazugehörige Pressemitteilung des National Snow and Ice Data Center (NSIDC) vom 25. Juni 2018:

New study explains Antarctica’s coldest temperatures

Tiny valleys near the top of Antarctica’s ice sheet reach temperatures of nearly -100 degrees Celsius, according to a new study published this week in Geophysical Research Letters. The finding could change scientists’ understanding of just how low temperatures can get at Earth’s surface, and how it happens, according to the researchers. After sifting through data from several Earth-observing satellites, scientists announced in 2013 that they found surface temperatures of -93 degrees Celsius (-135 degrees Fahrenheit) in several spots on the East Antarctic Plateau, a high snowy plateau in central Antarctica that encompasses the South Pole. That preliminary study has been revised with new data showing that the coldest sites actually reach -98 degrees Celsius (-144 degrees Fahrenheit). The temperatures are observed during the southern polar night, mostly during July and August.

When the researchers first announced they had found the coldest temperatures on Earth five years ago, they determined that persistent clear skies and light winds are required for temperatures to dip this low. But the new study adds a twist to the story: Not only are clear skies necessary, but the air must also be extremely dry, because water vapor blocks the loss of heat from the snow surface. The researchers observed the ultra-low temperatures in small dips or shallow hollows in the Antarctic Ice Sheet where cold, dense, descending air pools above the surface and can remain for several days. This allows the surface, and the air above it, to cool still further, until the clear, calm, and dry conditions break down and the air mixes with warmer air higher in the atmosphere.

“In this area, we see periods of incredibly dry air, and this allows the heat from the snow surface to radiate into space more easily,” said Ted Scambos, a senior research scientist at the National Snow and Ice Data Center at the University of Colorado Boulder and the study’s lead author. The record of -98 degrees Celsius is about as cold as it is possible to get at Earth’s surface, according to the researchers. For the temperature to drop that low, clear skies and dry air need to persist for several days. Temperatures could drop a little lower if the conditions lasted for several weeks, but that’s extremely unlikely to happen, Scambos said.

Finding the coldest place

The high elevation of the East Antarctic Plateau and its proximity to the South Pole give it the coldest climate of any region on Earth. The lowest air temperature ever measured by a weather station, -89 degrees Celsius (-128 degrees Fahrenheit), was recorded there at Russia’s Vostok Station in July 1983. But weather stations can’t measure temperatures everywhere. So in 2013, Scambos and his colleagues decided to analyze data from several Earth-observing satellites to see if they could find temperatures on the plateau even lower than those recorded at Vostok.

In the new study, they analyzed satellite data collected during the Southern Hemisphere’s winter between 2004 and 2016. They used data from the MODIS instrument aboard NASA’s Terra and Aqua satellites as well as data from instruments on NOAA’s Polar Operational Environmental Satellites. The researchers observed snow surface temperatures regularly dropping below -90 degrees Celsius (-130 degrees Fahrenheit) almost every winter in a broad region of the plateau, more than 3,500 meters (11,000 feet) above sea level. Within this broad region, they found dozens of sites had much colder temperatures. Nearly 100 locations reached surface temperatures of -98 degrees Celsius.

The atmosphere in this region can sometimes have less than 0.2 mm total precipitable water above the surface. But even when it is that dry and cold, the air traps some of the heat and sends it back to the surface. This means that the cooling rates are very slow as the surface temperatures approach the record values. Conditions do not persist long enough—it could take weeks—for the temperatures to dip below the observed records. However, the temperature measured from satellites is the temperature of the snow surface, not the air above it. So the study also estimated the air temperatures by using nearby automatic weather stations and the satellite data. Interestingly, even though the coldest sites were spread out over hundreds of kilometers, the lowest temperatures were all nearly the same. That got them wondering: Is there a limit to how cold it can get on the plateau?

How cold is it really?

Using the difference between the satellite measurements of the lowest surface snow temperatures at Vostok and three automated stations, and the air temperatures at the same place and time, the researchers inferred that the air temperatures at the very coldest sites (where no stations exist) are probably around -94 degrees Celsius, or about -137 degrees Fahrenheit. The research team has also developed a set of instruments designed to survive and operate at the very coldest places through the winter and measure both snow and air temperatures. They are planning to deploy the instruments in the next year or two, during the Antarctic summer when the temperatures are a comparatively mild -30 degrees Celsius (-22 degrees Fahrenheit).

See the American Geophysical Union news release here.

Download a copy of the paper here.

 

Vor 8000 Jahren war es in Grönland 5°C wärmer als heute: Grönlandeis robuster als gedacht

Die Webseite The best schools hat nun die 15 prominentesten Klimawissenschaftler gekürt. Dabei wird strikt zwischen Vertretern der Alarmlinie und Skeptikern unterschieden. Dabei standen 10 Plätze für die IPCC-Linie zur Verfügung, jedoch nur halb soviele für die Skeptiker. Hier die Top 5 der Skeptiker:

1. Lennart O. Bengtsson

2. John R. Christy

3. Judith A. Curry

4. Richard S. Lindzen

5. Nir J. Shaviv

Hier nachzulesen.

——————-

Forscher der Northwestern University untersuchten Seeablagerungen in Grönland und machten dabei eine unerwartete Entdeckung. In den 8000 Jahre alten Sedimenten fanden sie Überreste von Fliegen, die heute nur 1500 km weiter südlich anzutreffen sind. Damals muss es in Grönland also sehr viel wärmer gewesen sein, mit Temperaturen die etwa 5°C über den heutigen lagen. Die unerwarte große vorindustrielle Wärme bringt nun aber Probleme: Das Grönlandeis schmolz viel weniger als es die gängigen Klimamodelle für dieses Temperaturniveau errechnen. Was machte das Eis so robust gegenüber der Wärme? Die Forscher können nur spekulieren und vermuten, dass verstärkter Schneefall einen Teil des Schmelzverlustes ausgeglichen haben könnte. Hier die Pressemitteilung der Northwestern University vom 4. Juni 2018 (Gradangaben bezehen sich auf Fahrenheit):

Ancient Greenland was much warmer than previously thought

Discovery helps researchers understand how Greenland’s ice sheet responds to warming. A tiny clue found in ancient sediment has unlocked big secrets about Greenland’s past and future climate.

Just beyond the northwest edge of the vast Greenland Ice Sheet, Northwestern University researchers have discovered lake mud that beat tough odds by surviving the last ice age. The mud, and remains of common flies nestled within it, record two interglacial periods in northwest Greenland. Although researchers have long known these two periods — the early Holocene and Last Interglacial — experienced warming in the Arctic due to changes in the Earth’s orbit, the mix of fly species preserved from these times shows that Greenland was even warmer than previously thought. This information could help researchers better gauge Greenland’s sensitivity to warming, by testing and improving models of climate and ice sheet behavior. Those models could then improve predictions of how Greenland’s ice sheet, which covers 80 percent of the Arctic country and holds enough ice to equal 20 feet of global sea level, might respond to man-made global warming.

“Northwest Greenland might feel really remote, but what happens to that ice sheet is going to matter to everyone in New York City, Miami and every coastal city around the world,” said Yarrow Axford, the study’s senior author and an associate professor of Earth and planetary sciences in Northwestern’s Weinberg College of Arts and Sciences. “One of the big uncertainties in climate science remains how fast the Earth changes when it gets warmer. Geology gives us an opportunity to see what happened when the Earth was warmer than today.” Published today, June 4, in the Proceedings of the National Academy of Sciences, the study included contributions from collaborators at Dartmouth College.

People might be surprised to see how today’s frigid Greenland looked during the past two interglacial periods. Today, northwest Greenland hovers in the 30s and low 40s Fahrenheit and weathers snowstorms in summer. But average summer temperatures in the early Holocene (8,000 to 11,000 years ago) and Last Interglacial (116,000 to 130,000 years ago) climbed well into the 50s. During the Last Interglacial, global sea levels increased by 15 to 30 feet, largely due to thinning of Greenland and Antarctica’s ice sheets. But now Northwestern’s team believes northern Greenland’s ice sheet experienced stronger warming than previously thought, which could mean that Greenland is more responsible for that sea-level rise.

Layers of time

To measure these ancient temperatures, researchers look to ice cores and lake sediment cores. Because ice and lake sediment form by an incremental buildup on annual layers of snow or mud, these cores contain archives of the past. By looking through the layers, researchers can pinpoint climate clues from eons ago. Finding lake sediments older than about 10,000 years, however, has been historically very difficult in Greenland. “The classic thing that glaciers do is slide,” Axford said. “So when the ice sheet grows larger, all this wonderful geology gets scooped up and spat out into the oceans.” But Axford’s team found an area where this wasn’t the case. The climate in northwest Greenland houses the perfect conditions to preserve the sediments within a small lake that Axford’s team affectionately calls “Wax Lips Lake” because of its shape.

“During the last ice age, the ice sheet there was just thin enough, and the atmosphere was just cold enough that the ice sheet froze to the ground instead of melting at its base and sliding,” said Jamie McFarlin, a Ph.D. student in Northwestern’s department of Earth and planetary sciences, who led the study. “It grew on top of itself and preserved most of the geology below.” “The ice gently tip-toed over this spot instead of plowing over it,” Axford added.

After taking a two-meter-long tube of sediment from Wax Lips Lake’s lakebed, McFarlin combed through the layers to investigate those from the early Holocene and Last Interglacial periods. It was then that she noticed a mix of lake fly species, called chironomids, that suggested a warmer climate during both periods. Especially surprising: The Last Interglacial period swarmed with another type of insect known as the phantom midge. Although phantom midges have been reported in low abundance in northern climates, one would have to travel 1,000 miles south to Canada’s Labrador province to find phantom midges at comparable abundance to the Last Interglacial in northwest Greenland. “As far as we know, it’s never been found in Greenland. We think this is the first time anyone has reported it in ancient sediments or modern lakes there,” Axford said. “We were really surprised to see how far north it migrated.”

The bigger picture

Discovering this mix of insects means northwest Greenland’s average July during the last two interglacial periods most likely climbed above 50 degrees and possibly into the high 50s during the Last Interglacial. This confirms controversial geological records constructed from ice cores taken nearby, which also indicated significant warming during these time periods. “Other records have shown that northern Greenland’s climate was much warmer than people expected during those periods, and those results received justified skepticism,” Axford said. “Now we have an independent record that confirms that when the Arctic warmed in the past, there was especially strong warming in northern Greenland.” This data will help the broader scientific community further hone climate and ice sheet models used to project future changes.

“This is the kind of ground-truthing that we need to get really accurate climate models and projections,” said Magdalena Osburn, an assistant professor of Earth and planetary sciences at Northwestern, who coauthored the study. “We’re finding that, in some cases, models don’t include temperatures that are warm enough for this part of the world.” There is one caveat. Well-known changes in Earth’s orbit caused warming during the early Holocene and Last Interglacial periods. Today, warming stems from man-made sources and is happening much faster than warming during those interglacial periods. That means there is a chance that Earth might not respond to current-day warming in the same way. “Past climate is our best analog for future warming, and our results hint that land at these very high latitudes in the Arctic may warm even more than predicted in the coming century,” Axford said. “But nothing in Earth’s past is a perfect analog because what’s happening today is totally unprecedented.”

 

 

Hier der Abstract von Farlin et al. 2018:

Pronounced summer warming in northwest Greenland during the Holocene and Last Interglacial
Projections of future rates of mass loss from the Greenland Ice Sheet are highly uncertain because its sensitivity to warming is unclear. Geologic reconstructions of Quaternary interglacials can illustrate how the ice sheet responded during past warm periods, providing insights into ice sheet behavior and important tests for data-model comparisons. However, paleoclimate records from Greenland are limited: Early Holocene peak warmth has been quantified at only a few sites, and terrestrial sedimentary records of prior interglacials are exceptionally rare due to glacial erosion during the last glacial period. Here, we discuss findings from a lacustrine archive that records both the Holocene and the Last Interglacial (LIG) from Greenland, allowing for direct comparison between two interglacials. Sedimentary chironomid assemblages indicate peak July temperatures 4.0 to 7.0 °C warmer than modern during the Early Holocene maximum in summer insolation. Chaoborus and chironomids in LIG sediments indicate July temperatures at least 5.5 to 8.5 °C warmer than modern. These estimates indicate pronounced warming in northwest Greenland during both interglacials. This helps explain dramatic ice sheet thinning at Camp Century in northwest Greenland during the Early Holocene and, for the LIG, aligns with controversial estimates of Eemian warming from ice core data retrieved in northern Greenland. Converging geologic evidence for strong LIG warming is challenging to reconcile with inferred Greenland Ice Sheet extent during the LIG, and the two appear incompatible in many models of ice sheet evolution. An increase in LIG snowfall could help resolve this problem, pointing to the need for hydroclimate reconstructions from the region.

 

Im Jahr 2099 könnte fast die gesamte boreale Klimazone landwirtschaftlich nutzbar werden

Derzeit sind etwa zwei Drittel der borealen, kaltgemäßigten Klimazone der Erde landwirtschaftlich nicht nutzbar. Es ist schlicht zu kalt, um dort etwas anbauen zu können. Forscher des Priestley International Centre for Climate haben jetzt berechnet, dass bei fortschreitendem Klimawandel gegen Ende des Jahrhunderts nahezu die gesamte boreale Region geeignete Bedingungen für die Landwirtschaft aufweisen wird. Die nördliche Wachstumsgrenze wird sich dabei 1200 km nach Norden verschieben. Neue Kornkammern für eine noch immmer rapide wachsende Menschheit. Hier die Pressemitteilung des Priestley International Centre for Climate vom 30. Mai 2018:

Climate change could increase arable land

Climate change could expand the agricultural feasibility of the global boreal region by 44 per cent by the end of the century, according to new research. However, the scientists warn that the same climate trends that would increase land suitable for crop growth could also significantly change the global climatic water balance – negatively impacting agriculture in the rest of the world.

An international team of scientists have assessed the impact of climate change on land that could support agriculture in the boreal region, which includes large sections of Canada, Sweden, Norway, Finland, Russia and the United States. They found that the upper edge of land suitable for crop growth could shift as far north as 1,200km from the current position with the most dramatic changes occurring in the inner-continental regions of North America and Eurasia. Currently only 32 per cent of the boreal region falls into ‘growing degree days’ – the climate parameter linked to crop growth – and rainfall requirements for small cereal crops, such as oats and barley.

Using global climate models the team was able to predict the future extent of growing degree days and changes in rainfall. The study, published in Scientific Reports, estimates that by 2099 roughly 76 per cent of the boreal region could reach the right conditions for agriculture. However, the study also warns that while total rainfall will generally increase on an annual basis, a warmer climate will also lead to more evaporation with potentially dramatic impact on the climatic water balance, both geographically and across seasons. For example while the inner continental regions would suffer drought conditions during the summer, the regions around the ocean’s rims could see an increase in water available to crops. Additionally, regions that would suffer temporary summer droughts might see wetter autumns which would have a negative impact on the harvest season.

Study co-author Professor Joseph Holden, water@leeds director at the University of Leeds, said: “Climate change will have a profound impact on our agricultural regions. A projected consequence is the loss of farmland and crops from areas that are currently productive – cause for concern regarding long term global food security. Therefore we need to know whether in northern high latitudes new areas will become suitable for crops. “Understanding future environmental conditions will be vital for agricultural production. But any plans for northward agricultural expansion must be done carefully and with long term environmental sustainability in mind.”

Study lead author Dr Adrian Unc, from Grenfell Campus, Memorial University Canada, said: “We must not forget that any changes in land use has extensive impacts on the entire natural ecosystem, impacts that must be understood and included in any planning effort. After all we must insure that a short–term gain does not come at the cost of a long– term loss in ecosystem sustainability.”

 

Waren Anwohner von Windfarmen vielleicht schon krank, bevor die Anlagen errichtet wurden?

Windkraftanlagen reichen hoch in den Himmel, um die Energie des Windes anzuzapfen. Damit werden sie aber auch zu Magneten für Blitze, die nur allzuleicht ihren Weg in die Spitzen der Windspargel finden. Die Zeitungen berichten regelmäßig über solche Einschläge. Zum Beispiel kürzlich in der Nähe von Löcknitz oder bei Bad Lausick. Die Feuerwehr kann in der Regeln nichts machen, denn ihre Leitern reichen nicht bis zum Brandherd heran. Also sperren sie das entsprechende Windrad weiträumig ab, damit herabfallende Trümmer niemanden verletzen. Genau diese Trümmer können aber auch später für die Tierwelt zur Gefahr werden, wie Die Glocke am 7. Mai 2018 meldete:

Zerborstenes Windrad bedroht Tiere
Splitter eines zerborstenen Windrades im Kreis Paderborn stellen nach Ansicht eines Gutachters eine erhebliche Gefahr für Tiere dar. Wenn Wild- oder Weidetiere diese Kleinstteile aufnähmen, könne dies innere Verletzungen hervorrufen, heißt es in einem Gutachten.

Weiterlesen in der Glocke.

Das Landleben kann so schön sein. Plötzlich jedoch steht eine Gruppe rotierender Windkraftanlagen vor der Tür. Für die grünen Planer mag dies Fortschritt sein, für die betroffene Lokalbevölkerung ist dies jedoch meist ein Alptraum. Allein der Besitzer des Grundstüks, auf dem die Anlage steht, reibt sich die Hände. Zehntausende von Euros spülen die Anlagen nun in die Grundbesitzerkasse. Die Nachbarn schauen jedoch in die Röhre, müssen ab nun mit dem Flackerschatten der Rotoren, den Anlagen-Geräuschen sowie den Infraschall-Beeinträchtigungen klarkommen. In der ganzen Welt laufen die Menschen Sturm gegen die Mühlen. In Kanada hat man daher jetzt Studien unternommen, um mögliche gesundheitlche Folgen von Windfarmen zu erforschen. In einer ersten Studie hatten die Wissenschaftler bereits gefunden, dass Bewohner in der Nähe von Windkraftanlagen vermehrt unter Schlafstörungen, Bluthochdruck und Stress leiden. Allerdings konnte kein Bezug zur Entfernung zu den Anlagen ermitelt werden. Daher gab es nun eine Folgestudie, die nun belegt, was man intuitiv schon vermuten könnte: Je näher die Bewohner an den Windfarmen wohnen, desto höher sind die gesundheitlichen Beeinträchtigungen.

Nun wird es kurios: Die Windkraftlobby gibt zu bedenken, dass der Gesundheitszustand der Anwohner VOR dem Bau der Windkraftanlanlagen nicht ermittelt worden war. Daher wäre nicht auszuschließen, dass durch einen dummen Zufall die Anlagen genau dort gebaut wurden, wo die Anwohner bereits vorher kränker als anderswo gewesen sind. Da es keine vorher-nachher-Daten gäbe, sei die Studie nicht verwertbar. Insofern könne man auch nicht behaupten, dass Windkraftanlagen krank machen. Eine geniale Verteidigungslinie, die natürlich absolut irre ist – was alle Beteiligten genau wissen. Immerhin sichert sie den Forschern nun eine Folgestudie. Man muss kein Hellseher sein, um das Ergebnis der nächsten Untersuchung zu erraten: Die gesundheitlichen Beeinträchtigungen begannen bei den meisten Bewohnern etwa zu der Zeit, als die Anlagen aufgestellt wurden. Sicher wird die Windkraftlobby wieder kreativ und ein neues Gegenargument vorbringen. Vermutlich etwas aus dem Bereich des Klimawandels. Zum Beispiel: Die Krankheiten setzten ein, als das CO2 die 405 ppm-Marke überschritten haben, was nur rein zufällig mit der Eröffnung des Windparks zusammenfällt. Willkommen in Absurdistan. Hier die Pressemitteilung des American Institute of Physics vom 5. Juni 2017 (via Science Daily):

Does living near wind turbines negatively impact human health?

Wind turbines are a source of clean renewable energy, but some people who live nearby describe the shadow flicker, the audible sounds and the subaudible sound pressure levels as “annoying.” They claim this nuisance negatively impacts their quality of life. A team of researchers from the University of Toronto and Ramboll, an engineering company funding the work, set out to investigate how residential distance from the wind turbines — within a range of 600 meters (1,968.5 feet) to 10 kilometers (6.2 miles) — affects people’s health. They reanalyzed data collected for the “Community Noise and Health Study” from May to September 2013 by Statistics Canada, the national statistical office. The team reports their new analysis in the Journal of the Acoustical Society of America.

“The Community Noise and Health Study generated data useful for studying the relationship between wind turbine exposures and human health — including annoyance and sleep disturbances,” said Rebecca Barry, an author on the paper. “Their original results examined modeled wind turbine noise based on a variety of factors — source sound power, distance, topography and meteorology, among others.” The team’s new assessment confirmed Statistics Canada’s initial findings. “Respondents who live in areas with higher levels of modeled sound values (40 to 46 decibels) reported more annoyance than respondents in areas with lower levels of modeled sound values (<25 dB),” Barry said. Unsurprisingly, the survey’s respondents who live closer to the turbines “were more likely to report being annoyed than respondents who live further away.”

The earlier Statistics Canada study found no direct link between residents’ distance from wind turbines and sleep disturbances (as measured by sleep assessments and the Pittsburgh Sleep Quality Index), blood pressure, or stress (either self-reported or measured via hair cortisol). However, the more recent study showed that survey respondents closer to wind turbines reported lower ratings for their environmental quality of life. Barry and her co-authors note that their cross-sectional study cannot distinguish whether these respondents were dissatisfied before the wind turbines were installed. “Wind turbines might have been placed in locations where residents were already concerned about their environmental quality of life,” said Sandra Sulsky, a researcher from Ramboll. “Also, as is the case with all surveys, the respondents who chose to participate may have viewpoints or experiences that differ from those who chose not to participate. Survey respondents may have participated precisely to express their dissatisfaction, while those who did not participate might not have concerns about the turbines.”

The team’s more recent study didn’t explicitly find evidence that exposure to wind turbines actually impacts human health, but in the future, “measuring the population’s perceptions and concerns before and after turbine installation may help to clarify what effects — if any — exposure to wind turbines may have on quality of life,” Sulsky said.

Rebecca Barry, Sandra I. Sulsky and Nancy Kreiger. Using residential proximity to wind turbines as an alternative exposure method to investigate the association between wind turbines and human health. Journal of the Acoustical Society of America, 2018 DOI: 10.1121/1.5039840

 

Die Sonnenallergie der Klimaforscher

Auf Achgut erschien am 26. Juni 2018 ein ausgezeichneter Artikel von Ulli Kulke zum Klimafaktor Sonne:

Die Sonnenallergie der Klimaforscher

Auch wenn der Einfluss der Sonne auf die Klimaschwankungen in den letzten Jahrzehnten etwas in den Hintergrund gerückt ist: Es gibt sie, die Forscher, die die schwankende Wirkkraft unseres Zentralgestirns auf das Geschehen in der Erdatmosphäre untersuchen, damit auch auf den Klimawandel – und die dabei überraschende Ergebnisse erzielen. Henrik Svensmark, Leiter der Sonnenforschung an der Technischen Universität Dänemarks in Kopenhagen, ist einer von ihnen. Und er wagt sich weit vor in der Klimadebatte, dem Diskurs mit der womöglich bedeutendsten Tragweite unserer Zeit. Er erhält Widerspruch, natürlich. Dabei sind sich Svensmark und seine Fachkritiker einig: Das Thema „Sonne“ verdient in der Klimaforschung mehr Aufmerksamkeit. Dabei geht es den Beteiligten vor allem um das komplexe Zusammenspiel zwischen unserem Zentralgestirn und ionisierenden Sendboten aus den Tiefen der Galaxie – der „kosmischen Strahlung“.

Svensmark sagt: „Das Klima wird stärker durch Veränderungen der kosmischen Strahlung beeinflusst als durch das Kohlendioxid.“ CO2 habe zwar auch eine Wirkung, klar, „aber sie ist weit geringer, als die meisten heutigen Klimamodelle vorgeben, und auch geringer als der Einfluss der kosmischen Strahlung“. So werde, seiner Einschätzung nach, eine Verdoppelung des Treibhausgases in der Atmosphäre eine Erhöhung der globalen Temperatur um höchstens ein Grad bewirken, und nicht um zwei Grad, wie es heute als „Common sense“ hingestellt wird.

Mit anderen Worten: Die „Klimasensitivität“ von Kohlendioxid sei nur halb so groß wie angenommen. Und, was die Veränderungen im natürlichen CO2-Haushalt der Erdatmosphäre und diejenigen der Temperatur über Zeiträume von Millionen Jahren angeht: Da sei das Treibhausgas eher „ein Sklave der kosmischen Strahlung sowie der durch sie bewirkten Erderwärmung, und eben nicht ihr Herrscher“. Die Höhe des CO2-Anteils sei dabei im Großen und Ganzen der Erwärmung gefolgt, nicht umgekehrt.

Im vergangenen Dezember hat Svensmark erneut eine wissenschaftliche Studie in der Fachzeitschrift „Nature Communications“ („Nature“-Gruppe) veröffentlicht, mit der er seine These untermauern will. In der Arbeit geht es – zunächst – weniger um die Sonne selbst, als darum, wie unser Klima- und Wettergeschehen durch jene kosmische Strahlung beeinflusst wird, ionisierende Partikel, die permanent auf die Erdatmosphäre einprasseln. Dabei handelt es sich um einen Teilchenstrom, der von explodierenden Supernovae stammt, durch die Galaxie fließt und schließlich, in der Erdatmosphäre angekommen, Einfluss auf die Wolkenbildung ausübt, sie verstärkt.

Weiterlesen auf Achgut.

 

Klimafakten: “In der Hektik der aktuellen Berichterstattung haben Journalisten oft wenig Zeit und Muße, sich mit komplizierten Zusammenhängen auseinanderzusetzen”

Die Webseite ‘Klimfakten’ ist eine lupenreine Aktivistenseite, die u.a. von der European Climate Foundation finanziert wird. Am 14. Mai 2018 warb Klimafakten darum, Stellen für Klimaalarmmultiplikatoren zu schaffen. Journalisten sollten Anlaufstellen haben, die ihnen Gesprächspartner vermitteln. Man kann davon ausgehen, dass hier dann nur stramme Klimagenossen genannt werden, die sich als klimaalarmistisch stabil erwiesen haben. Auf Klimfakten heißt es:

Servicestellen für Journalisten: “Die Lücke zwischen Klimaforschung und Öffentlichkeit schließen”
In den USA sind sie seit langem etabliert, und es gibt sie zunehmend auch in Deutschland: spezielle Vermittlungsstellen, die Journalisten bei der Suche nach kompetenten Ansprechpartnern in der Wissenschaft helfen. klimafakten.de stellt fünf von ihnen vor 

In der Hektik der aktuellen Berichterstattung haben Journalisten oft wenig Zeit und Muße, sich mit  komplizierten Zusammenhängen auseinanderzusetzen. Der Verbindung zwischen tagesaktuellen Nachrichten und dem Klimawandel nachzugehen, erscheint vielen Medienvertretern daher zu komplex.

Sehr richtig. Journalisten verstehen vom Klimathema leider meist herzlich wenig. Viel zu oft kopieren sie einfach Pressemitteilungen, ohne sie richtig gelesen bzw. sogar verstanden zu haben. Mögliche Probleme darin können sie daher gar nicht erkennen. In der Folge werden Expertenmakler genannt. Die haben vermutlich wenig zu tun, denn meist kommen sowieso nur Latif und Rahmstorf zu Wort. Wie kommt es zu dieser Oligarchie? Wieviele Experten stehen wirklich in den Karteien der Makler? Weshalb kommen keine Anfragen an die Kalte-Sonne-Redaktion, die im Zuge der Ausgewogenheit doch auch gefragt werden müsste?

————————

Bill Nye will Kuhpupse besteuern – dem Klima zuliebe.

————————

Erinnern Sie sich noch an Climategate? Bei Alfred Brandenberger im Vademecum können Sie alles nachlesen.

 

Der Ozean gibt, der Ozean nimmt: Ozeanzyklen in Klimamodellen entdeckt

Günter Köck mit Klimaalarm im Standard am 15. Mai 2018:

Wie der Klimawandel den größten Arktissee der Erde gefährdet
Bereits der Temperaturanstieg von nur einem Grad verursacht im Lake Hazen in Kanada eine dramatische ökologische Verschlechterung

[...] In einer aktuellen Publikation in “Nature” haben wir nachgewiesen, dass ein Anstieg der mittleren Sommertemperatur um etwa einen Grad Celsius seit dem Jahr 2007 im gesamten Ökosystem dieses riesigen Sees zu großen Veränderungen geführt hat, die seit mindestens 300 Jahren beispiellos sind. Unsere Studie zeigt, dass es auch in den nördlichsten Gebieten der Erde nicht mehr kalt genug ist, damit die Gletscher wachsen oder die Oberfläche der Seen das ganze Jahr über gefroren ist. Durch das rasche Abschmelzen der umliegenden Gletscher hat sich zugleich der Zufluss von Schmelzwasser verzehnfacht.

Klimaerwärmung in Kanada, das ist keine große Neuigkeit. Der Vergleich mit der Kleinen Eiszeit ist ebenfalls wenig spektakulär. Dabei handelt es sich um eine der kältesten Phasen der letzten 10.000 Jahre. Den Begriff “medieval” sucht man im dazugehörigen Nature-Paper übrigens vergebens. Damals war es ähnlich warm wie heute. Das hatte “aus Platzgründen” offenbar nichtmehr in den Zeitungsartikel gepasst. Hier gibts die Links zum mittelalterlichen Wärmeklima in Kanada.

———————

Bereits 2012 in unserem Buch “Die kalte Sonne” zu lesen, heute salonfähig: Die modulierende Wirkungsweise der Ozeanzyklen auf die langfristige Temperaturentwicklung. Sybren Drijfhout von der University of Southampton hat die Zyklen jetzt in den Modellen ausfindig gemacht. Pressemitteilung vom 9. Mai 2018:

New study finds variations in global warming trend are caused by oceans

New research has shown that natural variations in global mean temperature are always forced by changes in heat release and heat uptake by the oceans, in particular the heat release associated with evaporation.

Analysing data from six climate models that simulated future climate change scenarios for the last International Panel for Climate Change (IPCC) Report, which appeared in 2014, University of Southampton Professor Sybren Drijfhout has shown that in all cases variations in global mean temperature were correlated with variations in heat release by sensible and latent heat. Writing in the journal Nature Scientific Reports, Professor Drijfhout says these variations are associated with heat transfer due to temperature differences between the surface ocean and the overlying air, and heat transfer associated with evaporation. The heat fluxes are also called the turbulent heat fluxes.

“The relation holds in all models and is independent of the time-scale of the variation in temperature”, says Professor Drijfhout, Chair in Physical Oceanography and Climate Physics at Southampton. “When the atmosphere gets extra warm it receives more heat from the ocean, when it is extra cool it receives less heat from the ocean, making it clear that the ocean is the driving force behind these variations.” “The same relation can be observed in the observations, but because the data on surface heat fluxes is characterised by large uncertainties, reviewers urged me to drop the part associated with analysis of these data,” he adds.

Professor Drijfhout also explains he could only analyse six climate models because he needed to split natural temperature variations from the forced trend due to increased greenhouse gas concentrations. “You need the same model to repeat the same emission scenario a few times with slightly different initial conditions”, he argues. “In that case the natural variations will run out of phase, while the forced response is the same in each model run. This allows for a clear separation of the two.” 

The relation between global mean temperature variations and total heat uptake appears to be more complex due to changes in absorbed solar radiation which are out of phase with the turbulent fluxes and the temperature response. Before the ocean releases extra amounts of heat to the atmosphere, it is warmed by increased absorption of solar radiation. For a hiatus in global warming, or relatively cool period, the opposite occurs and more sunlight is reflected, cooling the ocean after which the atmosphere on its turn is cooled by less heat release from the ocean.

“The changes in solar radiation received at the Earth’s surface are clearly a trigger for these variations in global mean temperature,” says Professor Drijfhout, “but the mechanisms by which these changes occur are a bit more complex and depend on the time-scale of the changes. “When the temperature variations only last a few years,” he continues. “The changes in absorbed solar radiation occur in the tropics, preferably the Pacific, and are associated with moving patterns of more or less clouds that are characteristic with El Nino, or its counterpart, La Nina.”

If the variations take longer, ten years or so, sea-ice becomes the dominant trigger, with more sea-ice reflecting more solar radiation and less sea-ice allowing for more absorption. These variations always peak over areas where surface water sinks to great depth and deep and bottom waters are formed which are transported by the global overturning circulation, or more popularly dubbed, Great Conveyor Belt. “This is a bit strange,” Professor Drijfhout concludes, “because the temperature signal of these global variations peaks over the tropical Pacific, while the trigger peaks over the subpolar oceans. We do not yet understand how the linkage is established in the models, but it appears very robust. Also, if you replace global mean temperature with an average over the tropical belt, this linkage still exists.”

It should be noted that the models seem to underestimate triggers in the tropical Pacific on these long timescales. “Already with El Nino we know that the energy exchange between ocean and atmosphere is not correctly captured in the models,” he says. “But despite these model errors the linkages in the models should be qualitatively correct. Understanding how these links are established and analysing the observations more closely whether the same links can be found there is clearly the way the research of my group will follow in the coming years.”

The article The relation between natural variations in ocean heat uptake and global mean surface temperature anomalies in CMIP5 is published in Nature Scientific Reports.

 

Blockierte Wetterlagen könnten im Pazifik zukünftig seltener werden

Blockierte Wetterlagen bringen Hitzewellen und anderes Extremwetter. Forscher der Unversity of Chicago haben jetzt den Mechanismus in einem einfachen Modell näher beschrieben. Sie schlussfolgern unter anderem, dass die Klimaerwärmung keine generelle Zunahme der blockierten Wetterlagen bringt, sondern regional sehr unterschiedlich ausfallen könnte. Im Pazifik beispielsweise erwarten die Wissenschaftler sogar eine Abnahme der Blockagen (via Science Daily):

New theory finds ‘traffic jams’ in jet stream cause abnormal weather patterns
Study explains blocking phenomenon that has baffled forecasters

A study published May 24 in Science offers an explanation for a mysterious and sometimes deadly weather pattern in which the jet stream, the global air currents that circle the Earth, stalls out over a region. Much like highways, the jet stream has a capacity, researchers said, and when it’s exceeded, blockages form that are remarkably similar to traffic jams — and climate forecasters can use the same math to model them both.

The deadly 2003 European heat wave, California’s 2014 drought and the swing of Superstorm Sandy in 2012 that surprised forecasters — all of these were caused by a weather phenomenon known as “blocking,” in which the jet stream meanders, stopping weather systems from moving eastward. Scientists have known about it for decades, almost as long as they’ve known about the jet stream — first discovered by pioneering University of Chicago meteorologist Carl-Gustaf Rossby, in fact — but no one had a good explanation for why it happens. “Blocking is notoriously difficult to forecast, in large part because there was no compelling theory about when it forms and why,” said study coauthor Noboru Nakamura, a professor in the Department of the Geophysical Sciences.

Nakamura and then-graduate student Clare S.Y. Huang were studying the jet stream, trying to determine a clear set of measurements for blocking in order to better analyze the phenomenon. One of their new metrics was a term that measured the jet stream’s meander. Looking over the math, Nakamura realized that the equation was nearly identical to one devised decades ago by transportation engineers trying to describe traffic jams. “It turns out the jet stream has a capacity for ‘weather traffic,’ just as highway has traffic capacity, and when it is exceeded, blocking manifests as congestion,” said Huang.

Much like car traffic, movement slows when multiple highways converge and the speed of the jet stream is reduced due to topography such as mountains or coasts. The result is a simple theory that not only reproduces blocking, but predicts it, said Nakamura, who called making the cross-disciplinary connection “one of the most unexpected, but enlightening moments in my research career — truly a gift from God.” The explanation may not immediately improve short-term weather forecasting, the researchers said, but it will certainly help predict long-term patterns, including which areas may see more drought or floods.

Their initial results suggest that while climate change probably increases blocking by running the jet stream closer to its capacity, there will be regional differences: for example, the Pacific Ocean may actually see a decrease in blocking over the decades. “It’s very difficult to forecast anything until you understand why it’s happening, so this mechanistic model should be extremely helpful,” Nakamura said. And the model, unlike most modern climate science, is computationally simple: “This equation captures the essence with a much less complicated system,” Huang said.

Paper: Noboru Nakamura, Clare S. Y. Huang. Atmospheric blocking as a traffic jam in the jet stream. Science, 2018; eaat0721 DOI: 10.1126/science.aat0721