Die Sonne im Oktober 2016 und die Ozeane im „Klima“-Modell und der Realität

Von Frank Bosse und Fritz Vahrenholt

Unsere Sonne war auch im vergangenen Monat sehr deutlich weniger aktiv als im Mittel der vergangenen rund 260 Jahre systematischer Aufzeichnungen. Die festgestellte SSN (SunSpotNumber) von 33,6 wich um 54% vom Mittel des aktuellen Zyklusmonat ( Nr. 95 seit dem Beginn im Dezember 2008) nach unten ab. Auch für den bisherigen gesamten Zyklus gilt: etwa nur halb so viel Aktivität ( genau 56,5%) als im Mittel dessen was bisher beobachtet wurde.

Abb.1: Der Verlauf des aktuellen 24. Zyklus (Solar Cycle: SC) seit Beginn des ersten  im Jahre 1755 (rot) im Vergleich zum mittleren Zyklus (blau) gebildet aus den monatlichen  arithmetischen Mittelwerten der Zyklen 1…23 (blau) und dem seit vielen Monaten recht ähnlichen Zyklus 5 (schwarz).

 

Der Vergleich der Zyklen untereinander macht den „lahmen“ Zyklus seit 2008 deutlich, er startete übrigens schon mit etwa 2 Jahren Verspätung:

Abb.2: Die Fleckenaktivität der SC im Vergleich. Die Zahlen entstanden, indem die monatlichen Anomalien ( die jeweiligen Differenzen zur mittleren Anzahl von Flecken-blau in Abb.1) aufaddiert wurden.

 

Sehr deutlich ist der doch recht rapide Umschwung nach etwa 2006 ( dem Ende des SC23) von hoher Aktivität in der zweiten Hälfte des 20. Jahrhunderts hin zu der gegenwärtig zu beobachteten schwachen Sonne. Was können wir vom nächsten Zyklus erwarten? Bei der Betrachtung der polaren Felder, deren Vorhersagekraft für den kommenden Fleckenzyklus wir u.a. hier erklärten, scheint sich nun ein klareres Bild zu ergeben.

Abb. 3: Die mittleren Beträge der solaren polaren Felder (orange, geglättet) und die Beträge der Differenz zwischen Sonnen-Nord-u. Südpol (schwarz, ebenso geglättet).

 

Das Maximum der polaren Felder ( es bestimmt die zu erwartende Stärke des nächsten Fleckenzyklus) scheint sich, ebenso wie das der Flecken ( vgl. Abb.1) bereits nach etwa 3 Jahren einzustellen. Seit dem „Nulldurchgang“ im März 2013 sind die nun vorbei und es lohnt ein zeitlich höher aufgelöster Blick auf beide Felder:

Abb. 4: Die polaren Felder seit März 2013 in Deka-Tagen (also nach jetzt insgesamt 1300 Tagen)im Mittelwert  NH und SH (schwarz) sowie die Nordhemisphäre (Nf, blau) und die Südhemisphäre (Sf, rot)

 

Die polaren Felder beider Halbkugeln starteten zunächst sehr zögerlich, die NH bekam sogar  400 Tage nach dem Nulldurchgang des Mittels nochmals die „falsche“ Polarität für den Zyklus und quälte sich danach eine sanfte Rampe hinauf. Die SH nahm zügiger Fahrt auf bis zu einem Maximum bei 1000 Tagen nach dem Nulldurchgang und fiel danach wieder zurück auf sehr mäßige Werte. Der Unterschied zwischen NH und SH nahm zwischenzeitlich so hohe Werte an wie seit 1976, dem Beginn der Beobachtungen (Daten)  noch nie gesehen. Dies sieht man sehr gut in Abb. 3. Im Vergleich zum vorigen Zyklus der polaren Felder kann man folgern: Der nächste Fleckenzyklus ab etwa 2020 sollte etwa so schwach werden wie der gegenwärtige, vielleicht noch etwas weniger aktiv. Ein Unsicherheitsfaktor ist  nach wie vor der hohe Unterschied der Felder zwischen den Polen, hier betreten wir Neuland. Überraschungen daher nicht ausgeschlossen!  Wenn Sie auf Bild 2 schauen so liegt die Vermutung nahe, dass wir Zeugen eines Dalton-ähnlichen Minimums (die Zyklen 5,6 und 7)sind, also verringerte  Sonnenaktivität über etwa insgesamt 35 Jahre. Sie sollte jedoch nicht fast zum Erliegen kommen wie beim Maunder-Minimum.

Abb. 5: Die längere Geschichte der Sonnenaktivität seit 1600, Quelle.

 

Ozeane im „Klima“-Modell  und in der Realität

In einem vorhergegangenen Beitrag hatten wir uns bereits mit sehr, sehr dürftigen Leistungen  der „Klima“-Modelle beschäftigt, was die räumliche Auflösung der Temperaturentwicklung zu Lande und zu Wasser angeht. Die Korrelationen waren in großen Gebieten unterirdisch schlecht, auch die Ozeane betreffend:

Abb. 6: Das Bild aus dem verlinkten Beitrag, das die räumlich aufgelösten Korrelationen der SST (Meeresoberflächentemperaturen) zwischen Beobachtungen und dem Modellmittel der CMIP5- Modelle der letzten 30 Jahre zeigt. Alle Gebiete mit einer Korrelation <0,6 illustrieren die Schwäche der Modelle.

 

Wir wollen hier nochmals etwas genauer und vor allem länger zurück als 30 Jahre schauen und werten eine Arbeit unter Leitung von Thomas Läpple von der Forschungsstelle des  Alfred-Wegner-Instituts aus dem Jahre 2014 aus. Sie beschäftigt sich mit der Frage, wie die „Klima“-Modelle die Variabilität der SST in größeren Zeiträumen (dekadisch bis hin zu Schwankungen über tausende Jahre) abbilden können. In der Studie werden Proxy- Daten zum Vergleich benutzt, die mit einer neuen Methode von einigem „Rauschen“ befreit werden konnten. Das Ergebnis spricht Bände:

Abb. 7: Vergleich der Varianz der SST zwischen Modellen und Beobachtungen aus Proxy-Daten (Fehlerbalken in grau) für verschiedene Breiten der Erde. Quelle: Fig. 5 aus Läpple/Huybers (2014).

 

Im Zeitbereich 2…5 Jahre (Teil A oben,  hier konnten gemessene Daten verglichen werden) ist die Welt noch in Ordnung da auch die Schwankungen eher gering sind. Die Relation zwischen beobachteten und modellierten Schwankungen liegt bei 1 auf der Ordinate. Bereits bei dekadischen Zeiträumen (Teil B) ist die festgestellte Variabilität im Mittel um den Faktor 2 bis 4 größer als die Modelle ergeben. Die Abweichungen nehmen bei längeren Zeiträumen (Teil C…E)  immer mehr zu, um 50mal mehr Variabilität ist in der Natur festgestellt worden als Modelle ermitteln. Das bedeutet: In der Vergangenheit gab es offensichtlich viel mehr Auf und Ab in den Temperaturen der Meere, als die Modelle mit der hohen Abhängigkeit ihrer Ergebnisse von der Wirkung von Treibhausgasen,  deren Einflüsse in den lang zurückliegenden Zeiten ja nur marginal waren,  reproduzieren können. Was in der Vergangenheit stattfand, sollte sich jedoch auch in der Gegenwart und Zukunft so darstellen. Die Arbeit warnt daher:

Insomuch as models underestimate natural SST variability, tests for anthropogenic effects will tend to be biased positive.”

Der Einfluss der anthropogenen Effekte wird also zu hoch und verzerrt abgebildet. Für den unvoreingenommenen Beobachter der Klimaforschung ergibt sich also zwangsläufig die Frage: Woher kommt die im Vergleich zu Modellen so hohe Variabilität? Im Bereich 20…50 Jahre kommen zuallererst Meeresströmungen infrage. Wir hatten bereits hier dargestellt, dass Modelle nicht in der Lage sind, deren Variabilität abzubilden.

Über längere Zeiträume (bis 2000 Jahre) ist diese Erklärung unvollständig, da Variationen der Ozeanströmungen nicht so lange währen und die Abweichungen immer höher werden statt kleiner. Nun zählen wir mal zusammen  welche Antriebe des Klimas(„Forcings“) das IPCC auflistet: GHG fallen aus.  Nahezu alles Anthropogene ist aus dem Rennen bei über 500 Jahren in der Vergangenheit. Was bleibt? Vulkane? Denen  werden in den Modellen wohl eher zu hohe Abkühlungsraten zugewiesen, erzeugen also selbst in der  Modellwelt schon zu viel Variabilität, wie diese Arbeit über die arktischen Klimaschwankungen  nachweist:  „PMIP-3 models likely overestimate the radiative forcing and climatic responses of large eruptions, due to simplistic parameterization of aerosol optical depth.“

Die Variationen durch Änderungen des Orbits der Erde um die Sonne sind im Modell schon berücksichtigt und sehr gut berechenbar, fallen also auch aus.  Was bleibt noch? Die Sonne oder die berühmten Einhörner, die das Klima auf der Erde variabel machten, und zwar viel mehr als die IPCC- Forcings ( durch die Modelle  ja schon verarbeitet) vorsehen? An Einhörner glaubten die Autoren der Studie aus 2014 genauso wenig wie wir und verwiesen auf  eine Arbeit die solch lange Variationen auf solare Einflüsse zurückführte. Nach all unserem Wissen scheint die Sonne der Hauptverursacher der Variabilität über lange Zeiträume zu sein, wohlgemerkt viel längerdauernd  als ihre 11-jährigen Zyklen. So etwas kommt in Modellen aber nicht vor.  Diese berücksichtigen nur  die Gesamtstrahlung TSI und tatsächlich ist auf kurzen Zeiträumen eine Abhängigkeit der Temperaturen vom Sonnenzyklus nicht zu erkennen. Längerfristige Auf und Ab’s durch die Sonne sind jedoch in der Natur durchaus wahrscheinlich. Bei der Anwendung gegenwärtiger Modelle  sollte man beachten was sie können und was nicht.

Was macht Klima aus: Es ist das über mindestens 30 Jahre gemittelte Wetter. Um Klima zu modellieren braucht man also gute Aussagen über die räumlich/zeitlich aufgelöste Temperatur (Land und Meer, s.o.) auch in verschiedenen Höhen. Für Zirkulationseinschätzungen kämen noch ebensolche Aussagen über  Luftdruckverteilungen  hinzu. Meeresströmungen (vor allem der meridionale Wärmetransport) sind wichtig. Das Eis in beiden polaren Regionen ebenso. Niederschlagsmuster (z.B. der Monsun und die innertropische Konvergenzzone) räumlich gut aufgelöst sind eine weitere entscheidende Größe für das Klima. Die möglichst genaue Modellierung von Wolken wäre ein Muss!

Das alles leisten die Modelle anerkanntermaßen (vgl. die verlinkten Studien) momentan nicht. Damit sind sie keine Klimamodelle und es sind nur sehr, sehr niedrige Qualitätsanforderungen die an solche Konstrukte gegenwärtig gestellt werden, um zu ermitteln was in der Zukunft passieren soll. Sie sind nicht geeignet die Vergangenheit nachzuvollziehen, sie sind in ihrer heutigen Form demzufolge auch nicht in der Lage, einigermaßen sichere Aussagen für die Zukunft zu erzeugen. Sie modellieren am Ende irgendetwas, nur nicht das Klima unserer  Erde.

 

Klimamodelle unter Druck: Klimasimulationen errechnen eine viel zu hohe Abkühlung durch Vulkanausbrüche, die mit der realen Entwicklung kaum in Einklang zu bringen ist

Große Vulkanausbrüche kühlen für ein paar Jahre das Erdklima, soviel ist klar und durch empirische Daten gesichert. Aber wie funktioniert der Kühlmechanismus eigentlich? Die University of Washington berichtete am 9. Dezember 2015 über neue Erkenntnisse zum Ablauf der klimatischen Wirkungsweise von Schwefeldioxid:

Iceland volcano’s eruption shows how sulfur particles influence clouds

It has long been suspected that sulfur emissions can brighten clouds. Water droplets tend to clump around particles of sulfuric acid, causing smaller droplets that form brighter, more reflective clouds. But while humans have pumped sulfur into Earth’s atmosphere since the Industrial Revolution, it’s been hard to measure how this affects the clouds above. New University of Washington research uses a huge volcanic eruption in Iceland to measure the change. The new study, to be published in Geophysical Research Letters, a journal of the American Geophysical Union, shows that sulfur emissions do indeed result in smaller cloud droplet size, leading to brighter clouds that reflect significantly more sunlight.“This eruption is a chance to nail down one of the big uncertainties in climate models,” said first author Daniel McCoy, a UW doctoral student in atmospheric sciences.

The study takes advantage of a unique geologic event. During six months from summer 2014 until early 2015, a crack in the Bardarbunga volcano seeped lava and sulfur gas. This was not one of Iceland’s huge explosive eruptions that fill the skies with ash and shut down airplane routes. Instead it was a long, slow, low-elevation seep of sulfur emissions that produced an amount of lava second only to Laki in the recent history of Iceland eruptions. The UW researchers looked at data for that region recorded by NASA’s MODIS, or Moderate Resolution Imaging Spectroradiometer, instrument to measure the size of droplets in the marine cloud layer. While the volcano was spewing sulfur, the droplets were the smallest in the 14-year record of observations. “You can see the effect over an entire ocean for a two-month period,” McCoy said. “It was a pretty unique geophysical event within the satellite record.”

The results confirm that volcanoes cool the planet not just by emitting particles high in the atmosphere, but also by releasing low-level sulfur to influence cloud formation. When the air contains aerosol particles, the same amount of water vapor condenses into many small drops, whose larger surface area reflects more sunlight. The difference in reflected solar radiation for September and October 2014 was 2 watts per square meter in the region over Iceland. “The effect of volcanic emissions on clouds has been a difficult one to quantify because of the ephemeral nature of most events,” said co-author Dennis Hartmann, a UW professor of atmospheric sciences. “This eruption provides a natural laboratory that lets us test how clouds respond to aerosols.”

The results may help understand humans’ impact on clouds. Human pollution since the Industrial Revolution is believed to have altered skies in the Northern Hemisphere. One uncertainty in climate models is how much human pollution has brightened the clouds, shielding the planet from the effects of the simultaneous rise in carbon dioxide. “One of the big uncertainties regarding climate change is how much human-produced aerosols have offset the warming until now,” Hartmann said. “We hope the data from this eruption will improve the model simulations of cloud effects, and narrow the uncertainties in projections of the future.”

The most recent Intergovernmental Panel on Climate Change report was the first to include a chapter on clouds and aerosols, one of the biggest uncertainties in global climate models. This study will provide a benchmark for modelers to check their simulations of clouds and aerosols and improve their algorithms for the next generation of climate models. “The same way that the Mount Pinatubo eruption in 1991 was a big on-off signal that allowed us to evaluate models’ response to volcanic forcings, I think this Iceland eruption is a unique event that will help us to better understand the interaction between aerosols and clouds,” McCoy said.

Paper: Daniel T. McCoy, Dennis L. Hartmann. Observations of a substantial cloud aerosol indirect effect during the 2014-2015 Bárðarbunga-Veiðivötn fissure eruption in Iceland. Geophysical Research Letters, 2015; DOI: 10.1002/2015GL067070

Eine weitere Fallstudie wurde im Juni 2016 in Climate of the Past von einem Team um Rudolf Brazdil publiziert. Studienobjekt ist der Tambora-Ausbruch im April 1815 und die klimatischen Folgen für die Tschechische Republik. Die Forscher fanden in den historischen Quellen Berichte über einen sehr feuchten Sommer 1815 und einen extrem kalten Sommer 1816. Hier der Abstract:

Climatic effects and impacts of the 1815 eruption of Mount Tambora in the Czech Lands
The eruption of Mount Tambora in Indonesia in 1815 was one of the most powerful of its kind in recorded history. This contribution addresses climatic responses to it, the post-eruption weather, and its impacts on human life in the Czech Lands. The climatic effects are evaluated in terms of air temperature and precipitation on the basis of long-term homogenised series from the Prague-Klementinum and Brno meteorological stations, and mean Czech series in the short term (1810–1820) and long term (1800–2010). This analysis is complemented by other climatic and environmental data derived from rich documentary evidence. Czech documentary sources make no direct mention of the Tambora eruption, neither do they relate any particular weather phenomena to it, but they record an extremely wet summer for 1815 and an extremely cold summer for 1816 (the “Year Without a Summer”) that contributed to bad grain harvests and widespread grain price increases in 1817. Possible reasons for the cold summers in the first decade of the 19th century reflected in the contemporary press included comets, sunspot activity, long-term cooling and finally – as late as 1817 – earthquakes with volcanic eruptions.

In einer Studie zum vulkanischen Einfluss auf das Klima im tropischen Südamerika berichteten Colose et al. 2016 über jahreszeitliche Unterschiede. Es mache durchaus einen klimatischen Unterschied, ob ein Vulkan in der Monsun-Saison ausbricht oder während der Trockensaison.

Eine Gruppe um Markus Stoffel machte sich am 31. August 2015 in Nature Geoscience Gedanken über ein großes Rätsel in den Klimawissenschaften. Klimamodelle simulieren den vulkanischen Kühleffekt viel stärker als er in der Realität ist. In den historischen Rekonstruktionen über Baumringdaten sucht man vergeblich nach den massiven und langanhaltenden Temperaturstürzen, die die Klimarechenkästen postulieren. Zwischen Realität und virtueller Klimawelt klafft eine enorme Schere. Nun ja, Stoffel und Kollegen machten sich auf die Suche, um die beiden Pole anzunähern.

Dabei “massierten” sie zum einen die Baumringrekonstruktionen ein wenig, um ein bisschen mehr Abkühlung zu erhalten. Zum anderen modifizierten sie die Klimamodelle, so dass die stark übertriebene Kühlwirkung etwas abgemildert wurde. Ein diplomatisches Vorgehen. Man muss abwarten, ob sich die Klimamodellierer die Kritik zu herzen nehmen und endlich realistischer in ihren Klimaparametern werden. Die Zeiten, in denen die gesamte Kleine Eiszeit irrigerweise durch eine handvoll Vulkanausbrüche erklärt wurde, scheinen jedenfalls endgültig vorbei zu sein. Im Folgenden die Kurzfassung der Arbeit von Stoffel et al. 2015:

Estimates of volcanic-induced cooling in the Northern Hemisphere over the past 1,500 years
Explosive volcanism can alter global climate, and hence trigger economic, political and demographic change1, 2. The climatic impact of the largest volcanic events has been assessed in numerous modelling studies and tree-ring-based hemispheric temperature reconstructions3, 4, 5, 6. However, volcanic surface cooling derived from climate model simulations is systematically much stronger than the cooling seen in tree-ring-based proxies, suggesting that the proxies underestimate cooling7, 8; and/or the modelled forcing is unrealistically high9. Here, we present summer temperature reconstructions for the Northern Hemisphere from tree-ring width and maximum latewood density over the past 1,500 years. We also simulate the climate effects of two large eruptions, in AD 1257 and 1815, using a climate model that accounts explicitly for self-limiting aerosol microphysical processes3, 10. Our tree-ring reconstructions show greater cooling than reconstructions with lower spatial coverage and based on tree-ring width alone, whereas our simulations show less cooling than previous simulations relying on poorly constrained eruption seasons and excluding nonlinear aerosol microphysics. Our tree-ring reconstructions and climate simulations are in agreement, with a mean Northern Hemisphere extra-tropical summer cooling over land of 0.8 to 1.3 °C for these eruptions. This reconciliation of proxy and model evidence paves the way to improved assessment of the role of both past and future volcanism in climate forcing.

Zum Abschluß noch eine Studie von Swindles et al. 2011 zu vulkanischen Aschelagen im nördlichen Europa während der vergangenen 7000 Jahre. Während der letzten 1000 Jahre lagerte sich etwa alle 56 Jahre eine Ascheschicht in Nordeuropa ab. Hier der Abstract:

A 7000 yr perspective on volcanic ash clouds affecting northern Europe
The ash cloud resulting from the A.D. 2010 eruption of Eyjafjallajökull in Iceland caused severe disruption to air travel across Europe, but as a geological event it is not unprecedented. Analysis of peats and lake sediments from northern Europe has revealed the presence of microscopic layers of Icelandic volcanic ash (tephra). These sedimentary records, together with historical records of Holocene ash falls, demonstrate that Icelandic volcanoes have generated substantial ash clouds that reached northern Europe many times. Here we present the first comprehensive compilation of sedimentary and historical records of ash-fall events in northern Europe, spanning the past 7000 yr. Ash-fall events appear to have been more frequent in the past 1500 yr. It is unclear whether this reflects a true increase in eruption frequency or dispersal, or is an artifact of the records or the way in which they have been generated. In the past 1000 yr, volcanic ash clouds reached northern Europe with a mean return interval of 56 ± 9 yr (the range of return intervals is between 6 and 115 yr). Probabilistic modeling using the ash records for the last millennium indicates that for any 10 yr period there is a 16% probability of a tephra fallout event in northern Europe. These values must be considered as conservative estimates due to the nature of tephra capture and preservation in the sedimentary record.

 

CERN-CLOUD-Projekt: Kühleffekt anthropogener Aerosole offenbar geringer als gedacht. Klimaprognosen müssen nach unten korrigiert werden

Einer der Knackpunkte der heutigen Klimamodelle ist der sogenannte Aerosoljoker, den wir bereits in unserem Buch ‘Die kalte Sonne’ kritisch unter die Lupe nahmen. Das Problem: Die IPCC-Modelle gehen von einer so starken CO2-Erwärmungswirkung aus, dass die Temperaturen heute eigentlich viel höher sein müssten. Der IPCC behalf sich mit einm Trick und kühlte kurzerhand die überschüssige theoretische Wärme wieder mit anthropogenen Aerosolen, vor allem Schwefeldioxid (SO2), herunter. In den Zukunftsprognosen wurde dann das SO2 langsam heruntergefahren, so dass enorme Erwärmungsraten angenommen werden konnten.

Bereits vor einem Jahr, im April 2015, warnten Forscher davor, dass man die Kühlwirkung der Aerosole wohl überbeansprucht hat (siehe unseren Blogartikel “Direktor des Hamburger Max-Planck-Instituts für Meteorologie: Aerosole kühlen weniger stark als vormals angenommen“). Dieser Verdacht scheint sich nun zu erhärten. Im Rahmen des CLOUD-Projekts am CERN fanden Forscher nun weitere Hinweise darauf, dass man den Aerosol-Effekt in den Modellen wohl kräftig herunterkorrigieren muss. Die Ergebnisse wurden nun von mehreren Teams in Nature, Nature Communications und Science veröffentlicht. Die Universität Wien gab hierzu am 25. Mai 2016 die folgende Pressemitteilung heraus:

Klimaforschung: Verschmutzte Luft führt nicht zu mehr Wolken
Vor industrieller Revolution gab es mehr Wolken am Himmel als angenommen

Wolkiger als bisher vermutet präsentierte sich das Klima vor der industriellen Revolution. Diesen Rückschluss lassen neueste Experimente am CERN zu, an dem auch Aerosolphysiker der Universität Wien beteiligt waren. Wie sich beim CLOUD-Experiment zeigt, produzieren organische Dämpfe, die von Bäumen in die Umgebung abgegeben werden, zahlreiche Aerosolpartikel in der Atmosphäre. Bislang ging man davon aus, dass Schwefelsäure – vorwiegend aus fossilen Brennstoffen – essentiell ist, um Partikelneubildung zu initiieren. Weiters konnte gezeigt werden, dass diese sogenannten biogenen Dämpfe auch beim Wachstum der neugebildeten Teilchen bis hin zu Größen von Wolkenkondensationskernen eine Schlüsselrolle spielen. Die Ergebnisse der Studie erscheinen aktuell im renommierten Fachmagazin Nature.

Der internationale Klimabeirat (IPCC) betrachtet die Zunahme an Aerosolpartikeln und Wolken seit vorindustrieller Zeit als größten Unsicherheitsfaktor bei der Klimaerwärmung. Das Experiment CLOUD (Cosmics Leaving OUtdoor Droplets) wurde entwickelt um zu verstehen, wie sich in der Atmosphäre neue Aerosolpartikel bilden und wachsen. So kann auch der Einfluss von Ionen untersucht werden, die durch kosmische Strahlung entstehen. Quantitative Messungen ergaben dabei eine Zunahme der Produktionsrate von organischen Teilchen um einen Faktor 10-100 verglichen mit Situationen ohne diese Ionen. Daraus lässt sich schließen, dass kosmische Strahlung in vorindustrieller Zeit einen größeren Einfluss auf Aerosol- und Wolkenbildung hatte, als unter heutigen – relativ schmutzigen – Bedingungen.

Über CLOUD
Das CLOUD-Experiment wird von einem internationalen Konsortium, bestehend aus 21 Instituten, geleitet, an dem auch neun österreichische ForscherInnen aus dem In- und Ausland mitarbeiten. Ein Team um Paul Winkler von der Fakultät für Physik der Universität Wien beteiligte sich an den Experimenten vorrangig durch die Bestimmung der Aerosolgrößenverteilung, die bei der Entstehung von Wolken essentiell ist. “Dazu werden Teilchen in einem veränderlichen elektrischen Feld eines Zylinderkondensators nach ihrer Größe selektiert und anschließend detektiert”, erklärt der Aerosolphysiker Paul Winkler. In weiterer Folge kann die Häufigkeitsverteilung von Aerosolteilchen in unterschiedlichen Größenklassen sowie das Wachstum von dynamischen Aerosolteilchen bestimmt werden.

Folgen für Klimaforschung
Die Konsequenzen der neuen Erkenntnisse sind vielfältig. “Ioneninduzierte Nukleation von rein biogenen Teilchen spielt offenbar eine wichtige Rolle in sauberen Umgebungen. Es handelt sich hier um einen bislang unbekannten Effekt, durch den die Natur Aerosolteilchen ohne Verschmutzung bilden kann“, so Winkler. Wenn sich diese neuen Teilchen einmal gebildet haben, können weitere, gleichzeitig vorhandene organische Dämpfe das Partikelwachstum beschleunigen. Ein schnelles Anwachsen erhöht die Überlebenschancen von Nanoteilchen, die sich sonst aufgrund ihrer hohen Diffusivität rasch an größere Teilchen anlagern und wieder verloren gehen. Wenn diese Teilchen allerdings eine Größe von ca. 100 Nanometern erreichen, können sie als Wolkenkondensationskerne indirekt die Strahlungseigenschaften von Wolken beeinflussen und werden somit klimawirksam. “Die ioneninduzierte Nukleation von Teilchen könnte sogar Bewegung in die spannende Frage bringen, ob es in vorindustrieller Zeit einen physikalischen Mechanismus im Zusammenhang mit der Sonnen-Klima-Variabilität gab”, erklärt Winkler abschließend.

Publikationen in “Nature”
Kirkby, J. et al. Ion-induced nucleation of pure biogenic particles. Nature,
Doi 10.1038/nature17953 (2016).

Tröstl, J. et al. The role of low-volatility organic compounds in initial particle growth in the atmosphere. Nature,
Doi 10.1038/nature18271 (2016).

Bei den Folgen für die Klimaforschung hätte man gerne noch erwähnen können, dass damit die CO2-Klimasensitivität wohl weiter nach unten absacken wird. Ein (zu) heißes Eisen? Stattdessen versucht man lieber noch einmal die Sonne zu mobben. In der heutigen, schmutzigen Atmosphäre würde die kosmische Strahlung bei der Wolkenbildung wohl keine Rolle spielen. Für die vorindustrielle Zeit mit sauberer Atmosphäre könnte dies aber anders aussehen, sagen die Forscher. Krampfhaft versucht man den viel zu gering angesetzten Strahlungsantrieb des IPCC zu rechtfertigen. Ein nicht sehr nachhaltiger Ansatz. Der Elefant im Raum: Die stärkste Erwärmung im späten 20. Jahrhundert fällt mit der aktivsten solaren Phase zusammen. Wie lange wird es noch dauern, bis ein uns eins zusammengezählt sind?

Die Webplattform Wissenschaft aktuell erläuterte die Ergebnisse zu den kosmischen Strahlen wie folgt:

Auf die künstliche Atmosphäre lenkten die Forscher einen Strahl positiv geladener Teilchen, sogenannter Pionen, den sie mit einem Proton-Synchrotron erzeugten. Damit simulierten sie den Einfluss kosmischer Strahlung, die stetig in die Erdatmosphäre eindringt. Dieser Teilchenbeschuss brachte die organischen Moleküle dazu, sich zu etwa zwei Nanometern kleinen Partikeln zusammenzuballen. Weitere Messungen belegten, dass diese Partikel in Gegenwart flüchtiger organischer Substanzen weiter wuchsen, um effiziente Kondensationskeime zu bilden. Parallel untermauerten die Forscher diesen Mechanismus mit Computermodellen.

Angesichts der Bedeutung der neuen Ergebnisse, wollen wir weitere Pressemitteilungen und Medienberichte hierzu anschauen. Die Universität Frankfurt gab am selben Tag die folgende Meldung heraus. Im ersten Absatz wird die Relevanz der Studien gut zusammengefasst:

Wolken und Klima in der vorindustriellen Zeit
Die durch den Menschen verursachten Aerosolpartikel wirken der Erwärmung der Erdatmosphäre durch Treibhausgase entgegen. Doch ist dieser Effekt vielleicht kleiner als gedacht, da auch schon in vorindustrieller Zeit durch die Ausdünstungen von Bäumen viele Partikel entstanden. Das folgt aus einer Untersuchung am internationalen CLOUD-Experiment, an dem Atmosphärenforscher der Goethe-Universität maßgeblich beteiligt waren. Die Ergebnisse erscheinen heute in Form von drei Publikationen in den renommierten Fachzeitschriften „Science“ und „Nature“.

In vorindustrieller Zeit kühlte der Duft üppiger Pinienwälder die Atmosphäre, denn Pinien sondern organische Verbindungen ab, die zur Wolkenbildung beitragen. Insofern kompensieren die durch den Menschen verursachten Aerosole den Treibhauseffekt vermutlich nicht so stark, wie bisher angenommen.

„Diese Ergebnisse sind die wichtigsten, die bisher an der CLOUD-Kammer am CERN erzielt worden sind“, betont der Sprecher des CLOUD-Experiments, Jasper Kirkby, Honorarprofessor an der Goethe-Universität: „Berücksichtigt man in Zukunft die Entstehung und das Wachstum rein organischer Aerosolpartikel bei der Entwicklung von Klimamodellen, dürfte das wesentlich dazu beitragen, den Einfluss menschlichen Handelns auf die Wolken und das Klima besser zu verstehen.“

Prof. Joachim Curtius vom Institut für Atmosphäre und Umwelt an der Goethe-Universität ergänzt: „Wir gehen davon aus, dass der jetzt entdeckte Prozess dazu führt, dass wir die Wolkenbildung in früheren Zeiten neu bewerten müssen, da es mehr Partikel gegeben haben müsste als bisher angenommen. Der Unterschied zum heutigen Zustand würde dann geringer ausfallen als bisher gedacht.“

Das CLOUD-Experiment untersucht, wie sich neue Aerosolpartikel in der Atmosphäre bilden und welchen Einfluss sie auf das Klima haben. Nehmen die Aerosolpartikel zu, wie es durch menschliche Aktivitäten der Fall ist, wird mehr Sonnenlicht reflektiert und die Wolken werden heller, weil sich mehr Wolkentröpfchen bilden. Um diesen kühlenden Effekt durch anthropogene Einflüsse abschätzen zu können, müssten die Aerosolmengen aus der Zeit vor der Industrialisierung bekannt sein. Da diese durch direkte Messung nicht zugänglich sind, werden sie durch zuverlässige Laboruntersuchungen wie dem CLOUD-Experiment simuliert und in Klimamodellierungen berücksichtigt.

In vorindustrieller Zeit trugen vor allem die von Bäumen abgesonderten organischen Verbindungen zur Aeorosolbildung bei. Die Forscher untersuchten alpha-Pinen, eine Substanz, die Pinienwäldern den charakteristischen angenehmen Duft verleiht. Sie gehört zu den wichtigsten biogenen Emissionen. Alpha-Pinen wird in der Atmosphäre durch Ozon schnell oxidiert und in nachfolgenden Reaktionsketten entstehen dabei auch einige extrem schwerflüchtige Substanzen. Sie treten aber nur in sehr geringen Mengen von etwa 1 Molekül pro 1 Billionen Luftmoleküle auf.

Die CLOUD-Experimente zeigen, dass sich aus den extrem schwerflüchtigen organischen Verbindungen sehr effizient neue Partikel bilden. Dieser Prozess läuft unter Atmosphärenbedingungen ab, auch ohne Beteiligung von Schwefelsäure. Bisher ging man davon aus, dass Schwefelsäure an der Partikelbildung in der Atmosphäre nahezu immer beteiligt ist. Schwefelsäure stammt in der Atmosphäre hauptsächlich aus Schwefeldioxid, das aus der Verbrennung fossiler Brennstoffe stammt.

Weiterhin haben die Forscher herausgefunden, dass Ionen aus der kosmischen Strahlung die Bildung der organischen Partikel erheblich verstärken – um einen Faktor 10-100 im Vergleich zur Partikelbildung ohne Ionen, solange die Konzentrationen der partikelbildenden Gase niedrig sind. „Unsere Untersuchungen zeigen weiterhin, dass diese schwerflüchtigen organischen Substanzen auch in unverschmutzter Umgebung das Wachstum der Partikel dominieren – und zwar über den ganzen Größenbereich von Clustern aus wenigen Molekülen bis hin zu Partikelgrößen von 50-100 Nanometern, die groß genug sind, um als Wolkenkeime dienen zu können“, erklärt Joachim Curtius. Die Wachstumsraten nehmen zu, je größer die Partikel werden, da immer mehr Oxidationsprodukte, auch solche mit höherer Flüchtigkeit, an den größer werdenden Partikeln kondensieren können. Dieser Prozess wird quantitativ mit einem Kondensations-Modell für die verschiedenen organischen Substanzen beschrieben.

Warum ist dies wichtig für unser Verständnis des Klimas? Es könnte sein, dass es sich um einen sehr wichtigen, weil effizienten Mechanismus zur Bildung von organischen Partikeln unter natürlichen Bedingungen handelt. Sobald sich die Partikel gebildet haben, wachsen sie durch die Kondensation von weiteren ähnlichen sauerstoffhaltigen organischen Verbindungen an. Weil die neugebildeten Partikel schnell wachsen, geht ein geringerer Anteil durch Zusammenstöße mit bereits vorhandenen großen Partikeln verloren. So wachsen mehr Partikel bis zu Größen, bei denen sie als Wolkenkeime dienen und das Klima beeinflussen können.

Eine weitere Veröffentlichung, die gleichzeitig in Science erscheint, berichtet von Beobachtungen aus dem Observatorium am Jungfraujoch, in denen die rein organische Nukleation auch in der freien Troposphäre nachgewiesen wurde. Dies belegt die Relevanz der Laboruntersuchungen von CLOUD für die Atmosphäre.

Publikationen:
Kirkby, J. et al.: Ion-induced nucleation of pure biogenic particles, in: Nature, doi:10.1038/nature17953

Tröstl, J. et al:The role of low-volatility organic compounds in initial particle growth in the atmosphere, in: Nature, doi:10.1038/nature18271.

Bianchi, F. et al. :New particle formation in the free troposphere: A question of
chemistry and timing, in: Science, doi 10.1126/science.aad5456, 2016

 

 

In einer Pressemitteilung der Carnegie Mello University zu den neuen Studien wird die kühlende Rolle der Aerosole in den Klimamodellen gut beschrieben:

Clouds provide clue to better climate predictions
A research group from the CERN Cloud experiment, including scientists from Carnegie Mellon University’s College of Engineering and Mellon College of Science, have uncovered the processes behind the formation and evolution of small atmospheric particles free from the influence of pollution. Their findings are key to creating accurate models to understand and predict global climate change. The findings are published in the May 26 [2016] issue of Nature.

Clouds and aerosols-small airborne particles that can become the seeds upon which clouds form-are essential to climate predictions because they reflect sunlight back into space. Reflecting light away from Earth can have a cooling effect, masking some of the warming caused by greenhouse gases. “The best estimate is that about one-third of the warming by greenhouse gas emissions is masked by this aerosol cooling, but the fraction could be as large as half and as little as almost nothing,” says Neil Donahue, professor of chemical engineering, engineering and public policy, and chemistry at Carnegie Mellon.

In order to have complete climate prediction models, scientists need to incorporate clouds and aerosols into their calculations, but understanding how new aerosol particles form and grow in the atmosphere, and how they affect clouds and climate, has been challenging. Scientists involved with CERN’s CLOUD experiment study use a large chamber to simulate the atmosphere and track the formation and growth of aerosol particles and the clouds they seed. The latest research shows that new particles can form exclusively from the oxidation of molecules emitted by trees without the presence of sulfuric acid. Sulfuric acid largely arises from fossil fuels, so the new findings provide a mechanism by which nature produces particles without pollution.

“This softens the idea that there may be many more particles in the atmosphere today due to pollution than there were in 1750, and suggests that the pristine pre-industrial climate may have had whiter clouds than presently thought,” says Donahue.

The team’s research has lasting climate implications. “Earth is already more than 0.8C than it was in the pre-industrial epoch, and this is with some masking by aerosol particles. As the pollution subsides, up to another 0.8C of hidden warming could emerge,” says Donahue.

Während die beteiligten Wissenschaftler in ihren Pressemitteilungen nur vage Andeutungen machen, dass man die Modelle nun “neu bewerten” müsse, werden einige Zeitungsartikel deutlicher. The Daily Star klärte seine Leser gleich in der Titelzeile darüber auf, dass die Temperaturprognosen wohl abgemildert werden müssen:

Scientists make news clouds which may lessen global warming
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. “What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,” said researcher Jasper Kirkby. [...] Kirkby said it’s too soon to tell how much less warming the new study implies. Other recent studies found flaws in climate forecasts because of uncertainty about clouds that would increase, not decrease, possible warming in the future.

Ganzen Artikel in The Daily Star lesen

———————————–

 

Noch mehr Spaß mit Klimamodellen: Es will partout nicht passen

Im März 2013 betitelte Joachim Müller-Jung einen Artikel in der FAZ sehr treffend mit

Wer die Welt simuliert, hat die Wahrheit nicht gepachtet
Wie viel Realität steckt in Klimamodellen? Fakt ist: Die Komplexitäten nehmen zu, die Unsicherheiten aber auch. Wie kann die Forschung da glaubwürdig bleiben?

Weiterlesen auf faz.net.

Wir wollen heute einen weiteren Streifzug durch die Modellierungswelt wagen. Die Branche befindet sich bekanntlich in einer tiefen Sinnkrise. Man hatte eifrig drauflos modelliert aber die zahlreichen Prognosefehlschläge gehen mittlerweile an die Substanz. Eine erste Welle der Selbstkritik geht durch die Fachwelt. Nicht alles ist so rosig wie man es lange nach außen hin und gegenüber den staatlichen Geldgebern dargestellt hatte.

Am 21. Februar 2013 gab die Universität Göteborg eine Pressemitteilung heraus, dessen Titel bereits aufhorchen lässt: „Die Klimamodelle sind nicht gut genug“. Im Rahmen eines Promotionsprojektes wurde herausgefunden, dass Klimamodelle die in den letzten 50 Jahren in China beobachteten Veränderungen der extremen Regenfälle nicht nachvollziehen können:

Climate models are not good enough
Only a few climate models were able to reproduce the observed changes in extreme precipitation in China over the last 50 years. This is the finding of a doctoral thesis from the University of Gothenburg, Sweden. Climate models are the only means to predict future changes in climate and weather. “It is therefore extremely important that we investigate global climate models’ own performances in simulating extremes with respect to observations, in order to improve our opportunities to predict future weather changes,” says Tinghai Ou from the University of Gothenburg’s Department of Earth Sciences. Tinghai has analysed the model simulated extreme precipitation in China over the last 50 years. “The results show that climate models give a poor reflection of the actual changes in extreme precipitation events that took place in China between 1961 and 2000,” he says. “Only half of the 21 analysed climate models analysed were able to reproduce the changes in some regions of China. Few models can well reproduce the nationwide change.”

Probleme mit der Regenmodellierung gibt es aller Orten. Auch in den USA kriegen die Modelle die historische Niederschlagsentwicklung einfach nicht in den Griff, wie Mishra et al. (2012) und Knappenberger und Michaels (2013) zeigen konnten. Ähnliches fanden Stratton & Stirling (2012) und Ramirez-Villegas et al. (2013) auf globaler Ebene. Auszug aus der Kurzfassung des zuletzt genannten Papers:

Climatological means of seasonal mean temperatures depict mean errors between 1 and 18 ° C (2–130% with respect to mean), whereas seasonal precipitation and wet-day frequency depict larger errors, often offsetting observed means and variability beyond 100%. Simulated interannual climate variability in GCMs warrants particular attention, given that no single GCM matches observations in more than 30% of the areas for monthly precipitation and wet-day frequency, 50% for diurnal range and 70% for mean temperatures. We report improvements in mean climate skill of 5–15% for climatological mean temperatures, 3–5% for diurnal range and 1–2% in precipitation. At these improvement rates, we estimate that at least 5–30 years of CMIP work is required to improve regional temperature simulations and at least 30–50 years for precipitation simulations, for these to be directly input into impact models. We conclude with some recommendations for the use of CMIP5 in agricultural impact studies.

Soncini & Bocchiola (2011) hatten sich den Schneefall in den Italienischen Alpen angeschaut. Auch hier wieder das gleiche Bild: Die real gemessene Entwicklung kann von den Modellen nicht reproduziert werden. Schlimmer noch, die Zukunftsprojektionen verschiedener Modelle weichen stark voneinander ab. Hier die Kurzfassung der bemerkenswerten Arbeit:

General Circulation Models GCMs are widely adopted tools to achieve future climate projections. However, one needs to assess their accuracy, which is only possible by comparison of GCMs’ control runs against past observed data. Here, we investigate the accuracy of two GCMs models delivering snowfall that are included within the IPCC panel’s inventory (HadCM3, CCSM3), by comparison against a comprehensive ground data base (ca. 400 daily snow gauging stations) located in the Italian Alps, during 1990–2009. The GCMs simulations are objectively compared to snowfall volume by regionally evaluated statistical indicators. The CCSM3 model provides slightly better results than the HadCM3, possibly in view of its finer computational grid, but yet the performance of both models is rather poor. We evaluate the bias between models and observations, and we use it as a bulk correction for the GCMs’ snowfall simulations for the purpose of future snowfall projection. We carry out stationarity analysis via linear regression and Mann Kendall tests upon the observed and simulated snowfall volumes for the control run period, providing contrasting results. We then use the bias adjusted GCMs output for future snowfall projections from the IPCC-A2 scenario. The two analyzed models provide contrasting results about projected snowfall during the 21st century (until 2099). Our approach provides a first order assessment of the expected accuracy of GCM models in depicting past and future snowfall upon the (Italian) Alps. Overall, given the poor depiction of snowfall by the GCMs here tested, we suggest that care should be taken when using their outputs for predictive purposes.

 

Bloß aus den Wolken gegriffen? (weiterlesen …)

Spaß mit Klimamodellen: Pleiten, Pech und Pannen

Das schöne in der Wissenschaft ist, dass man sich ganz phantastische Modelle ausdenken kann und dabei seine Kreativität voll ausleben kann. Und weil es nicht nur einen Wissenschaftler gibt, sondern ganz viele, gibt es auch eine ganze Reihe von Alternativmodellen. Schlimm wird es erst, wenn der Tag der Wahrheit naht. Hefte raus Klassenarbeit. Wenn also die verschiedenen Prognosen mit den real eingetretenen Messwerten verglichen werden. Wer hatte den richtigen Riecher und wer sollte sich schleunigst ein besseres Modell einfallen lassen?

Wenn sich dann herausstellen sollte, dass alle Modelle danebenliegen, sind die Modelle falsifiziert, entpuppen sich also als wertlos. Die Überprüfbarkeit von Modellen ist ein Grundprinzip der Wissenschaft, wie bereits Richard Feynman in einem seiner legendären Vorträge erläuterte:

 

Fehlgeschlagene Hypothesen hat es in der Wissenschaft sehr oft gegeben. Eine schöne Zusammenstellung der größten Wissenschaftsflops gibt es auf WUWT. Leider gehören auch die Klimawissenschaften in diese Kategorie. Roy Spencer hat einmal eine ganze Palette von 73 Klimamodellen mit der realen Temperaturentwicklung vergleichen, und alle schossen weit überhitzt über das Ziel hinaus:

Und gleich noch so ein Fehlschlag: Im August 2009 hatten Judith Lean und David Rind in den Geophysical Research Letters eine mutige Mittelfrist-Klimaprognose gewagt. Sie hatten für den Fünfjahreszeitraum 2009 bis 2014 eine Erwärmung von 0,15°C vorhergesagt. In Wahrheit erwärmte es sich in diesem Zeitraum überhaupt nicht. Eine bittere Pleite.

In den letzten Jahren dämmerte es den Forschern, dass vielleicht doch nicht nur das i-Tüpfelchen in den Modellen fehlte. Zu offensichtlich waren die Fehlprognosen. Kein einziges der vormals hochgelobten Klimamodelle hatte den mittlerweile seit 16 Jahre anhalten Erwärmungsstopp für möglich gehalten. Im September 2011 räumten Crook & Forster in einem Artikel im Journal of Geophysical Research ein, dass die vordergründige Reproduktion der realen Temperaturentwicklung in einem Klimamodell noch lange nicht bedeutet, dass die Mechanismen vollständig verstanden wären. Zu vielfältig sind die frei einstellbaren Parameter, die in der Regel bewusst so gewählt werden, dass eine Übereinstimmung aktiv herbeigeführt wird. Eine Vorhersagekraft kann sich daher hieraus nicht automatisch ableiten. Hier ein Auszug aus der Kurzfassung von Crook & Foster (2011):

In this paper, we breakdown the temperature response of coupled oceanatmosphere climate models into components due to radiative forcing, climate feedback, and heat storage and transport to understand how well climate models reproduce the observed 20th century temperature record. Despite large differences between models feedback strength, they generally reproduce the temperature response well but for different reasons in each model.

In der Mitgliederzeitschrift der American Geophysical Union (AGU), Eos, beschäftigte sich Colin Schultz mit dem Artikel und nahm kein Blatt vor den Mund:

Climate model’s historical accuracy no guarantee of future success
To validate and rank the abilities of complex general circulation models (GCMs), emphasis has been placed on ensuring that they accurately reproduce the global climate of the past century. But because multiple paths can be taken to produce a given result, a model may get the right result but for the wrong reasons.

Die Ernüchterung hat mittlerweile auch auf die IPCC-nahen Blogs übergegriffen. In einem Gastbeitrag auf Real Climate stellten Geert Jan van Oldenborgh, Francisco Doblas-Reyes, Sybren Drijfhout und Ed Hawkins am 15. April 2013 klar, dass die im aktuellen 5. IPCC Klimazustandsbericht verwendeten Modelle für regionale Klimaprognosen gänzlich ungeeignet sind: (weiterlesen …)

Nord- und Südhalbkugel unterscheiden sich klimatisch stark: Klimamodelle können es aber nicht abbilden

Am 30. März 2014 gab die Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft (WSL) eine Pressemitteilung zu einer interessanten neuen Studie heraus. Dabei zeigte sich, dass Klimamodelle die klimatisch oft unterschiedliche Entwicklung der nördlichen und südlichen Hemisphären nicht korrekt reproduzieren können. Auch schaffen es die Rechenmodelle nicht, die in der Realität beobachtete starke natürliche Variabilität des Klimas abzubilden. Lesen Sie die Original-Pressemitteilung der WSL hier in voller Länge:

——————————————-

Innerhalb des letzten Jahrtausends gab es bei den Temperaturen auf der Nord- und Südhalbkugel grössere Unterschiede als bisher angenommen. Klimamodelle sind nur beschränkt in der Lage, diese Unterschiede abzubilden. Zu diesem Schluss kommt ein internationales Forscherteam unter der Leitung von Raphael Neukom vom Oeschger-Zentrum der Universität Bern und der Eidgenössischen Forschungsanstalt WSL. (weiterlesen …)

Klimamodellierer in Bedrängnis: Studien ergeben, dass neue IPCC-Modelle die Erwärmung überschätzen

Hypothetische Klimamodelle stellen weiterhin das Herzstück der offizielle IPCC-Aktivitäten dar. Der vor kurzem erschienene 5. Klimazustandsbericht des IPCC basiert auf einer neuen Serie von Klimamodellen, die sich “CMIP5” nennt, was für Coupled Model Intercomparison Project Phase 5 steht. Der Vorlauf für diese Modelle beträgt mehrere Jahre, so dass es strukturell schwer ist, kurzfristig neueste Erkenntnisse in den Modellen zu berücksichtigen. Das IPCC-Modellierungswesen muss man sich wie eine Art Supertanker mit zwei- bis dreijährigem Wendekreis vorstellen. Was 2011 im Rechenansatz falsch eingegeben wurde, muss bis heute beibehalten werden. In der Zwischenzeit ist jedoch ein großer Wissensfortschritt erzielt worden: Die CO2-Klimasensitivität ist in zahlreichen Studien stark abgesenkt und der systematische und signifikante Einfluss von Ozeanzyklen anerkannt worden.

Bereits im Februar 2013 kam eine kritische Betrachtung der CMIP5-Klimamodelle in den Environmental Research Letters heraus. Ein Team um Peter Stott vom britischen Met Office Hadley Centre sah das Unheil kommen und sorgte vor. In einer Studie zur Qualität der CMIP5-Modelle fanden sie, dass diese zu hohe Erwärmungsraten anzeigen. Hier die Kurzfassung der Arbeit (Fettsetzung ergänzt):

Climate models predict a large range of possible future temperatures for a particular scenario of future emissions of greenhouse gases and other anthropogenic forcings of climate. Given that further warming in coming decades could threaten increasing risks of climatic disruption, it is important to determine whether model projections are consistent with temperature changes already observed. This can be achieved by quantifying the extent to which increases in well mixed greenhouse gases and changes in other anthropogenic and natural forcings have already altered temperature patterns around the globe. Here, for the first time, we combine multiple climate models into a single synthesized estimate of future warming rates consistent with past temperature changes. We show that the observed evolution of near-surface temperatures appears to indicate lower ranges (5–95%) for warming (0.35–0.82 K and 0.45–0.93 K by the 2020s (2020–9) relative to 1986–2005 under the RCP4.5 and 8.5 scenarios respectively) than the equivalent ranges projected by the CMIP5 climate models (0.48–1.00 K and 0.51–1.16 K respectively). Our results indicate that for each RCP the upper end of the range of CMIP5 climate model projections is inconsistent with past warming.

Im gleichen Monat kam eine ähnliche Studie im Journal of Geophysical Research heraus.  Ein Team um Piers Forster von der University of Leeds fand, dass die CMIP5-Modelle stark voneinander abweichen. Außerdem hätten die Modelle die Aerosole nicht im Griff und würden daher die Erwärmung überschätzen. Auszug aus der Kurzfassung: (weiterlesen …)

Vorhersage-Flop des UK Met Office 2007: “Bis 2014 wird es um 0,3°C wärmer”

Von Paul Matthews

Im Jahre 2007 hat ein Team von Klimawissenschaftlern vom UK Met Office unter Leitung von Doug Smith eine Studie mit dem Titel „Improved Surface Temperature Prediction for the Coming Decade from a Global Climate Model” verfasst. Sie wurde im Magazin Science veröffentlicht. Obwohl im Jahre 2007 herausgekommen, machte die Studie Vorhersagen für die Dekade von 2004 bis 2014. Vermutlich haben sie 2004 mit der Arbeit angefangen, und bis zur Veröffentlichung dauerte es ein wenig. Die Studie stellte zunächst Behauptungen über die angeblich besondere Güte des Modells auf, zum Beispiel: „Nachdem die Vorhersagekraft von DePreSys bewiesen worden war…“

In der Studie von Smith et al. wurden folgende Vorhersagen aufgestellt:

  • In der Dekade 2004 bis 2014 würde es zu einer Erwärmung um 0,3°C kommen.
  • Mindestens die Hälfte der Jahre nach 2009 würde wärmer ausfallen als das Rekordjahr 1998

 

Man beachte, dass man zu jener Zeit, also 2007, von 1998 als dem wärmsten Jahr ausgegangen war. Nachfolgende Anpassungen der Methodik machten jedoch plötzlich das Jahr 2005 zum wärmsten Jahr. Diese Vorhersagen wurden in den Medien weithin verbreitet. So tauchten sie in einer Presseerklärung des Met. Office auf. Eine Hochglanz-Broschüre zur ,,Information für die Regierungspolitik in der Zukunft” [Original Informing Government policy into the future] zeigte die obligatorischen, Angst erzeugenden Hintergrundbilder mit schwarzen Wolken und Menschen mit Atemmasken. Vicky Pope hat über diese Vorhersagen gesprochen und gesagt: „Das sind sehr sichere Statements über das, was während der nächsten 10 Jahre geschehen wird“. Und natürlich haben alle Medien ergeben darüber berichtet ohne jede Hinterfragung.

Die Vorhersagen haben sich jetzt jedoch als falsch herausgestellt. Wir sind fast schon im Jahr 2014 angekommen, und seit dem Jahr 2004 hat es keinerlei Erwärmung gegeben. Von den Jahren seit 2009 hat kein einziges den Rekord des Jahres 1998 gebrochen, jedenfalls den HadCRUT3-Daten zufolge. Zieht man die HadCRUT4-Daten heran, zeigt sich, dass das Jahr 2010 um bedeutungslose 0,01°C wärmer war (das ist ein Zehntel der Fehlerschätzung). Die Jahre 2011 und 2012 waren kühler ausgefallen, und es ist inzwischen eindeutig, dass auch das Jahr 2013 kühler ausfallen wird.

Vorhergesagt war eine Erwärmung um 0,30 °C ± 0.21°C (Vertrauensbereich 5 bis 95%; Modell CI). Das bedeutet, wenn wir nicht noch eine signifikante Erwärmung während der nächsten paar Monate bekommen, sieht es so aus, als ob die Beobachtungen außerhalb von C1 liegen.

COP19, Warschau 2013: Stillstand war „erwartet worden”

Auf der letzten Klimakonferenz COP19 in Warschau war das Met Office mit einem Stand vertreten. Auf diesem waren zwei interessante Bilder hiervon zu sehen (mit Dank an Leo Hickman): (weiterlesen …)

Klimamodell der neuesten Generation versagt bei der Temperaturberechnung Skandinaviens für die letzten 80 Jahre

Gute Nachrichten für die Landwirte Großbritanniens: Durch den Klimawandel wird sich die Wachstumssaison verlängern. Außerdem wird es weniger Frostschäden geben, so dass exotische Früchte wie Pfirsiche und Melonen demnächst immer besser gedeihen werden. Dies erklärte jetzt die britische Umweltsekretärin Caroline Spelman auf der Oxford Farming Conference. Sie riet den Landwirten, diese Chance zu nutzen und sich entsprechend hierfür zu positionieren.

Laut einem neuen Bericht im Rahmen des britischen National Adaptation Programme wurde zudem bekannt, dass auch die Forstwirtschaft und der Tourismus in Großbritannien vom Klimawandel profitieren werden. Der vom britischen Umweltministerium herausgegebene Bericht identifizierte zudem Vorteile für die Schifffahrt, für die sich aufgrund des schrumpfenden arktischen Meereises kürzere, ökonomischere Routen ergeben. Durch die wärmeren Temperaturen wird die Bevölkerung auch mehr Zeit im Freien verbringen, wodurch der sonnenbedingte Vitamin-D Pegel ansteigen wird.

————-

Klimamodelle wurden früher gerne als potente Alleswisser angepriesen. The Science is settled – und das gesamte Wissen ist in den Modellen versammelt. Zu blöd, dass dann keines der Modelle den Erwärmungsstopp der letzten 15 Jahre hatte kommen sehen. Plötzlich standen die klimatischen Muskelprotze auf dem Prüfstand – und eine gesamte Branche, die sich den Formelmonstern voreilig verschrieben hatte, gleich mit. Global klappt es also noch nicht allzu gut bei den Modellen. Auf regionalem Maßstab ist es allerdings noch viel schlimmer. Bob Tisdale hat auf WUWT nun ein Klimamodell der neuesten Generation für Skandinavien auf Herz und Nieren geprüft und mit den realen Temperaturmesswerten der letzten 80 Jahre verglichen. Das Ergebnis ist schockierend: Für die Zeit von 1930-1986 sanken die realen Temperaturen langfristig, während das Modell einen Anstieg errechnete (Abbildung 1).

In den Jahren 1987-1988 schossen die real gemessenen Temperaturen wie eine Rakete nach oben. Von 1989 bis heute bildete sich dann ein Temperaturplateau aus, wobei die Temperaturen stagnierten. Gemäß Klimamodell hätte sich Skandinavien in den letzten 24 Jahren mit mehr als einem halben Grad pro Dekade kräftig erwärmen sollen, was jedoch nicht eingetreten ist (Abbildung 2). Eine herbe Schlappe für die Klimamodellierzunft.

Bliebe zu klären, was eigentlich hinter dem abrupten Anstieg 1987-1988 steckt. Hier bietet sich vor allem der natürliche Ozeanzyklus der Arktischen Oszillation (AO) an, der genau zu dieser Zeit nach oben drückte (Abbildung 3). Auch die Nordatlantische Oszillation könnte hier eine Rolle gespielt haben, wie Marcel Crok herausfand.

Abbildung 1: Temperaturentwicklung Skandinaviens 1930-1986. Reale Messwerte (blau) gegenüber IPCC-Klimamodell (rot). Quelle: WUWT. (weiterlesen …)

Sonne erwärmt Erde anders als Treibhauseffekt? Klimamodellierer übersehen aktive Sonne der vergangenen 50 Jahre

Der unerwartete Erwärmungsstopp der letzten 15 Jahre wird zunehmend zum Thema in den deutschen Medien und wirft unbequeme Fragen auf. So beschäftigte sich kürzlich auch das bekannte Webportal wetteronline.de mit dem Phänomen und den möglichen Ursachen:

Seit 1998 ist die weltweite jährliche Durchschnittstemperatur nicht mehr signifikant angestiegen. Während die globale Temperatur von den siebziger Jahren bis Ende der neunziger Jahre um etwa 0,5 Grad Celsius zugenommen hat, stagnierte der Anstieg in den letzten 15 Jahren, wenn auch auf hohem Niveau. [...] Ein Grund für die ins Stocken gekommene globale Erwärmung könnte in der geringen Sonnenaktivität liegen. Seit Jahren nimmt das Magnetfeld der Sonne stetig ab. Außerdem weist der aktuelle elfjährige Sonnenfleckenzyklus bislang nur sehr wenig Aktivität auf. Sonnenflecken sind ein Gradmesser für die Stärke unseres Zentralgestirns: Viele Flecken bedeuten viel freiwerdende Energie, wenig oder keine Flecken weisen auf eine geringere Kraft der Sonne hin.

Weiterlesen auf wetteronline.de.

———————-

Ende Januar meldete Die Welt erleichtert: “Weiteres Klima-Rätsel gelöst”. Die Zeitung berichtete über eine neue Computermodellierungsstudie, die folgendes herausgefunden haben will:

Sonne erwärmt Erde anders als Treibhauseffekt. Die Folgen der Erderwärmung hängen offenbar stark von ihrer Ursache ab: Eine erhöhte Sonneneinstrahlung kann deutlich mehr Niederschläge verursachen als die gleiche Erwärmung durch Treibhausgase.

Das hört sich reichlich mysteriös an. Ein chinesisches Forscherteam hatte untersucht, wie es eigentlich dazu kommen konnte, dass es während der Mittelalterlichen Wärmeperiode in China vor 1000 Jahren mindestens genauso warm war wie heute. Ursache war eine erhöhte Sonneneinstrahlung, sagen die Wissenschaftler in ihrem Bericht. Nun soll es damals aber viel feuchter gewesen sein als heute. Nach einigem Hin- und Hergemodelliere meinten die Klimatheoretiker den Grund für die Niederschlagsdiskrepanz gefunden zu haben. Damals heizte die Sonne das Klima, heute aber das CO2. Ist damit nun wirklich ein weiteres Klimarätsel gelöst? Wohl eher nicht. Denn damit täte sich ein noch viel größeres Rätsel auf: Wie konnte eine starke Sonne vor 1000 Jahre die Wärme der Mittelalterlichen Wärmeperiode hervorrufen, während eine noch viel stärkere Sonne in der zweiten Hälfte des 20. Jahrhunderts klimatisch fast wirkungslos gewesen sein soll? Derzeit werfen Klimamodelle wohl doch mehr Fragen auf, als dass sie überzeugende Antworten geben könnten…

———————-

In der ganzen Klimadiskussion scheint man oft vergessen zu haben, die Geowissenschaftler nach ihrer Meinung zu fragen. Anstatt sich das Klimageschehen der Vergangenheit genau anzuschauen, um die Hauptmechanismen zu verstehen, modelliert man lieber mit klobigen Computern ziemlich blauäugig in die Zukunft hinein und schenkt den wackeligen Ergebnissen dann auch noch das vollste Vertrauen. Hätte man doch mal einen Geologen gefragt, könnte man meinen. Bereits vor etlichen Jahren hat der Geologe John Bluemle die geowissenschaftliche Perspektive der Klimaerwärmung in einem lesenswerten Artikel mit dem Titel “Global Warming: A Geological Perspective” beschrieben. Es lohnt sich auf jeden Fall, dort einmal hineinzuschauen.