Klimamodelle kriegen die Ozeanzyklen nicht in den Griff

Klimamodellierer denken gerne in langen Zeiträumen, am besten bis 2100, einige sogar bis 2300. Vielleicht weil diese langen Zeiträume etwas Magisches an sich haben. Ähnlich geht es den Geologen, wenn sie 300 Millionen Jahre zurückdenken. Andererseits gibt das Jahr 2100 auch Sicherheit. Denn keiner der heutigen Experten und Kritiker wird dann noch am Leben sein, so dass keine Gefahr der Nachprüfung besteht.

Einfacher ist es, wenn man kürzere Zeiträume betrachtet. Die IPCC-Klimamodelle sagen, dass es pro Jahrzehnt etwa um zwei Zehntel Grad wärmer werden soll. Nun wissen wir aber, dass es seit nunmehr 16 Jahren gar nicht mehr wärmer geworden ist (siehe “Neue HadCRUT-Daten belegen: Globale Temperatur seit 16 Jahren nicht mehr angestiegen“). Keines der IPCC-Modelle hat den aktuellen Erwärmungsstopp vorhergesagt. Das spricht nicht gerade für die Qualität dieser Modelle.

Eine Gruppe der Georgia Institute of Technology in Atlanta um Judith Curry hat nun einmal die neueste Generation der Klimamodelle unter die Lupe genommen, die auch im momentan entstehenden 5. IPCC Bericht Verwendung finden.  Ihre Analyse veröffentlichten sie im Mai 2012 in den Geophysical Research Letters.

Das Ergebnis ihrer Übeprüfung ist z.T. ernüchternd, wie aus der Kurzfassung des Artikels hervorgeht:

Die meisten Modelle überschätzen Trends. In den frühen Jahrzehnten [des Untersuchungszeitraums] postulieren die Modelle eine geringere Erwärmung (oder sogar Abkühlung) als die realen Messwerte, während die Modelle eine zu starke Erwärmung für die letzten Jahrzehnte angeben. Alle Modelle besitzen eine gute Vorhersagefähigkeit für die Oberfächentemperaturen im Indischen Ozean, Nordatlantik und westlichen Pazifik, wo externe Klimafaktoren und eine träge Klimavariabilität vorherrschen. Die Vorhersagefähigkeit im äquatorialen und nördlichen Pazifik hingegen ist sehr gering. Die atlantische Multidekaden-Oszillation (AMO) ist in den meisten Modellen mit einer gewissen Vorhersage-Genauigkeit enthalten. Die Pazifische Dekadenoszillation (PDO) besitzt in den meisten Modellen jedoch nur eine ziemlich schlechte Vorhersage-Genauigkeit.

Die Autoren kommen zu dem Schluss, dass die neue Generation von Klimamodellen noch immer nicht geeignet ist, den Klimaverlauf im Jahrzehnte-Maßstab in den Griff zu bekommen, obwohl dies eine der wichtigsten Herausforderungen der aktuellen Klimawissenschaften darstellt.

 

Siehe auch Artikel des NIPCC.
Abbildung oben rechts: Nils Simon (Hardern) / Lizenz: The creators of the software agreed to use it for free as long as the project's website ClimatePrediction.net is named.

                    

Es war einmal: Direktor der britischen Climate Research Unit (CRU) sagte klimatische Abkühlung voraus

Zum Abschluss unserer kleinen Modellierungsreihe werfen wir heute einen Blick zurück in die Frühphase der Klimawandelprognostik. Wir schreiben das Jahr 1974. Die globale Durchschnittstemperatur war seit einem Wärmemaximum um 1940 leicht abgefallen. Der Sommer in Deutschland fiel buchstäblich ins Wasser. Die mit Gletschern und Packeis bedeckte Fläche auf der nördlichen Halbkugel wuchs stetig an. Der Spiegel berichtete in einem Artikel „Katastrophe auf Raten“ damals (12.8.1974): 

Kommt eine neue Eiszeit? Nicht gleich, aber der verregnete Sommer in Nordeuropa, so befürchten die Klimaforscher, war nur ein Teil eines weltweiten Wetterumschwungs — ein Vorgeschmack auf kühlere und nassere Zeiten.

Deutschlands Urlauber packten die Koffer — und der Himmel öffnete seine Schleusen: Unter Blitz und Donner, Hagelschlag und Wolkenbrüchen setzte sich der große Ferien-Treck in Bewegung. […] Als, wieder eine Woche später, in West-Berlin, Bremen und Niedersachsen der Urlauber-Exodus begann, herrschte zwischen München und Hamburg Herbstkälte. Am 11. Juli schließlich, dem Ferienbeginn in Baden-Württemberg, geriet das Wetter vollends aus den Fugen. Die rasch aufeinanderfolgenden Schauer-Staffeln, Gewitterfronten und Sturmtiefs entglitten kurzfristig sogar der Kontrolle der Meteorologen. “Wir konnten”, so bekannte Dr. Elisabeth Kleissen vom Hamburger Seewetteramt, “nicht einmal für einen Zeitraum von 24 Stunden genaue Prognosen liefern” — “seit Jahren”, so erläuterte die Expertin, habe es über Deutschland keinen “so unangenehmen, unbeständigen Wettertyp” gegeben. Kürzer umschrieb, im Namen der Urlauber, die Münchner “Abendzeitung” die Lage — “Sauwetter, mistig’s”. Und “Bild” sorgte sich: “Geht etwa der ganze Sommer kaputt?” Er ist, kein Zweifel, kaum mehr zu retten. In Hamburg etwa gab es auch im Juli nur drei Tage ohne Regen, und nur an einem einzigen Tag stieg die Temperatur auf 25 Grad — “der Sommer”, witzelte die “Welt”, “fand an einem Montag statt”. […]

“Ganz hervorragend”, so Horst Laudien vom Reisebüro “Scharnow”" entwickelte sich unterdessen das Fluggeschäft: “Die Leute haben vom Regen die Nase voll” — sie flüchten nach Süden. “Die extremen Wettersituationen”, erläuterte “Touropa” -Sprecher Heinz Göckeritz, hätten in den letzten Jahren zugenommen. Alles in allem sei “halt das Wetter auch nicht mehr das, was es einmal war Eisberge wandern weiter südwärts. 

Zu diesem Allerweltsurteil sind die professionellen Wetterbeobachter schon längst gekommen. Spätestens seit 1960 wächst bei den Meteorologen und Klimaforschern die Überzeugung, daß etwas faul ist im umfassenden System des Weltwetters: Das irdische Klima, glauben sie, sei im Begriff umzuschlagen — Symptome dafür entdeckten die Experten nicht nur in Europa, sondern inzwischen in fast allen Weltregionen. Am Anfang standen Messdaten über eine fortschreitende Abkühlung des Nordatlantiks. Dort sank während der letzten 20 Jahre die Meerestemperatur von zwölf Grad Celsius im Jahresdurchschnitt auf 11,5 Grad. Seither wanderten die Eisberge weiter südwärts und wurden, etwa im Winter 1972/73, schon auf der Höhe von Lissabon gesichtet, mehr als 400 Kilometer weiter südlich als in den Wintern zuvor. 

Was war damals passiert? Der Erwärmungsstop ab 1940 (Abbildung 1) fällt ziemlich genau mit dem Abknicken der Pazifisch Dekadischen Oszillation (PDO), einem wichtigen Ozeanzyklus zusammen (Abbildung 2). Die kühlende Phase dieses Zyklus führte zum Absinken der Temperatur. Erst Ende der 1970er Jahre stieg die Temperatur dann wieder, als auch der PDO-Zyklus wieder kräftig nach oben ging (Abbildung 2).  (weiterlesen …)

IPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Den wahren Wert einer Vorhersage erkennt man am besten im ehrlichen sportlichen Wettkampf. Man nehme eine Vorhersage, die möglichst zehn, zwanzig oder mehr Jahre alt ist, und vergleiche sie einfach mal mit der in der Natur real registrierten Entwicklung. Wenn alles passt, hat sich das Modell das Vertrauen ehrlich verdient. Falls sich jedoch größere Diskrepanzen ergeben, sollte man sich ernsthaft Gedanken darüber machen, ob das Modell wirklich auf den richtigen Grundlagen basiert. Mit kosmetischen Korrekturen ist es da nicht getan. 

Bereits im Juni 2012 haben wir bei uns im Blog einen Gastbeitrag von Prof. Jan-Erik Solheim gebracht, der genau solch einen Theorie-gegen-Praxis-Vergleich unternommen hat (siehe „Was ist eigentlich aus James Hansens Temperaturvorhersage von 1988 geworden? Zeit für eine Überprüfung“). Das Resultat war ernüchternd: Die von der Hansen-Truppe 1988 modellierte Temperaturvorhersage lag um etwa 150% daneben (Abbildung 1). 

 

Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988)

 

Im April 2012 hatten wir uns zudem eine Temperaturprognose von Hartmut Graßl vorgenommen, die er 1990 aufgestellt hatte (siehe unser Blogartikel „Graßl’s Erwärmungsprognose von 1990 droht dramatisch zu scheitern“). Auch hier sieht es überhaupt nicht gut aus. Das Ergebnis der Analyse: Die Temperatur müsste in den kommenden 8 Jahren um satte 0,75°C ansteigen, damit Graßls Vision noch Wirklichkeit wird. Hier sollte wohl Einigkeit über alle Lager hinweg herrschen: Dies ist schlichtweg unmöglich. Eine schöne Zusammenschau der fehlgeschlagenen IPCC-nahen Prognosen ist übrigens auch auf C3 Headlines erschienen. 

Anstatt sich nun die notwendigen Gedanken über einen Modellierungsneuanfang zu machen (siehe z.B. Anmerkungen von Roger Pielke, Sr.), wursteln die IPCC-Forscher einfach weiter herum so wie bisher. Offensichtlich lassen sie sich auch nicht dadurch beunruhigen, dass die Modelle weder den Temperaturstop der vergangenen 10 Jahre reproduzieren – geschweige denn vorhersagen – konnten, noch die Klimageschichte der letzten Jahrtausende in den Griff bekommen. So werden wir wohl auch im kommenden 5. Klimazustandsbericht keine Verbesserung erwarten können, wie eine Pressemitteilung der französischen Forschungsorganisation CNRS aus dem Februar 2012 erahnen lässt: 

Die französische Wissenschaftsgemeinschaft für Klimafragen hat kürzlich wichtige Simulationen zum vergangenen und künftigen Klima im globalen Maßstab abgeschlossen. Diese aktuellen Daten bestätigen die Ergebnisse des vierten Sachstandsberichts (2007) des Weltklimarats (IPCC) über die kommenden Veränderungen bei der Temperatur und der Niederschlagsmenge. Dabei wurden 2 Extremmodelle berücksichtigt: Ein Temperaturanstieg von 3,5 bis 5°C bis 2100 oder im günstigsten Fall ein Anstieg um 2°C. Von der internationalen Wissenschaftsgemeinschaft zur Verfügung gestellt, werden diese Ergebnisse vom IPCC zur Erarbeitung ihres nächsten für 2013 geplanten Berichts verwendet. […] Es bestätigt sich eine Intensivierung des Wasserkreislaufs und ein schnelles Abschmelzen des arktischen Packeises, das im schlimmsten Fall im Sommer 2040 oder 2060, je nach Modell, verschwunden sein wird. Die Simulationen, die das Klima und den Kohlenstoffkreislauf miteinander in Verbindung setzen, liefern neue Antworten.  

Das Gleiche gilt übrigens wohl auch für die Klimawirkung der Sonne, die im neuen IPCC-Bericht offenbar sogar noch weiter heruntergeschraubt wird (siehe unser Blogartikel „Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !“). Entsprechend wird die Klimawirkung des CO2 jetzt weiter nach oben gesetzt. In einer Klimamodellierungsarbeit einer Gruppe um Gerald Meehl, die im Juni 2012 im Journal of Climate erschien, wird jetzt von einer langfristigen CO2-Klimasensitivität von 3,2°C ausgegangen, was 25% höher ist als im Vorgängermodell (siehe Diskussion auf der NIPCC-Webseite).  (weiterlesen …)

Neue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Ein Hauptproblem der diversen Klimamodelle ist die viel zu gering angenommene Klimawirkung der Sonne. Wie können die Temperaturen in den letzten 10.000 Jahren synchron zur Sonnenaktivität pulsiert haben, wenn doch die Sonne eigentlich kaum eine Rolle gespielt haben sollte? Dabei gibt es mindestens drei Stellschrauben, an denen die Modellierer nachbessern könnten. So werden derzeit keinerlei Solarverstärker berücksichtigt (siehe unser Buch „Die kalte Sonne, Kapitel 6). Weder der UV-Verstärker noch der Svensmark-Verstärker über die kosmische Strahlung und Wolken wurden bislang in Klimamodell-Szenarien umgesetzt.

Bei der dritten Stellschraube handelt es sich um eine Neubewertung der Sonnenaktivitätsschwankungen. Im Februar 2011 hatte ein schweizerisches Wissenschaftlerteam um Alexander Shapiro vom Davoser World Radiation Center im Fachmagazin Astronomy & Astrophysics eine Studie veröffentlicht, in der sie zeigen konnten, dass die Aktivität der Sonne in den letzten 400 Jahren wohl um den Faktor 6 stärker geschwankt hat als zuvor angenommen (siehe S. 65 in “Die kalte Sonne”). Was würde wohl passieren, wenn man die existierenden Klimamodelle mit diesem erhöhten solaren Änderungsbetrag füttert? Könnte die empirisch nachgewiesene signifikante Klimawirkung der Sonne vielleicht besser reproduziert werden als bislang möglich? Diese Frage scheint auch Hans van Hateren von der Universität Groningen umgetrieben zu haben. Er ließ nun eine Klimamodellierung mit der neuen schweizerischen Sonnenkurve durchlaufen, deren Ergebnisse er im Mai 2012 in Climate Dynamics veröffentlichte.

Van Hateren sieht die Klimaerwärmung von 1820 bis 1950 zu etwa 70% durch den Anstieg der Sonnenaktivität verursacht. Das ist interessant. Die nachfolgende Temperaturentwicklung interpretiert er hingegen überwiegend durch Treibhausgase und Aerosole. Hierbei verwendet er bezeichnenderweise den in der Branche beliebten Aerosol-Joker, um die Phase 1940-1977 abzukühlen. Den Effekt von Ozeanzyklen wie etwa der Pazifisch Dekadischen Oszillation sowie Zeitverzögerungen beim Aufbau von thermischen Gleichgewichten im trägen Klimasystem scheint er außer acht zu lassen. Hierdurch wird die Klimawirkung des CO2 an dieser Stelle wohl noch immer überschätzt. 

Trotzdem ist die Arbeit durchaus bemerkenswert. Van Hateren modellierte mit seiner stärkeren Sonnendnamyik nämlich auch die vergangenen 2000 Jahre (Abbildungen 1 und 2). Und oh Wunder, plötzlich kommen aus den Modellierungen Temperaturverläufe heraus, die sich parallel zu den historischen Temperaturrekonstruktionen und der Sonnenaktivität bewegen. Auch die Kleine Eiszeit kann auf diese Weise plötzlich gut mit der Solarflaute erklärt werden. Die von einigen Kollegen vorgeschlagene ominöse Vulkanausbruchsserie wird nun nicht mehr als Hauptauslöser benötigt. Die Mittelalterliche Wärmeperiode um 1000 n. Chr. und die Römische Wärmeperiode um das Jahr Null sind ebenfalls klar erkennbar (Abbildung 2). Der Autor führte auch Modellierungsversuche mit deutlich schwächeren Sonnenaktivitätsschwankungen durch. Diese erzielten jedoch eine viel schlechtere Übereinstimmung gegenüber den aus der Natur ermittelten Werten.  (weiterlesen …)

Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.).  (weiterlesen …)

Es ist nicht alles Gold was glänzt: Ein kleiner Streifzug durch die Welt der Klimamodelle

Über die fragwürdigen Qualitäten von Klimamodellen und Temperaturprognosen haben wir hier im Blog bereits mehrfach in Einzelbeiträgen berichtet (Artikelübersicht hier). Wir wollen das Thema nun in einer kleinen Serie vertiefen und hierzu einen kleinen Streifzug durch die aktuelle Literatur unternehmen. Sind die millionenschweren Rechenkästen ihre hohen Investitionskosten wert oder gibt es möglicherweise Gründe, sich zunächst auf die grundlegende Klärung des darin verwendeten Formelwerks zu konzentrieren? Kann man den Ergebnissen der Klimamodellierung uneingeschränkt vertrauen oder ist hierzu religiöse Überzeugung von Nöten?

Der bekannte Mathematiker und Chaosforscher Heinz-Otto Peitgen wurde 2006 in einem Spiegel-Interview gefragt, ob sich denn das Klima überhaupt modellieren ließe. Pleitgen, der mittlerweile Präsident der Bremer Jacobs University ist, antwortete damals:

„Jetzt reden wir von Glaubenssachen. Es gibt Leute, die glauben – und viele von denen sitzen in hoch bezahlten Positionen in sehr bedeutenden Forschungszentren -, dass man das Klima modellieren kann. Ich zähle zu denen, die das nicht glauben. Ich halte es für möglich, dass sich die mittlere Erwärmung der Ozeane in 50 Jahren mit einem bestimmten Fehler vorausberechnen lässt. Aber welche Wirkungen das auf das Klima hat, das ist eine ganz andere Geschichte.“

Mit dieser skeptischen Sichtweise ist Peitgen nicht allein. Im Jahr 2011 erschien im Journal of Forecasting eine Studie, in der die Ergebnisse von Klimamodellen gegen den Verlauf von Zufallsbewegungen („random walk“) verglichen wurden. Das erschreckende Resultat: Die getesteten Klimamodelle schnitten schlechter ab als die Zufallsbewegungen (siehe Ross McKitrick’s Artikel in der Financial Post, bzw. Beiträge auf WUWT und EIKE). Andrew Montford schlug aufgrund der mageren Leistungen der Klimamodelle vor, diese künftig als „Protomodelle“ zu bezeichnen, damit sie von effektiveren, wirklich prädiktiven Modellen unterschieden werden können. Auf diese Weise würden die großen Unsicherheiten der Klimamodelle in der Öffentlichkeit Erinnerung gehalten, was insbesondere für politische Entscheidungsträger wichtig ist.

Bei einem Treffen von Klimawissenschaftlern, das im Oktober 2011 in Boulder, Colorado, stattfand, zeigte sich, dass die Ergebnisse der diversen verwendeten globalen und regionalen Klimamodelle stark streuten. Die Gründe für diese Diskrepanzen wären allerdings noch zu schlecht verstanden und würden in der Diskussion noch zu wenig berücksichtigt geschweige denn kommuniziert. Diese Schlussfolgerung des Workshops wurde in einem Artikel der geophysikalischen Fachzeitung Eos festgehalten (siehe Beitrag von Roger Pielke, Sr.). Roger Pielke, Sr. weist zudem darauf hin, dass Modelle erst dann als glaubwürdig und verlässlich eingestuft werden können, wenn sie die Klimaentwicklung der Vergangenheit reproduzieren könnten. Bislang sind die Modelle jedoch diesen Beweis schuldig geblieben, insbesondere wenn man regionale Entwicklungen im Maßstab von einzelnen Jahren bis zu mehreren Jahrzehnten als Test heranzieht.

Noch immer sind die Vorgänge in der Atmosphäre offensichtlich viel zu komplex, als dass sie von Computern in realistischer Weise modelliert werden könnten. Einen Überblick zu diesem Problem gibt zum Beispiel Tim Ball in seinem Blog.

Natürlich möchte man von all diesen Schwächen der Klimamodelle am liebsten gar nichts hören, wenn man Anhänger der Klimakatastrophe ist. Daher geht die Modelliererzunft in der Öffentlichkeit gerne über diese Schwierigkeiten hinweg. Es sei alles viel zu kompliziert und als Normalmensch könne man das sowieso nicht verstehen. Trust me, I  am a Doctor!

Die Öffentlichkeit ist mittlerweile jedoch hellhörig geworden. In einer kürzlich veröffentlichten Studie wertete Karen Akerlof mit einigen Kollegen die vier wichtigsten nationalen Tageszeitungen der USA für den Zeitraum von 1998 bis 2010 und prüfte die Berichterstattung zum Thema Klimammodelle. Es zeigte sich, dass im Schnitt doppelt so viele negative Kommentare über die Leistungsfähigkeit von Klimamodellen vorkamen wie positive. In Umfragen gaben zudem knapp zwei Drittel der US-Bürger an, dass Klimamodelle entweder zu ungenau sind, um die Zukunft vorherzusagen, oder dass sie nicht wissen, ob man ihnen vertrauen kann.

Und was für Schlüsse zog das Team um Akerlof daraus? Der ORF berichtete die überraschende Sichtweise:  (weiterlesen …)

Wann wird’s mal wieder richtig Sommer?

Der Regen will kein Ende nehmen. So manche Gartenparty ist diesen „Sommer“ bereits den Bach runter gegangen. Und ekelig kalt ist es noch obendrauf. Statt luftigem Sommerkleid ist nun Daunenjacke angesagt.

GMX meldete am 16. Juli 2012:

Statt warmer Sommertage oder gar Hitzeperioden beschert der Sommer uns momentan klassisches Herbstwetter. Von wegen Freibad: Drachensteigen wäre gerade die bessere Option. Doch warum ist das Wetter so schlecht? Diplom-Meteorologe Dominik Jung vom Wetterportal “Wetter.net” weiß den Grund, warum sich noch keine längere Schönwetter- oder Hitzephase einstellen konnte: Bislang hat es das Azorenhoch nicht geschafft, zu uns vorzustoßen. “Mehr als zwei oder drei Tage freundliches Wetter am Stück waren daher nicht drin. Solange sich kein stabiles Hochdruckgebiet über Deutschland aufbaut, solange wird sich auch kein beständiges Sommerwetter einstellen.” Für die zweite Julihälfte gibt es leider wenig Hoffnung auf eine Änderung der Wetterlage. Hochsommer mit heißem und sonnigem Wetter können wir uns laut Jung für diesen Monat abschminken. Das Azorenhoch versuche zwar weiter, nach Deutschland vorzudringen, schaffe es aber voraussichtlich nur teilweise und für kurze Zeit, sich vom Atlantik bis nach Deutschland auszudehnen.

Auch die Bildzeitung machte dazu am 10. Juli 2012 eine Geschichte:

Der Sommer hat wohl eine Persönlichkeitsstörung. Er denkt, er sei der Herbst… Ach Sommer, wieso bist du nur so durcheinander? Du bringst durchnässte Klamotten statt Bikini-Bräune, Gänsehaut statt Sonnenbrand. [...] Bis zum 20. Juli bleibt es kühl, nass – einfach fies. Besonders hart soll es den Westen treffen. Rund ums Wochenende sind dort teilweise nur 15 Grad angekündigt, Regen inklusive. „Damit ist es dort genauso warm oder kalt wie im vergangenen Winter. Der brachte beispielsweise am Neujahrstag im Westen ebenfalls Höchstwerte bis 15 Grad“, sagt Diplom-Meteorologe Dominik Jung von wetter.net

Seltsam. Hatten uns nicht die Klimakatastrophisten vor staubtrockenen Sahara-Sommern gewarnt, die sich in einer nicht enden wollenden Hitzewellen-Serie manifestieren würden? Die Recklinghäuser Zeitung beleuchtete das Problem etwas näher in einem Artikel vom 13.7.2012:

Unter dem Motto „Trockener Sommer – ein Klima-Märchen?“ hat [der Diplom-Meteorologe Dominik Jung] mit Blick auf die düsteren Prophezeiungen, die Klimaforscher wie Mojib Latif gemacht haben, einen Blick ins Wetterarchiv der vergangenen zehn Sommer geworfen. Während der Professor vom Helmholtz-Zentrum für Ozeanforschung in Kiel, einer der Hauptmahner in Sachen Treibhauseffekt, auf Mitteleuropa schon vor Jahren heißere und trockenere Sommer zukommen sah, kann Meteorologe Jung diesen Trend nicht bestätigen. „Fakt ist: Die Sommer sind in den letzten zehn Jahren nicht wie angekündigt trockener, sondern bundesweit tendenziell sogar nasser geworden“ so Jung. Sein Regen-Resümee: Nach 2003 gab es keinen zu trockenen Sommer mehr. Fünf Sommer waren den Regenmengen nach durchschnittlich, drei Sommer zum Teil extrem zu nass: 2007, 2010 und 2011, letzterer lag bis zu 35 Prozent über dem Durchschnitt. „Und dieses Jahr sieht es nicht anders aus, zumal die richtig nassen Sommertage erst noch kommen werden“, droht Jung an.

Mojib Latif’s Irrtum ist dabei noch das kleinste Problem. Er lag ja bekanntlich auch schon mit seiner berühmten Winter-Prognose aus dem Jahr 2000 komplett falsch. Damals hatte er putzigerweise davor gewarnt, dass in Deutschland bald Schluss sei mit Schneeballschlachten, Skifahren und der geliebten Kälte:

“Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben”

Auch das ging schief, wie wir heute wissen (siehe S. 97-98 in unserem Buch „Die kalte Sonne“). Nein, das Hauptproblem ist, dass auch die so in den Himmel gelobten offiziellen Computermodelle den Regentrend komplett falsch vorausberechnet haben. Dabei wurden die theoretischen Modelle noch 2009 ehrfürchtig als allwissende Orakel präsentiert, deren Ergebnisse umgehend und kritiklos in Gesetzgebung und staatlichen Planungen umzusetzen seien. Der Focus schrieb damals (siehe auch Artikel auf notrickszone.com): (weiterlesen …)

Klimamodelle und Temperaturrekonstruktionen wollen einfach nicht zusammenpassen: Neue Studie vom Hamburger Max-Planck Institut für Meteorologie

In unserem Buch „Die kalte Sonne“ sowie in einer Vielzahl von Blogbeiträgen konnten wir zeigen, dass die aktuellen IPC-Klimamodelle nicht in der Lage sind, die Temperaturentwicklung der letzten 10.000 Jahre wiederzugeben. Während die globalen Temperaturen im Millenniumstakt parallel zur Sonnenaktivität um ein bis zwei Grad schwankten, besitzt die Sonne in den aktuellen Klimasimulationen nur eine fast zu vernachlässigende Klimawirkung. Wenn Modelle jedoch nicht in der Lage sind, die Vergangenheit zu rekonstruieren, sollte auch ihre Prognosefähigkeit für die Zukunft ernsthaft in Frage gestellt werden.

Aus diesem Grund kommentierten wir bereits im Februar 2012 die neuen Modellierungsergebnisse des Hamburger Max-Planck Instituts für Meteorologie (MPI-M) um Jochem Marotzke in kritischer Weise (siehe unser Blogartikel „Zwei Jahre umsonst gerechnet: Schade um die verlorene Rechenzeit“). Zudem berichteten wir im April 2012 über eine neue Studie unter Federführung des Bremerhavener Alfred-Wegener-Instituts, in dem gezeigt werden konnte, dass die aktuellen Klimamodelle nicht in der Lage sind, die Temperaturgeschichte der vergangenen 6000 Jahre zu reproduzieren (siehe unser Blogartikel „Neue AWI-Forschung bestätigt: Klimamodelle können die Temperaturen der letzten 6000 Jahre nicht reproduzieren“).

Nun haben sich die Hinweise auf grobe Unzulänglichkeiten in den Modellierungen weiter verhärtet. Ende Juni 2012 erschien im Fachmagazin Climate of the Past Discussions eine neue Studie eines Teams um Oliver Bothe vom MPI-M. Mithilfe von statistischen Methoden verglichen die Wissenschaftler Simulationsergebnisse aus Computermodellen die am MPI-M angefertigt wurden (Jungclaus et al. 2010) mit einer Temperaturrekonstruktion der nördlichen Hemisphäre (Frank et al. 2010). Dabei betrachtete das Team die letzten 1000 Jahre.

Die Ergebnisse waren ernüchternd. Die Kurven aus den verschiedenen Simulationsläufen streuten stark, und auch der Verlauf passte an vielen Stellen nicht mit der Temperaturrekonstruktion zusammen (Abbildung 1). Die Autoren um Oliver Bothe stellen in ihrer Arbeit fest:

„Die fehlende Übereinstimmung in unseren Analysen zeigt auf Basis der von uns untersuchten Datensätze an, dass für die Klimaentwicklung kein „Wahrheits-Status“ sowohl in räumlicher als auch in zeitlicher Hinsicht angenommen werden kann. Daher kann die Genauigkeit von Rekonstruktionen und Simulationen für vor-instrumentelle Zeiten noch immer nicht in verlässlicher Weise bewertet werden.“

Abbildung 1: Hockeystick-ähnliche Temperaturrekonstruktion für die nördliche Hemisphäre nach Frank et al. (2010) (schwarze Kurve) im Vergleich zu Simulationsresultaten (rot: schwache Sonne, blau: starke Sonne). Es ist keine gute Übereinstimmung festzustellen. Abbildung aus Bothe et al. 2012.

 

Die Modellierungsergebnisse passen also wieder einmal nicht zum rekonstruierten Temperaturverlauf, wie bereits vermutet. Ein interessantes Ergebnis, könnte man meinen. Schaut man sich jedoch die im Paper verwendeten Basisdaten etwas genauer an, wird schnell klar, dass es bereits mit den Grundannahmen der Arbeit massive Probleme gibt.  (weiterlesen …)