News und Termine

Judith Curry: Einführung in die Klimamodelle für Nichtfachleute

Mit großem Enthusiasmus und grenzenlosem Vertrauen stürzten sich die Klimawissenschaften vor 20 Jahren auf die Klimamodelle, die die komplexe Wirklichkeit bequem im Computer abbilden sollten. Schnell eroberte man die Öffentlichkeit und Politik. Die Ergebnisse der Rechenkästen wurden schnell als neue Wahrheit akzeptiert. Wie könnten solch sündhaftteure Rechner danebenliegen, undenkbar. Die Erwärmung der letzten 150 Jahre konnte ziemlich gut simuliert werden: CO2 steigt, daher steigt auch die Temperatur, ist doch klar. Kopfzerbrechen bereitete die kalte Phase 1940-1975. Wieso wurde es damals kühler, wenn das CO2 doch stieg? Die Modellierer griffen zum Aerosoltrick: Wie der Sandmann, ließen sie einfach kühlenden Staub in die Modelle rieseln, erst versuchte man es mit Schornsteinstaub, dann kühlte man mit Vulkanen. Die Staubkurven bog man sich so hin, dass sie zeitlich genau zur Abkühlung passten. Ein wenig unwohl war den Klimamodellierern dabei schon, denn hoffentlich kommt nicht jemand auf die verrückte Idee und möchte die harte Datengrundlage der Aerosolkurven überprüfen. Natürlich wollte das niemand, denn Zweifel waren nicht gestattet. Mit Ausnahme einiger Klimaskeptiker, lästige Querulanten. Die verfrachtete man schnell in die gekaufte Lobbyecke, schon hatte man sie lächerlich gemacht. Gefahr gebannt.

Wie lange kann man so ein Spiel eigentlich spielen? Es muss doch einige Kollegen geben, die dabei wissenschaftsethische Bedenken bekommen. Offener Protest wäre für die Karriere zu gefährlich. Also dokumentiert man die Fehlleistungen der Modelle lieber im Verborgenen. Tief, ganz tief im 5. IPCC-Bericht steht es dann geschrieben. Eine Einlassung, die explosiv ist, die aber kaum einer liest. Denn sie ist in schwer lesbaren technischen Text eingebettet, mit Fachbegriffen gespickt, dass nur Eingeweihte den Sinn entziffern können. Im Bericht steht also, dass die Klimamodelle die empirisch gut belegte Mittelalterliche Wärmeanomalie nicht reproduzieren können. Das Modell ist quasi durch die Fahrprüfung gefallen, fährt aber heute trotzdem mit 200 Sachen auf der Autobahn, immer auf der Überholspur mit Lichthupe. Ein Modell, das die Rückwärtsmodellierung nicht schafft, kann für die Zukunftsmodellierung nicht eingesetzt werden. Eine alte, solide Grundregel des Modellierungswesens. Wie lange dauert es, bis der Raser von der Piste genommen und der Führerschein ernsthaft kontrolliert wird?

—-

Judith Curry hat einen Leitfaden zum kritischen Umgang mit Klimamodelle geschrieben. Das pdf des Heftes kann bei der GWPF heruntergeladen werden. Hier die Kurzfassung:

Climate Models for the layman

There is considerable debate over the fidelity and utility of global climate models (GCMs). This debate occurs within the community of climate scientists, who disagree about the amount of weight to give to climate models relative to observational analyses. GCM outputs are also used by economists, regulatory agencies and policy makers, so GCMs have received considerable scrutiny from a broader community of scientists, engineers, software experts, and philosophers of science. This report attempts to describe the debate surrounding GCMs to an educated but nontechnical audience.

Key summary points:

  • GCMs have not been subject to the rigorous verification and validation that is the norm for engineering and regulatory science.
  • There are valid concerns about a fundamental lack of predictability in the complex nonlinear climate system.
  • There are numerous arguments supporting the conclusion that climate models are not fit for the purpose of identifying with high confidence the proportion of the 20th century warming that was human-caused as opposed to natural.
  • There is growing evidence that climate models predict too much warming from increased atmospheric carbon dioxide.
  • The climate model simulation results for the 21st century reported by the Intergovernmental Panel on Climate Change (IPCC) do not include key elements of climate variability, and hence are not useful as projections for how the 21st
  • century climate will actually evolve.

Climate models are useful tools for conducting scientific research to understand the climate system. However, the above points support the conclusion that current GCMs are not fit for the purpose of attributing the causes of 20th century warming or for predicting global or regional climate change on timescales of decades to centuries, with any high level of confidence. By extension, GCMs are not fit for the purpose of justifying political policies to fundamentally alter world social, economic and energy systems. It is this application of climate model results that fuels the vociferousness of the debate surrounding climate models.

 

Wie funktionierte das Klima im Eozän?

Das frühe Eozän vor 50 Millionen Jahren wird immer gerne als Beweis dafür angeführt, dass das CO2 ein äußerst stark erwärmendes Klimagas wäre. Wenn man sich dann etwas tiefer in die Literatur einliest, wird schnell klar, dass hier noch sehr viele Fragen offen sind. Unter anderem können viele Modelle die Eozän-Hitze nur unter Annahme extrem hoher CO2-Konzentrationen modellieren, die jedoch fernab der Wirklichkeit liegen, wenn man sich die geologischen CO2-Rekonstruktionen betrachtet. Henrik Carlson und Rodrigo Caballero von der Universität Stockholm haben nun in einem Artikel eine Alternative ausgelotet: Wie wäre es, wenn ein Großteil der Erwärmung nicht auf das Konto vom CO2, sondern durch Ausdünnen der Wolken verursacht worden wäre? Eine spannende Geschichte, die starken Einfluss auf die wichtige Frage der CO2-Klimasensitivität hat. Hier der Abstract aus Climate of the Past Discussions, erschienen Mitte Februar 2017:

Atmospheric circulation and hydroclimate impacts of alternative warming scenarios for the Eocene
Recent work in modelling the warm climates of the Early Eocene shows that it is possible to obtain a reasonable global match between model surface temperature and proxy reconstructions, but only by using extremely high atmospheric CO2 concentrations or more modest CO2 levels complemented by a reduction in global cloud albedo. Understanding the mix of radiative forcing that gave rise to Eocene warmth has important implications for constraining Earth’s climate sensitivity, but progress in this direction is hampered by the lack of direct proxy constraints on cloud properties. Here, we explore the potential for distinguishing among different radiative forcing scenarios via their impact on regional climate changes. We do this by comparing climate model simulations of two end-member scenarios: one in which the climate is warmed entirely by CO2, and another in which it is warmed entirely by reduced cloud albedo (which we refer to as the low CO2-thin clouds or LCTC scenario) . The two simulations have almost identical global-mean surface temperature and equator-to-pole temperature difference, but the LCTC scenario has ~ 11 % greater global-mean precipitation. The LCTC simulation also has cooler midlatitude continents and warmer oceans than the high-CO2 scenario, and a tropical climate which is significantly more El Niño-like. We discuss the potential implications of these regional changes for terrestrial hydroclimate and vegetation.

——————-

Sie haben schon einmal von Watergate gehört? Na klar. Und Sie kennen als Klimainteressierter natürlich auch die Climategate-Episode. Nun gibt es nicht nur bei den Klimawissenschaften Aktivisten und Interessenskonflikte, sondern auch bei der Bienenzucht. Genau, Sie haben richtig gehört, Bienenzucht. Der dazugehörige Skandal heißt entsprechend Beegate. Interesse geweckt? Im Risk Monger-Blog können Sie den Fall nachlesen, mit vielen Parallelen und sogar Berührungspunkten zur Klimadiskussion:

BeeGate

Almost ten years ago, when there were indications of stresses on honeybee populations (known as colony collapse disorder – CCD), different activists were jockeying for the right to claim this crisis for their campaigns. Climate activists wanted to show bees were suffering because of warmer weather; biodiversity campaigners saw land-use issues as the source for the crisis; anti-GMO stalwarts wanted us to know there was something unknown in the pollen; anti-EMF  fear-mongers wanted to highlight the confusion bees suffered due to our love of mobile technology. Nobody mentioned the main causes (cold winters and Varroa mite) … seriously, who would donate to that???

In an early blog, the Risk-Monger had predicted that the anti-pesticides lobby would win this issue as their own … and how right he was! It doesn’t matter that there was no science behind the bees and pesticides campaigns; it doesn’t matter that the campaigners lied and fear-mongered their way to the top; it doesn’t matter that farmers, the environment and bees suffered from the consequences of their self-serving dogmatic bias. The organic food lobby, that funded these cosmopolitan zealots, focused the campaign on the most advanced, least detrimental line of crop protection products: neonicotinoids (neonics)

Watching this crisis unfold, the Risk-Monger saw an enormous amount of unethical, unscientific and unacceptable behaviour from the save-the-bees groups. This is the story of BeeGate – how activist scientists and seasoned campaigners used Age of Stupid tactics to trick policymakers, seduce the media and terrify the public – litigious liars and lamentable fear-mongers have caused incomprehensible damage to the public trust in dialogue, science and policy. Winning might be everything to these activists, but destroying food security and trust in policy and science hardly merits such hypocrisy!

In 2014, I leaked a confidential activist strategy document that showed how a group of anti-pesticide scientists aligned with the IUCN conspired to ban neonics – putting policy first and looking for evidence later. That was only the first part of the scandal. I then showed in Part 2 how the scientists were conflicted and funded by interest groups that would benefit from an increase in organic food sales. After that I revealed how activists worked their way onto the EFSA Bee Risk Assessment Working Group to game the RA process to ensure that the available field trial data would not comply, leading to EFSA’s limited advice that would result in a precautionary ban on neonicotinoids.

Weiterlesen im Risk Monger-Blog

——————-

Der Newsletter ‘Klarsicht’ ist im Februar 2017 mit seiner zweiten Ausgabe erschienen, in der es vor allem um das vorindustrielle Klima der Vorzeit geht. Lesenswert! Das kostenlose pdf des Heftes finden Sie hier.

 

Bundesrechnungshofkritik an Energiewende, gefährliche Dunkelflaute und Klimakiller Elektroauto

Der Bundesrechnungshof sieht große Probleme bei der Umsetzung der Energiewende, wie der Deutschlandfunk am 12. Januar 2017 meldete:

Organisationsmängel: Rechnungshofkritik an Energiewende
Mitnahmeeffekte und ineffiziente Förderprogramme – das sind nur einige Probleme, die der Bundesrechnungshof bei der Umsetzung der Energiewende sieht. Damit die finanziellen Auswirkungen nicht höher ausfallen als geplant fordert der Bundesrechnungshof einen jährlichen Monitoringbericht zur Erfolgskontrolle.

Bereits am 21. Dezember [2016] hat der Bundesrechnungshof seinen Bericht über die Maßnahmen zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft an den Haushaltsausschuss der deutschen Bundestags übersandt. Da der Bericht im Haushaltsausschuss noch nicht beraten wurde, darf er vom Rechnungshof auch noch nicht veröffentlicht werden. Dabei hat der unserem Hauptstadtstudio vorliegende Bericht tatsächlich einiges an Brisanz und fordert das Wirtschaftsministerium zu deutlichen Veränderungen in der Steuerung und Erfolgskontrolle der Energiewende auf, damit die Kosten dafür nicht aus dem Ruder laufen.

[...]

Erfolgskontrollen, so mahnt der Rechnungshof, seien bei der Vielfalt der Programme zwingend notwendig, sonst würden ineffiziente Förderprogramme aufgesetzt, verlängert oder gar aufgestockt. Der Bundesrechnungshof sieht deshalb das Risiko, dass die Energiewende teurer werden könnte als bislang veranschlagt. Und nicht zuletzt würden die Fragen nach der Versorgungssicherheit und der Bezahlbarkeit erkennbar weniger berücksichtigt, als die Fragen der Umweltverträglichkeit der Programme.

Weiterlesen beim Deutschlandfunk

————

Daniel Wetzel berichtete am 7. Februar 2017 in der Welt über eine bedenkliche Schwächephase der Erneuerbaren Energien, die dem einen oder anderen Energieplaner sicher kalte Schauer über den Rücken gejagt hat:

Kaum Ökostrom: Die „Dunkelflaute“ bringt Deutschlands Stromversorgung ans Limit
In wenigen Monaten ist es wieder soweit: Am Pfingstsonntag werden erneuerbare Energien aus Wind- und Solarkraft wohl über Stunden hinweg fast den gesamten deutschen Strombedarf decken können. Energiewendeprotagonisten und Grünen-Politiker werden dann wie stets in dieser Jahreszeit die Erfolge der Ökostromrevolutionpreisen – und die schnellstmögliche Abschaltung aller Kohlekraftwerke fordern. In den langen, dunklen Wintermonaten allerdings schweigen die Lobbyisten der erneuerbaren Energien lieber. Aus gutem Grund, wie ein Blick auf die Erzeugungsdaten der zurückliegenden Wochen zeigt. Im Januar fielen die deutschen Ökostromanlagen wochenlang als Energielieferanten fast völlig aus. In der ersten Januarwoche und dann wieder von der Monatsmitte an stellten rund 26.000 Windkraftanlagen und mehr als 1,2 Millionen Solaranlagen ihre Arbeit für lange Zeit ein. Verantwortlich war eine sogenannte Dunkelflaute: Ein für diese Jahreszeit typisches Hochdruckgebiet sorgte für zehntägige Windstille und Nebel – während zugleich der Strombedarf in Deutschland stark anstieg, weil es ziemlich kalt war.

Weiterlesen auf welt.de

————

Elektroautos als Sauberfahrzeug für Klimaschützer? Eine Milchmädchenrechnung, denn der Energieverbrauch der Elektrolimousinen ist deutlich höher als die Benzin- und Dieselkollegen. Und da der Strom bekanntlich zwar aus der Steckdose kommt, jedoch in vielen Fällen aus Kohlekraftwerken, stellt sich der exakte Gegeneffekt ein, wie Dieter Seifried am 20. Februar 2017 in der Frankfurter Rundschau vorrechnete:

Klimawandel: Klimakiller Elektroauto
Fahren mit Strom gilt als gut für die Umwelt. Aber wer das glaubt, sitzt einer Lüge auf, denn mit jeder Zulassung eines Elektroautos steigt die CO2-Emission. [...] Nur mit dem Umstieg von Verbrennungsmotoren auf Elektrofahrzeuge ist für das Klima in den nächsten zwei Jahrzehnten nichts gewonnen. Im Gegenteil: Mit jeder Neuzulassung eines E-Fahrzeugs steigen die CO2-Emissionen an – selbst wenn der ambitionierte Umweltschützer und Autofahrer sein Fahrzeug an eine Steckdose mit Öko-Strom hängt. Warum ist das so? Schauen wir zunächst auf die Messergebnisse des letzten ADAC-Eco-Tests (12/2016), der für sich in Anspruch nimmt, auf einem realitätsnahen Fahrzyklus zu basieren, und vergleichen die dort ermittelten Verbrauchswerte. Im nächsten Schritt errechnen wir die CO2-Emissionen von Benzin-, Diesel- und E-Fahrzeugen. Die drei Elektrofahrzeuge auf der ADAC-Eco-Liste, die im Ranking vorne stehen, verbrauchen im Durchschnitt 20,5 Kilowattstunden (kWh) pro 100 Kilometer, der beste Benziner 5,1 Liter und die effizientesten Diesel 4,2 Liter pro 100 Kilometer. Rechnet man diese Verbräuche in CO2-Emissionen um, so kommt der Stromer auf 18,5 Kilogramm CO2 pro 100 Kilometer, der Benziner auf 12,1 und der Diesel auf 11,1 Kilogramm pro 100 Kilometer.

Ganzen Artikel in der Frankfurter Rundschau lesen.

Lesen Sie dazu auch den folgenden Powerline-Artikel von Martin Karo, der den Tesla ökologisch ein Stück weit entzaubert:

Martin Karo: How green was my Tesla

Reader Martin Karo is a Philadelphia attorney. Mr. Karo takes a look at the environmental theme that powers the Tesla. Warning: there will be math. He writes:

Teslas grind my gears. Well, at least their owners do. Every time, it’s a variation on an old “fighter pilot” joke: How can you tell when a Tesla owner is in the room? Answer: He tells you. Like the fighter pilot, he (seemingly always a he; must be the tech thing) is on a mission: to make sure you know he owns one, and you don’t. And he’s a better man than you, because he’s saving the planet, and you’re not. A Tesla has the dual advantages, for the condescending set, of being both terribly expensive and highly efficient.

While one can’t argue the expense, or the cachet – de gustibus non est disputandum — is the Tesla really efficient? Electricity has to be generated somehow, and in the US, the vast majority of that generation is via hydrocarbon fuels – coal or natural gas. And most of what isn’t hydrocarbon is nuclear. And basic physics dictate it takes energy to convert energy from one form to another, and it takes energy to move energy, and frictional or resistive losses occur all along the way, and all other things being equal, it takes the same amount of energy to move 4500 pounds, whether you do so by electric motor or gasoline; the only difference is efficiency loss.

Hier weiterlesen.

 

ZDF-Nachrichten: Rentierzüchter in Lappland beklagen, dass die Winter immer länger und härter werden

Am 27. Februar 2017 zog der Deutsche Wetterdienst (DWD) ein Fazit des Februar-Monats:

Deutschlandwetter im Februar 2017

Februar 2017 war deutlich zu warm und nur durchschnittlich sonnig

Der Februar 2017 begann zunächst im Nordosten unter Hochdruckeinfluss noch kalt. Den Süden und Westen streiften aber bereits Tiefausläufer mit milderer Luft. Ab Mitte des Monats befanden sich dann sämtliche Landesteile in einer niederschlagsreichen, kräftigen westlichen Strömung. Diese erreichte am 23. Februar mit Sturmböen vor allem im Westen und frühlingshaften Temperaturen im Süden ihren Höhepunkt. Insgesamt verlief der Februar deutlich zu warm mit nahezu ausgeglichenem Niederschlag und Sonnenschein. Das meldet der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner rund 2 000 Messstationen.

Weiterlesen beim DWD.

Der kürzliche Februar viel zu warm! Man kann sich das plastisch vorstellen: Eine wilde Temperaturspitze schießt aus den sonst üblichen Temperaturen. Wieder einmal der Beweis, dass es seit Jahren nur eine Richtung gibt: Immer heißer und heißer und heißer. Eine Graphik mit dem Temperaturverlauf stellte der DWD zusammen mit der Pressemiteilung nicht zur Verfügung. Warum eigentlich, die Leute würden den Februar-Hitzetrend doch sicher ganz gerne in Chart-Form anschauen wollen? Schade, dass der DWD hier mit Abbildungen knausert. Dankenswerterweise greift Josef Kowatsch dem DWD unter die Arme und erstellte für uns auf Basis der offiziellen DWD-Werte die Temperaturentwicklung der letzten 30 Jahre:

 

Abbildung: Entwicklung der Februar-Temperaturen der letzten 30 Jahre in Deutschland. Daten DWD, Graphik: Kowatsch.

 

Die Verwunderung ist groß: Von wegen “deutlich zu warm”. Der Klimatrend der letzten 30 Jahre zeigt für den Februar klar nach unten. Der diesjährige Ausschlag nach oben ist nichts Ungewöhnliches und hat sich in den letzten 3 Dekaden regelmäßig ereignet. Eine schwache Leistung des DWD, die Bürger verbal so in die Irre zu führen. Kein Hinweis auf den 30-Jahrestrend, keine Graphik, kein Kontext. Eine höchst fragwürdige Politisierung des Wetterberichts…

——————-

Josef Kowatsch wies uns auf eine weitere Kuriosität hin. Am 3. März 2017 wurde in den ZDF-Nachrichten um 16 Uhr dem staunenden Zuschauer vermeldet, dass wegen des Klimawandels die Lappländer (Samen) um ihre Rentierherden fürchten. Die wären am Verhungern, weil der Schnee seit einigen Jahren viel länger liegen bliebe. Offenbar werden die Winter auch in Lappland länger, bleiben die Böden fester gefroren mit mehr Schnee; das Frühjahr beginnt später. Die entsprechende Passage in der Sendung können Sie noch für einige Tage online anschauen (Beginn bei 12:10 min).

——————-

Am 9. Februar 2017 stellte Der Standard kostlenlose Werbefläche für einen aktivistischen Klimaalarmartikel zur Verfügung. Ob der Redaktion bewusst war, dass die angeblich so neutralen Aussagen von einem “Think Tank” stammten? Es ging wieder mal um Eisbären. Sie würden keine Jungen mehr kriegen, weil es kein Meereis gäbe und sie nichts zu essen hätten. Dabei hat die Wissenschaft bereits festgestellt, das Eisbären vielseitige Esser sind und das Eis keine große Rolle spielt. Aktivist Sepp Friedhuber plaudert munter von einem sich immer mehr erwärmendem Golfstrom (obwohl doch gerade wieder aus der Rahsmtof-Ecke tönte, dass der immer schwächer würde). Ob Friedhuber überhaupt weiß, wovon er spricht? Hier die Entwicklung der ozeanischen Wärme im Nordatlantik, man beachte den markanten Abkühlungstrend, der seit 2007 anhält:

Abbildung:  Entwicklung der ozeanischen Wärme im Nordatlantik bis 700m Tiefe während der letzten 60 Jahre. Graphik: Climate4You.

 

Hier die echten Eisbären-News, garantiert propagandafrei:

——————-

Lesenswerte Kolumne von Gunnar Schupelius am 21. Februar 2017 in der BZ:

Die Kirche möchte, dass wir gegen den Klimawandel fasten. Was soll das?

[...] Wie kann man nun beim Fasten CO2 vermeiden? Tipps dazu gibt die Kirche in einer kleinen Broschüre mit dem Titel „So viel du brauchst …“ (http://bit.ly/2lb8tCH). Dort ist vom Fasten im strengen Sinne nicht die Rede. Für jede Woche bis Ostern gibt es aber spezielle Tipps. In der ersten Woche zum Beispiel sollen Christen „einen Umweg zum Bioladen“ gehen und „dort einkaufen“. In der zweiten Woche sollen sie „ein E-Bike ausleihen“, in der dritten „kaputte Kleidung nähen“, außerdem „einen Tag ohne Geldbörse und Einkauf leben“. In der vierten Woche wird empfohlen, den Kuchen mit der Hand zu kneten und „Terrassen mit Heizpilzen zu meiden“. In der fünften sollen sich die Christen fragen, ob ihre Bank ein „Klimakiller“ ist.

Ganze Kolimne in der BZ lesen.

 

 

Oberverwaltungsgericht Magdeburg hat entschieden: Umweltbundesamt darf Journalisten anschwärzen

In den USA werfen Regierungsstellen unliebsamen Journalisten „Fake News“ vor, um sie zu diskriminieren. In Deutschland wäre das unmöglich? Irrtum. Das Umweltbundesamt (UBA) geht mit Rufmordmethoden auf Journalisten los. Doch leider gibt es hierzulande kein Gericht, das die Pressefreiheit davor schützt, wie jetzt bekannt wurde. Das Oberverwaltungsgericht (OVG) Magdeburg hat in der Sache „Miersch gegen Bundesrepublik Deutschland“ (Aktenzeichen 3 L 44/16.Z) eine Berufung gegen das Urteil des Verwaltungsgerichts Halle aus dem Jahr 2015 abgelehnt. Miersch hatte gegen seine Nennung in einer Broschüre des UBA mit dem Titel „Und sie erwärmt sich doch“ geklagt. Darin werden er und einige andere Journalisten und auch Wissenschaftler, darunter auch Sebastian Lüning und Fritz Vahrenholt, als „Klimawandelskeptiker“ bezeichnet, deren Publikationen „gegen den Kenntnisstand der Wissenschaft“ gerichtet sind. An anderen Stellen des Textes werden die Machenschaften von Klimawandelskeptikern als unlauter dargestellt. Auch wird der Vorwurf erhoben, Klimawandelskeptiker seien bezahlte Lobbyisten der Ölindustrie.

Das OVG Magdeburg schloss sich nun dem Urteil des Verwaltungsgerichts Halle voll und ganz an und erklärte, dass das Umweltbundesamt mit der Broschüre einem „postfaktischen Diskurs“ entgegenwirkt. Mit „postfaktischen“ sind somit die Artikel von Miersch (damals Ressortleiter Wissenschaft beim FOCUS) und der anderen vom UBA angeschwärzten Journalisten und Wissenschaftler gemeint. Dieser Beschluss ist letztinstanzlich. Beim Beginn des Verfahrens 2013, war ich, wie fast alle Beobachter, davon überzeugt, dass das Vorgehen des UBA vor Gericht nicht bestehen wird. Jetzt hat die Behörde juristisch gesiegt.

Als die Broschüre 2013 herauskam, löste dies eine Welle des Protestes aus. „Eine staatliche Behörde hat nicht die Aufgabe, Kritiker der Regierungspolitik als Abweichler zu brandmarken,“ erklärte der Deutsche Journalisten-Verband (DJV) beim Erscheinen. Der Vorsitzende forderte den damaligen Bundesumweltminister Peter Altmaier auf, „die Broschüre in der vorliegenden Form nicht weiter zu verbreiten und sich bei den betroffenen Kollegen zu entschuldigen.“ Altmeier entschuldigte sich bei Fritz Vahrenholt in einem telefonischen Gespräch, wollte aber die Broschüre nicht zurückziehen. Siehe unseren Beitrag “Ein Skandal schwappt nach oben: Minister Altmaier äußert sich zur fragwürdigen UBA-Broschüre, will aber nicht verraten, ob er die Publikation selber für gut und richtig hält“. So wird das Traktat bis heute vom Umweltbundesamt verbreitet. Wie andere Beobachter auch, war der DJV jedoch zuversichtlich, dass die Gerichte das UBA in seine Grenzen verweisen werden.

Die meisten großen deutschen Zeitungen und Zeitschriften kritisierten damals das UBA scharf  für diese denunziatorische Broschüre. Dabei machte es erfreulicherweise keinen Unterschied, welche Haltung die Redaktionen in der Klimadebatte vertraten. Martin Schneider, Vorsitzender der Wissenschafts-Pressekonferenz (WPK), erklärte:

„Es ist nicht Aufgabe einer staatlichen Institution festzulegen, welche Meinungen geäußert werden dürfen und welche nicht.“  

Im Bundestag kritisierten mehrere Abgeordnete das Umweltministerium für die beleidigende Broschüre seiner Behörde. Erkenntnisse in Frage zu stellen, sei eine Kernaufgabe der Wissenschaft, sagte der Vize-Fraktionschef der Unionsfraktion, Arnold Vaatz, und bezeichnete die UBA-Broschüre als „Gipfel der Unverschämtheit.“ Klimaforscher Prof. Hans von Storch nannte die UBA-Broschüre: „Unfug.“ Diese und viele andere Proteste konnten das UBA nicht zum Einlenken bewegen. Es vertreibt weiterhin die Broschüre und darf dies ab jetzt auch mit höchstrichterlichem Segen tun.

Ich kenne die meisten von Mierschs Artikeln und seine Bücher, die er gemeinsam mit Dirk Maxeiner verfasste (Maxeiner gab den Rechtsweg auf, als die Kosten zu drückend wurden). Darin ist definitiv kein Abweichen von den messbaren Fakten und vom Kenntnisstand der Wissenschaft zu finden. In seinen Artikeln und Büchern ließ Miersch Wissenschaftler zu Wort kommen, die aus dem Kenntnisstand der Wissenschaft andere Schlüsse ziehen als die Bundesregierung. Dabei hat er sich nie selbst als Wissenschaftler aufgespielt und immer die journalistische Distanz bewahrt. Dafür wurde er von einer Bundesbehörde öffentlich angeprangert und muss durch den jetzt erfolgten Gerichtentscheid die immensen Kosten des Verfahrens tragen.

Übrigens lohnt sich ein Blick auf die Autoren der UBA-Broschüre, die ja so tun, als seien sie die kompetenten Schiedsrichter darüber, was der Kenntnisstand der Wissenschaft sei. Hauptautor ist UBA-Fachbereichsleiter Harry Lehmann. Er gehört dem „Verein der Freunde und Förderer des Potsdam-Instituts“ an. Laut Satzung soll der Verein das PIK „vor allem durch Beschaffung von Mitteln“ unterstützen. Das UBA hat nach FOCUS-Recherchen von 2007 bis 2013 ein Dutzend Forschungsaufträge in Höhe von insgesamt rund zwei Millionen Euro an das PIK vergeben und diese nicht – wie vorgeschrieben – europaweit ausgeschrieben. Die Vergabepraxis des UBA sei „eine massive und auffallend häufige Verletzung des Vergaberechts“, urteilt Vergaberechtsexperte Heiko Höfler. Das UBA verteidigt die umstrittenen Zuwendungen, sie seien unter eine „vergaberechtliche Ausnahmeregelung“ gefallen. Höfler überzeugt dies nicht: „Das ist nach den Vertragsbedingungen des Amtes gar nicht vorgesehen. Es spricht viel dafür, dass es sich um eine Schutzbehauptung handelt.“  Harry Lehmann hat lange Jahre für den Lobbyverband „Eurosolar“ gearbeitet und es dort bis zum europäischen Vizepräsidenten gebracht. Aus dieser Position heraus wechselte er dann 2007 in eine Spitzenstellung als Abteilungsleiter in das Umweltbundesamt.

Auch unter den anderen drei Autoren ist kein Klimawissenschaftler. Mit-Autor Dr. Klaus Müschen ist Leiter der Abteilung Klimaschutz und Energie des UBA. Er studierte Elektrotechnik und Sozialwissenschaft an der Universität Hannover und arbeitete als Hochschulassistent für Elektrotechnik an der Universität Hamburg. Später leitete er das Referat für Klimaschutz, Luftreinhaltung und Lokale Agenda 21 in der Senatsverwaltung für Stadtentwicklung Berlin. Dr. Steffi Richter arbeitet in der von Klaus Müschen geleiteten UBA-Abteilung. Auch über sie kann man im  Internet keine klimawissenschaftlichen Publikationen finden. Dr. Claudia Mäder trat als Autorin des beim UBA kostenlos bestellbaren Kinderbuches „Pia, Alex und das Klimaprojekt – Eine abenteuerliche Entdeckungsreise“ in Erscheinung. Auch hier finden sich keine Hinweise auf eine naturwissenschaftliche Tätigkeit. Das sind die Leute, die die glauben, sich als Meinungspolizei in Sachen Klima aufführen zu dürfen. Leider ist diese Hybris jetzt durch ein Gericht bestätigt worden.

 

Fritz Vahrenholt: Energiewende wichtiger als der Schutz der Natur?

Die Basler Zeitung befragte am 18. Februar 2017 Fritz Vahrenholt zur Energiewende:

——–

«Das ist doch absurd!»

Der frühere Umweltpolitiker und Energiemanager Fritz Vahrenholt über die deutsche Energiepolitik und die Schweiz.

BaZ: Sie haben die deutsche Energiewende als «Desaster» bezeichnet. Wieso?
Fritz Vahrenholt: Zunächst einmal hat die deutsche Regierung nach dem Tsunami in Japan innerhalb eines Wochenendes entschieden, auf die Kernenergie zu verzichten, die bis dahin die Grundlast für die deutsche Industrie erzeugt hat. Die Regierung will seither diese gesicherte Energie durch schwankenden Strom aus Sonne und Wind ersetzen. Dass das nicht vernünftig ist, weiss eigentlich jeder.

Ich nicht. Erklären Sie es mir.
Wir haben 50 bis 100 Tage und manchmal ganze Wochen im Jahr mit Windstille und wenig Sonne. Dann produzieren diese weniger als zehn Prozent des Bedarfes. Und wenn der Wind bläst und die Sonne scheint, ist zu viel Strom im Netz, und da die Speicherkapazitäten fehlen, schalten wir Windkraftwerke ab. Wir haben ein sich zuspitzendes Problem – entweder zu viel oder zu wenig Strom.

Warum spitzt sich das Problem zu?
Weil mit jedem Zubau an solchem «Flatterstrom», durch jedes Windrad und jede Solarzelle, die Schwankungen erhöht werden.

Beginnen wir ganz vorne: Kernenergie hat doch keine Zukunft.
So hat es die Politik entschieden, obwohl es keine ernsthaften Beanstandungen und Befürchtungen hinsichtlich der deutschen Kernkraftwerke gab.

In der Schweiz ist vorgesehen, dass die Kernkraftwerke weiterlaufen, solange es die Sicherheit erlaubt.
Das ist klug. Damit gewinnen Sie Zeit, Zeit, bis sich vielleicht kostengünstige Speichertechnologien ergeben.

Und der strahlende Abfall?
Die Endlagerthematik ist völlig unabhängig davon zu lösen, ob die Kraftwerke 30, 40 oder 50 Jahre laufen. Nach Fukushima haben nur die Schweiz und Deutschland eine Energiewende beschlossen. Sogar in Japan setzt man wieder auf Kernkraft und Kohle. 2022 wird das letzte deutsche Kernkraftwerk abgestellt und es gibt dann keine gesicherte Versorgung mehr im Süden Deutschlands. Wir hängen zunehmend von den Naturkräften ab, wenn wir dann auch noch auf Kohle- und Gaskraftwerke verzichten wollen.

Wieso ist das schlecht?
Ich habe nichts gegen Wind- und Solarenergie, wenn sie denn wirtschaftlich ist und eine gesicherte Stromversorgung gewährleistet. Aber das funktioniert erst, wenn das Speicherproblem gelöst ist. Sie müssen die Naturkräfte zu einer zuverlässigen Versorgung machen können.

Es braucht einfach genügend Solar- und Windkraftwerke.
Nein, selbst wenn wir die Windkapazität verdreifachen, bleibt bei Flaute die Erzeugung nahe null. Für die Sonne gilt Ähnliches, insbesondere nachts. Windkraftanlagen erzeugen nur so viel Strom, als würden sie gerade einmal 90 Tage im Jahr mit voller Leistung laufen. Bei Fotovoltaik sind es 35 Volllasttage. Daraus erkennt man schon, dass es ohne Speicherung nicht gelingen kann, eine sichere Versorgung zu gewährleisten.

Warum ist das so wichtig?
Sie müssen sich immer vor Augen halten, was das bestehende System leistet. Immer wenn irgendwo ein Bedarf an Strom entsteht, muss in der gleichen Sekunde dieser Strom geliefert werden. Wenn an einem Winterabend die Flutlichtanlage des FC Basel angedreht wird, muss der zusätzliche Bedarf innert Sekunden bereitgestellt werden. Mit Sonnen- oder Windenergie können sie die Produktion nicht hochfahren.

Was bedeutet das?
Wenn tatsächlich die Sonne scheint oder der Wind weht, dann haben wir in Deutschland viel zu viel Strom. Wir verschenken den Überschussstrom, häufig zu negativen Strompreisen, ins Ausland. Wegen des Vorrangs der Erneuerbaren müssen zuerst die konventionell mit Gas oder Kohle betriebenen Kraftwerke runtergefahren werden, dann sogar Windkraftwerke, die dann aber trotzdem bezahlt werden, obwohl sie nichts produzieren. Das kostet mittlerweile eine Milliarde Euro pro Jahr, das ist doch absurd! Noch einmal: Neue Energieträger sind nur dann ein belastbarer Versorger, wenn wir das Speicherproblem gelöst haben.

Solche Technologien gibt es.
Ja, es gibt Möglichkeiten, beispielsweise Pumpspeicher, also Stauseen in den Bergen. Da pumpt man Wasser hoch und lässt es wieder ab, wenn der Strom benötigt wird. Bereits um eine viertägige Windflaute auszugleichen, müsste man den Bodensee (500 km², 100 m tief) auf ein hohes Niveau pumpen und wieder ablaufen lassen.

Wieso geht das nicht mit Batterien?
Das wird vielleicht irgendwann ­möglich sein. Dann hat auch die wechselhafte Wind- und Solar­energie eine Chance. Heute ist es viel zu teuer – gut und gerne 20 Eurocent pro ­Kilowattstunde – und die kommen zu den eigentlichen Stromkosten und Gebühren hinzu. Das kann sich nur noch der wohlhabende Privathaushalt leisten. Jede industrielle Nutzung von Strom können sie aus Kostengründen vergessen.

In der Schweiz haben wir viele Pumpspeicherwerke. Die haben sich jahrelang gut rentiert. Jetzt verdienen die nichts mehr.
Die Ursache hierfür ist die völlig aus den Fugen geratene Produktion von Wind- und Solarstrom in Deutschland. Dann wenn es windig ist, schieben wir den Überschuss unseren Nachbarn über die Grenze. Dieser Strom ist durch die Subventionen ja bereits bezahlt, wenn er entsteht, darum kostet er nichts oder hat sogar einen Negativpreis. Die Pumpspeicherwerke brauchen aber rund acht Eurocent, um wirtschaftlich zu überleben. Das ist ein grosses Dilemma für die Schweiz. Damit wird ihre heimische – fast CO?-freie – Stromproduktion plötzlich infrage gestellt.

Die Überschussproduktion gefährdet unsere Wasserkraft.
Wir haben in Deutschland 50 000 Megawatt Windkraft. Wenn alle produzieren, müssen sie zuerst Kohle- und Gaskraftwerke, dann aber auch noch Windkraftwerke selber abstellen, sonst droht ein Kollaps. Wenn das nicht reicht, schütten wir den Strom über die Grenze und zerstören damit die Energieversorgung unserer Nachbarländer. Diese Nachbarn müssen uns umgekehrt mit Strom aushelfen, wenn es keinen Wind gibt. Die Polen lassen sich das nun nicht mehr gefallen und haben an der Grenze Phasenschieber montiert, damit der deutsche Überschussstrom nicht mehr nach Polen kann. Die Tschechen werden das nachmachen.

Könnte das die Schweiz auch tun?
Ich kann mir vorstellen, dass diese Debatte in der Schweiz auch irgendwann beginnt und man sich fragt: «Müssen wir eigentlich die übermütige und nicht durchgerechnete Energiepolitik Deutschlands ausbaden?» Vermutlich gibt es Leute in der Schweiz, die diese Frage mit Nein beantworten würden. Da habe ich Verständnis dafür.

Dann müsste die Schweiz aber Selbstversorger sein, wozu es neue Gaskraftwerke braucht.
Wenn die Kernkraftwerke vom Netz genommen worden sind, müssen ­flexible Gaskraftwerke deren Funktion übernehmen. Die deutsche Energiewende hat aber wegen des Überschussstroms Gaskraftwerke unrentabel gemacht. Ein modernes Gaskraftwerk in Bayern wurde einen Tag nach der Inbetriebnahme abgestellt, weil es sich nicht lohnte.

Reden wir über Geld. Der Strom wird für die Konsumenten immer teurer, aber auf dem internationalen Markt ist er immer billiger. Woher kommt das?
Ganz einfach: Wind- und Solarstrom sind noch immer doppelt bis dreimal so teuer wie konventionell erzeugter Strom. Um das auszugleichen, werden die Mehrkosten durch eine Umlagegebühr bei den Kunden erhoben und an die Produzenten von Wind- und Solarenergie verteilt. Jeder Windmüller und Besitzer eines Solardaches bekommt eine feste Vergütung für seinen Strom, der ihm eine satte Rendite für 20 Jahre sicherstellt. Die Umlagegebühr verteuert den Strom für die Kunden. Der Strom aus Erneuerbaren wird also vorab bezahlt und kommt zum Preis von null ins Netz und verdrängt den konventionellen Strom vom Markt. Das senkt den Strompreis an der Börse. Beide Effekte zusammen führen zu einer Erhöhung für den privaten Kunden.

Früher hat man einfach die Kernkraftwerke subventioniert. Strom ist doch immer teuer gewesen.
In Deutschland waren die Kernkraftwerke nicht subventioniert und ich kann mir das für die Schweiz nicht vorstellen. Die Forschung und Entwicklung der Kernkraft ist zwar vom Staat gefördert worden, aber das ist doch nicht zu beanstanden.

Und die Risiken? Die mussten die Kernkraftwerke nicht vollständig versichern.
Das war eine von Politik und Gesellschaft getragene Entscheidung. Heute würde das anders entschieden. Aber die Frage stellt sich nicht, da neue Kernkraftwerke nicht wirtschaftlich betrieben werden können.

Ihre Alternative ist, die Kernkraftwerke möglichst lange laufen zu lassen und auf die Entwicklung von Speichertechnologien zu setzen.
Wenn wir wettbewerbsfähige Speichertechnologien haben, dann können wir mit schwankender Energie wie Sonne und Wind umgehen.

Es geht Ihnen also nur um die Reihenfolge?
Genau. Wir dürfen doch das Pferd nicht von hinten aufzäumen und zuerst die Wind- und Solarkraftwerke bauen, wenn wir wissen, dass diese nur eine sichere Stromversorgung bringen, wenn wir Speichertechnologien haben, die es noch zu entwickeln gilt. Alles andere erscheint mir nicht sonderlich klug.

Was bedeutet das für den Industrie­standort?
Es gibt schon heute ein Defizit an Stromversorgung in Bayern und Baden-Württemberg. Das kann man lösen, indem man Leitungen aus dem Norden dahin baut. Aber das dauert noch Jahre und wegen Widerstands gegen Freileitungen wird es sehr teuer. Die Schweiz hängt mit Deutschland zusammen. Bei Stromknappheit wirkt sich das auch in der Schweiz aus.

Gibt es keinen Widerstand aus der Industrie?
Aus der energieintensiven Industrie kommt kein Widerstand, weil diese von der Umlagegebühr befreit ist – wie auch in der Schweiz. Stahl, ­Chemie, Kupfer, Aluminium profitieren sogar von den tiefen Gross­handels­preisen. In Wirklichkeit ist das ­System aber insgesamt viel teurer. Die Privathaushalte und die Klein­unternehmen ­zahlen einfach die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen eher unterbleiben. Man investiert nicht in einem Land, wo man nicht genau weiss, wie sich die Energiepreise ­entwickeln. Neben dem Preis spielt auch die Versorgungssicherheit eine wichtige Rolle. Sie nimmt mit jedem neuen Wind­rad ab.

Welche Gefahren gehen von Wind­rädern aus?
Ich habe ja selber ein Windkraft­unternehmen im Jahre 2000 gegründet und gross gemacht und kenne die Technologie sehr gut. Ich wäre nie auf die Idee gekommen, zu glauben, dass man derart schwankende Energie dazu verwenden könnte, ein Bahnnetz zu betreiben. Das müssen wir alle lernen. Windenergie bringt nicht nur Wohltaten. In Deutschland ist durchschnittlich alle 2,7 Kilometer ein Windkraftwerk geplant, obwohl wir schon heute wissen, dass Greif­vögel, Fledermäuse und andere gefährdete Arten deswegen verschwinden werden. Der Rotmilan ist gefährdet. Die 26 wichtigsten Sing­vogelarten sind auf dem Rückzug. Die Auswirkungen auf die Lebensräume von Pflanzen und Tieren sind enorm. Wenn ein Kernkraftwerk so viel Natur zerstört hätte, wie es die Windenergie macht, wäre es schon längst still­gelegt worden.

Warum sagen das die Naturschutz­organisationen nicht?
Der tiefere Kern ist folgender: Die politischen Grünen haben sich die Energiewende zum Programm gemacht, koste es, was es wolle. Sie waren in Wirklichkeit in Deutschland nie eine Naturschutzpartei, sondern eine antikapitalistische Partei, die sich gegen die Kernkraft und Industrie engagiert. Deswegen haben sie auch kein Herzblut, wenn es um Flora und Fauna geht. Es gibt natürlich Naturschutzorganisationen, die auf dieser grünen Parteilinie sind und andere, die tatsächlich Naturschutz machen. Ersteren ist die Energiewende wichtiger als der Schutz der Natur.

Aber es gibt Widerstand gegen Wind­räder.
Ja. Auf dem Land gibt es ein enormes, sehr bürgerliches Protestpotenzial. Das erinnert mich ironischerweise sehr an den Anfang der Anti-Kern­energie-Bewegung. Es ist heute so: Der Traum der städtischen Elite von einer angeblich sauberen Energie­versorgung wird auf dem Rücken der ländlichen Bevölkerung ausgetragen, die ihre Heimat verliert.

Wer gewinnt und wer verliert eigentlich finanziell?
Jene, die Subventionen für ein Solardach erhalten oder sich an Windkraftfonds beteiligen, gehören in der Regel nicht zur Unterschicht. Die Arbeitnehmer, die Sozialhilfeempfänger, die Mieter in Mehrfamilienhäusern, das sind diejenigen, die zur Kasse gebeten werden und die die auf zwanzig Jahre staatlich garantierten Renditen der Wohlhabenden ermöglichen.

Sie sehen zwei Möglichkeiten der weiteren Entwicklung: durchwursteln oder korrigieren.
Man wird irgendwann korrigieren müssen, spätestens nach den ersten Netzzusammenbrüchen. Je länger es dauert, umso grösser werden die Schwierigkeiten. Wenn wir in zehn Jahren eine fantastische Batterie haben, die fünf Eurocent pro Kilowattstunde kostet, dann wird sich die Sache vielleicht einrenken. Das ist aber Politik nach dem Prinzip Hoffnung. Ich würde darauf keine Wette eingehen und schon gar nicht als Politiker eine Nation darauf verpflichten.

 

Zuerst erschienen in der Basler Zeitung, der wir an dieser Stelle für den Abdruck danken.

 

Ganz sicher keine Erwärmungspause! Die Daten dazu haben wir aber leider verloren…

In den USA bringen viele Klimawissenschaftler derzeit ihre Daten in Sicherheit. Sie haben Angst, dass US-Präsident Trump die Messergebnisse löscht. Ausgenommen davon ist eine Gruppe der National Oceanographic and Atmospheric Administration (NOAA) um ihren ehemaligen Chef Thomas Karl. Sie haben ihre Daten bereits “verloren”, und das offenbar sogar vorsätzlich. Karl und Kollegen hatten kurz vor dem Pariser Klimagipfel 2015 ein Paper im Fachblatt Science herausgebracht, dass die Staatenchefs zur Unterschrift unter das Klimaabkommen motivieren sollte. Ihre Hauptaussage: Die Erwärmungspause existiere gar nicht. Tausende von Wissenschaftlern sollten sich geirrt haben. Entgegen den wissenschaftlichen Geflogenheiten versäumten es die Autoren des “Pausebuster-Papers” jedoch, die in ihrer Analyse verwendeten Daten öffentlich zu archivieren. Selbst auf Nachfrage stellten sie die Datenreihen interessierten Kollegen nicht zur Verfügung. Als der öffentliche Druck zur Verifizierung der Ergebnisse immer größer wurde, suchte man bei der NOAA den Computer und die Software, mit dem die Science-Untersuchung durchgeführt wurde. Die Überraschung war groß als die Wissenschaftler erklärten, der Computer musste samt Programm “wegen technischer Defekte” entsorgt werden. Es gäbe somit keine Möglichkeit, den Wahrheitsgehalt der wichtigen Studie zu überprüfen, we are very sorry for this.

Würde es sich um eine esoterische Nischenwissenschaft handeln, könnte man einfach mit der Schulter zucken und die Sache auf sich beruhen lassen. In diesem Fall jedoch geht es um nichts anderes als einen Teil der Begründung für den Totalumbau der Industriegesellschaft. Unter diesem Hintergrund ist das Fehlen der Daten schlichtweg unakzeptabel. Im Sport entspräche dies einer bewusst verpassten Dopinprobe, was zur Sperrung des Athleten führen würde. Nicht so jedoch in den Klimawissenschaften, wo scheinbar Sonderregeln gelten. Die Zeitschrift Science hätte das Paper umgehend zurückziehen müssen. Dies ist bis heute nicht passiert. Der Präsident der American Association for the Advancement of Science (AAAS) – unter dessen Aufsicht Science erscheint – erklärte am 7. Februar 2017, dass er keine Veranslassung sehe, das Paper zurückziehen zu lassen, alles wäre bestens. Allerdings beschäftigt sich nun immerhin der US-Kongress mit dem Vorfall und fordert von der NOAA die Übergabe wichtiger Dokumente zur Studie. Während sich die NOAA unter dem ehemaligen Präsident Obama noch in Sicherheit wog, könnte die fortwährende Verweigerung zur Kooperation nun ernsthafte Konsequenzen nach sich ziehen. Auch die NOAA selber kündigte eine interne Untersuchung der Vorwürfe an, wobei hier vermutlich keine echten Resultate erwartet werden können. Man darf gespannt sein, wie dieser Krimi ausgeht. Die NASA scheint ihre Zuständigkeit für die Klimawissenschaften bereits auf Betreiben der neuen US-Regierung verloren zu haben. Schlechte Nachrichten insbesondere für das NASA-eigene GISS-Institut, das in der Vergangenheit vielfach mit schwer nachvollziehbaren Temperaturdatenveränderung aufgefallen war und das von einem bekennenden Klimaaktivisten geleitet wird.

Weshalb dieses Katz-und-Maus spiel? Gibt es hier vielleicht etwas, was besser nicht ans Licht kommen sollte? Wie haben es Thomas Karl und NOAA-Kollegen eigentlich geschafft, die akzeptierte Erwärmungspause zu durchbrechen? Ein ehemaliger NOAA-Wissenschaftler durchbrach nun die Mauer des Schweigens und wandte sich mit pikanten Interna an die Öffentlichkeit. John Bates ging erst kürzlich in Ruhestand, was ihm nun ermöglicht, frei über die Abläufe zu Paper hinter den Kulissen zu sprechen. Er verriet, dass das Karl-Manuskript im Hause eine Sonderbehandlung erfuhr und von der ansonsten bei der NOAA üblichen fachlichen Überprüfung ausgespart wurde. Kritik einiger Mitarbeiter an seiner Studie ignorierte der ehemalige NOAA-Direktor Thomas Karl einfach und drückte das Paper mit Hochdruck zur rechtzeitigen Publikation für die Pariser Klimakonferenz durch. Dabei waren offenbar alle Mittel recht. Es war egal, dass das Berechnungsprogramm noch gar nicht richtig getestet und freigegeben war. Es war ebenso egal, dass das Korrekturverfahren der Temperaturwerte hochfragwürdig ist und einem normalen Peer Review eigentlich nicht standhalten würde.

Insgesamt wurden die Temperaturen dadurch um 0,12°C künstlich heraufgesetzt, und zwar mit dem folgenden Kniff: Bis 2005 wurden vornehmlich Messungen der Meerestemperatur durch Schiffsdaten ermittelt, zunächst per Eimer, später im Zulauf der Pumpen für die Kühlung der Schiffsmotoren. Es stellte sich heraus, dass die Schiffsmessungen um durchschnittlich 0,12 Grad wärmer waren – was nachvollziehbar ist – als die Bojenmessungen, die seit 2005 weltweit vorgenommen werden. 4000 Meeresbojen (ARGO) messen seither die Meerestemperatur deutlich präziser als die veralteten Schiffsmessungen. Die ARGO- Bojen zeigten seit 2005 keinen signifikanten Erwärmungstrend. Um die Bojenmessungen mit den Schiffsmessungen vergleichbar zu machen, wurden nun die guten Bojenmessungen um 0,12 ° C auf das Niveau der schlechten Schiffsmessungen angehoben. Man stellt sich natürlich sofort die Frage, warum  man nicht einfach die schlechten alten Schiffsmessungen nach unten korrigierte, was zu einer Absenkung von 0,07 °C (aufgrund eines komplizierten Umrechnungsmodus -0,07°C anstatt -0,12 °C) geführt hätte. Der langfristige Anstieg wäre ähnlich gewesen, aber die Pause wäre gemäss den Rohdaten der Bojen ein ärgerliches und beeindruckendes Argument gegen jegliches CO2- Katastrophenszenario gewesen. Man entschied sich also für die Verschlechterung der guten Daten und die Obama-Administration nutzte diese Daten im Vorfeld der diplomatischen Vorbereitungen des Pariser Gipfels. Ginge man so mit Börsendaten um, würde man wahrscheinlich im Gefängnis landen. Nun soll es bald eine neue wieder korrigierte Messreihe geben. Hier wird ein kleiner Teil der Erwärmung der Vorgängerreihe ab  2000 wohl wieder zurückgerechnet werden, vertraut man den vorläufigen Verlautbarungen. Da reibt man sich schon die Augen.

Vieles deutet in diesem Fall auf eine politische Einflußnahme und Instrumentalisierung der NOAA hin. Es ist zu wünschen, dass die Untersuchungen des US-Kongresses hier weiteres Licht in den Vorfall bringen. Im englischsprachigen Raum haben die Insider-Enthüllungen von John Bates hohe Wellen geschlagen. In Deutschland blieben die Zeitungsredaktionen (mit wenigen Ausbahmen, z.B. MZ) jedoch auffällig stumm. Der Fall war zu unbequem als dass man ihn der Öffentlichkeit zumuten wollte. Man könnte fast auf den Gedanken kommen, dass dies das Produkt einer verabredeten Selbstzensur sein könnte.

Zwischenzeitlich suchen NOAA und Anhänger der harten Klimalinie händeringend nach Erklärungen für die aufgedeckten Missstände (z.B. Washington Post) – bisher allerdings ohne überzeugendes Ergebnis. Judith Curry ging auf die Verteidigungsargumente der NOAA in einem Blogpost vom 6. Februar 2017 detailliert ein.

 

Fritz Vahrenholt zur Energiewende: “Ab 2022 können wir bei jedem Starkwind nur noch beten”

Die Nachbarländer schauen sich die deutsche Energiewende aus sicherer Entfernung an. Was passiert da genau? Ein Nachahmermodell? Mitte Februar 2017 erkundigte sich Markus Schär von der schweizerischen Wochenzeitung Weltwoche bei Fritz Vahrenholt, wie er die Energiewende bewertet:

«Aberwitzige Sprünge»

Vom Pionier zum Kritiker der Energiewende: Fritz Vahrenholt sieht Deutschland 
und damit auch die Schweiz auf dem Weg ins Desaster.

 

SCHÄR: Herr Vahrenholt, Sie waren einer der wichtigsten Pioniere der erneuerbaren Energie und sind jetzt einer der grössten Kritiker der Energiewende. Wie kam es dazu?

VAHRENHOLT: Als ich ab 2001 ein Windkraftunternehmen aufbaute, hätte ich mir diese Energiewende nie träumen lassen. Wir dachten nie an eine Versorgung, die zu neunzig Prozent auf schwankende, also nicht zuver­lässige Energieträger setzt. Wir gingen ­immer davon aus, dass es sinnvoll ist, erneuerbare Energie zu nutzen, aber nicht, dass bei der Energieversorgung eines Industrie­landes allein darauf gebaut werden sollte.

Die Energiewende von 2011 brachte also nicht das, worauf Sie hingearbeitet hatten?

Nein, ich hielt die Energiewende von Anfang an für falsch. Bei Teil eins wollte die Regierung von Bundeskanzlerin Merkel die Kernenergie durch Erneuerbare er­setzen. Wer ein bisschen etwas von der Energieversorgung verstand, der wusste schon damals, dass das nicht funktionieren kann, weil es auch in der Nacht oder bei Windstille verlässlichen Strom braucht. Aber die Regierung bringt jetzt sogar noch Teil zwei: Sie will auch aus der Kohle aussteigen. Das ist gefährlich.

Warum?

Die Stromversorgung beruht darauf, dass ein Energieträger einspringt, wenn die Sonne nicht scheint und der Wind nicht weht. Und das kann gegenwärtig nur ein konventionelles Kraftwerk sein.

Die Leute stöhnen wegen der Strompreise, die Wirtschaft warnt vor dem Verlust der Wettbewerbsfähigkeit. Trotzdem zieht Kanzlerin Merkel das durch. Ist alles gar nicht so schlimm?

Na ja, die Belastung der Bürger ist extrem hoch. Wir verteilen ja von unten nach oben, zu jenen, die sich ein Solardach oder eine Windkraftanlage mit gesicherter Rendite leisten können. Dafür bezahlen die Mieter, vor allem die sozial schwachen, mit ihrer Stromrechnung – das grösste Umverteilungsprogramm, das es in der Sozial­geschichte Deutschlands je gegeben hat. Aber die Belastung schmerzt noch nicht so sehr. ­Eine Kilowattstunde kostet 29 Cent; da steckt so viel an Steuern und Abgaben drin, dass es auf die 6,88 Cent für die Erneuerbaren auch nicht mehr ankommt. Deutschland geht es gut, somit können das viele verschmerzen. Und die Regierung redet den Leuten ja ein, dass wir das machen müssen, um die Welt vor der Klimakatastrophe zu retten.

Muss die Kanzlerin die Warnungen der Wirtschaft nicht ernst nehmen?

Der Motor der deutschen Wirtschaft sind die mittelständischen Betriebe. Viele der Elek­trotechnik- und Maschinenbaufirmen, die wir noch haben, werden zur Kasse gebeten; die Ausgaben für Strom fallen bei ihren Kosten aber noch nicht ins Gewicht. Und jene Unternehmen, die sofort pleite wären, wenn sie für die Kilowattstunde 6,88 Cent mehr bezahlen müssten, sind von der Abgabe befreit. Weil der Strompreis wegen des Überangebots der Windkraftanlagen zusammengebrochen ist, zahlt die Grundstoffindustrie so wenig wie nie in den letzten zwanzig Jahren – das ist das Verrückte an diesem System. Darum kommt so wenig Widerstand aus der Wirtschaft.

Sie muss sich doch nicht nur wegen der ­Betriebskosten sorgen, sondern vor allem wegen der Versorgungssicherheit.

Ja, es geht noch gut, weil unser Netz – wie Ihres in der Schweiz – over-engineered ist: Wir haben Gürtel und Hosenträger. Und wir können bisher Blackouts vermeiden, indem wir den überschüssigen Strom aus den Windkraftanlagen den Nachbarn vor die ­Türe schütten.

Drohen uns tatsächlich Blackouts?

Das Risiko steigt, denn der dringend nötige Netzausbau findet nicht statt. Früher war ­jedes Kraftwerk mehrfach mit den Abnehmern verbunden. Jetzt erzeugen wir den Strom im Norden, verbrauchen ihn aber vorwiegend im Süden, und die Transportleitungen gibt es nicht. Wenn wir sie bauen wollen, dann wehren sich dieselben Bürger, die jetzt aus der Kohle aussteigen möchten, gegen die Verschandelung der Landschaft.

Was dann?

Wir müssen die Leitungen einbuddeln, aber das führt zu neuen Diskussionen. Man muss die Leitungen auf sechzehn Meter Breite von jedem Bewuchs freihalten; so wird sich eine Todeszone durch Deutschland, auch durch Biotope fressen. Und man hat so was noch nirgendwo auf der Welt gemacht. Das Netz wird achtmal so teuer und erst fünf Jahre nach dem Abstellen des letzten Kernkraftwerks fertig sein. Ab 2022 können wir also bei jedem Starkwind nur noch beten.

Wie kommt Kanzlerin Merkel da wieder raus?

Da kommt sie nicht mehr raus. Ich glaube aber auch nicht, dass sie dann noch Kanzlerin ist. Kein anderes Land dachte an eine ­solche Energiewende, wir machten sie an ­einem Wochenende.

Doch, die Schweiz zieht die Energiewende auch seit sechs Jahren durch.

Aber nicht so idiotisch wie wir – dass Sie jedes Jahr ein, zwei Kernkraftwerke abstellen.

Was würden denn Sie als Bundeskanzler machen?

Die Debatte über die Kernenergie ist durch, niemand in Deutschland will sie noch reanimieren. Aber wer sieht, dass das ein Fehler war, muss nicht den nächsten Fehler machen. Wir müssen nicht auch noch beim CO2-Ausstoss die Weltmeister sein, also auf die Kohle verzichten. Das Energiehaus der Zukunft sollte getragen sein von den ­Pfeilern Kernenergie, Kohle und Erneuer­bare, dazu vom vierten Pfeiler Effizienz. Den ersten Pfeiler hat man weggeschlagen, den zweiten schlägt man jetzt weg, und der dritte trägt nicht. Ich würde deshalb als Kanzler sagen: «Wir können uns den Ausstieg aus der Kohle nicht leisten» – egal, was wir in ­Paris unterschrieben haben. Die meisten Nationen kümmern sich ja auch nicht darum.

Immerhin haben alle Uno-Mitglieder das Klimaabkommen unterzeichnet.

Die Chinesen lachen sich doch einen ab. Sie haben das Abkommen unterschrieben, sich aber zu nichts verpflichtet. Im Gegenteil: Sie können bis 2035 ihre Emissionen noch dramatisch steigern. Was die Deutschen bis 2020 durch das Stilllegen von Kohlekraftwerken sparen, machen die ­Chinesen in drei Monaten wett.

Und was würden Sie als Chef eines Stromkonzerns machen?

Die Konzerne haben einerseits gesicherte Einkünfte dank den Investitionen in Erneuerbare. Da herrscht Planwirtschaft, man kann ohne Risiko Kasse machen. Und sie ­haben ­anderseits konventionelle Kraftwerke, die sie von Gesetzes wegen betreiben müssen. Das lohnt sich nicht mehr; die Kraftwerke bekommen deshalb die Betriebskosten ersetzt, aber sie können keinen Gewinn mehr machen. Das ist, wie wenn ich einem Taxifahrer sagen würde: «Ich zahle für das Benzin, das Auto kostet dich ja nichts mehr.» Das heisst: Die Energiewende lebt von der Ausbeutung und Entwertung der bestehenden Energieversorger. An ihrer Stelle würde ich also ebenfalls in Erneuerbare investieren, mich aber auch dafür engagieren, dass ihre Leistungen für die Versorgungssicherheit vergütet werden: Wenn sie ihre nach marktwirtschaftlicher Rechnung unrentablen Werke abschalten würden, bräche das System in dieser Sekunde zusammen.

Die Schweiz leidet auch unter der deutschen Energiewende.

Die Nachbarn leiden alle mit. Ihre Investi­tionen rentieren nicht mehr, weil wir sie mit unserem Strom überschwemmen. Das ist ja nicht das erste Mal, dass wir Europa vor ­einem Alleingang nicht fragten.

Was halten Sie von der Energiewende auf Schweizer Art?

Sie haben günstigere Bedingungen als wir, dank Ihren Speicherseen. Aber Sie dürfen sich nicht selbst betrügen: Das Speichern kostet auch etwas; jede Kilowattstunde ­Flatterstrom, die zur falschen Zeit entsteht, geht ins Geld. Die Kosten für die Erzeugung, fünf bis acht Cent, verdoppeln sich durch die Speicherung. Sie müssen sich in der Schweiz deshalb Zeit kaufen, um den Umbau vernünftig zu machen. Das geht, indem Sie sich über die Laufzeit der Kernkraftwerke verständigen, sich also fragen: «Wie viele Gaskraftwerke wollen wir uns leisten?»

Die Anhänger der Energiewende lehnen auch Gaskraftwerke ab.

Ich kann nicht die Arbeit Ihrer Umwelt­ministerin machen. Ich kann ihr nur sagen: So, wie sie die Energiewende plant, wird sie nicht funktionieren – oder nur mit sehr, sehr hohen Kosten und einem naturzerstörenden Landschaftsverbrauch. Vergessen Sie nicht: Wir wollen in Deutschland die Windkapazität verdreifachen. Wenn wir das tun, dann steht da im Durchschnitt alle 2,7 Kilometer eine Windturbine.

Christoph Blocher meint, die Schweiz müsste wegen der Verletzung von Völkerrecht der WTO und des Freihandelsabkommens mit der EU gegen Deutschland klagen.

Ich würde den einfacheren Weg gehen, wie es die Polen machen: Sie bauen an der Grenze Phasenschieber, die den Strom von der deutschen Seite zurückweisen können, übrigens mit Erlaubnis der EU. Das könnten Sie auch machen. Wenn es alle Nachbarn tun, muss Deutschland Farbe bekennen. Wir exportieren 50 Terawattstunden, also 50 Millionen Megawattstunden, und zwar immer dann, wenn uns der Windstrom aus den Ohren kommt. Insgesamt produzieren wir 85 Terawattstunden mit Wind. Schon diese Zahlen zeigen, wie absurd diese Politik ist. Wir erzeugen Windstrom für den Export und verhökern ihn für einen Cent oder sogar zu Negativ­preisen, bezahlen aber neun Cent dafür.

Grüne Politiker aller Parteien in der Schweiz sagen, die Deutschen müssten einfach ihre Dreckschleudern abstellen, dann sei das Problem gelöst.

Quatsch.

Weshalb?

Herr Trittin von den deutschen Grünen sagt das auch; er behauptet, der Kohlestrom verstopfe das Netz. Das ist Blödsinn. Die Erneuerbaren haben jederzeit Vorrang, aber leider auch einen schweren strukturellen Nachteil: Sie können nicht innert Sekunden reagieren. Diese Leute haben den Bezug zur Lebenswirklichkeit verloren. In der realen Welt wird in jedem Moment etwas hoch- oder runtergefahren: Im Basler Fussballstadion gehen die Lichter an, im Zürcher Hauptbahnhof fährt ein ICE ab. Das braucht zig Megawatt; das Netz gibt deshalb über die Änderung der Frequenz einem Kraftwerk das Signal: «Hier wird jetzt Strom gebraucht, und zwar in einer Milli­sekunde.» Darum können wir nicht auf die konventionellen Kraftwerke verzichten. ­Eine Faustregel sagt: Zwanzig Prozent der Last müssen mit solcher sich selbst regelnder Generatorleistung vorgehalten werden. Diese sogenannte Sekundenreserve beträgt in Deutschland 20 000 Megawatt. Die Schweizer Versorger lassen also ihre Werke nicht laufen, weil sie die Kernenergie lieben, sondern weil sie wissen, dass sonst das Netz zusammenbricht.

Immerhin haben die Grünen doch recht, wenn sie sagen, der Kohlestrom sei zu ­billig, weil die externen Kosten nicht ­eingepreist sind.

Was meinen Sie mit den externen Kosten?

Dass wegen des CO2-Ausstosses die ­Klimakatastrophe droht.

Es gibt ja das System mit den Emis­sionszertifikaten; es löst dieses Problem bis 2020. Aber die Zertifikate sind zu billig!

Was ist denn das für eine Politik, die findet, ein System müsse teuer sein, damit es erfolgreich ist ?

Wir erreichen alle Ziele, und zwar zu einem Preis von 5 Euro pro Tonne CO2. Und wenn wir mit 5 Euro zwanzig Prozent Reduktion erzielen, dann können wir mit 7 oder 10 Euro auch dreissig Prozent anstreben. Das ist für mich vernünftig, ein marktwirtschaftlicher Ansatz.

Heisst das, dass die Klimapolitik erfolgreich ist?

Die Emissionszertifikate sind es; so lässt sich das CO2 dort einsparen, wo es am meisten bringt. Das ist für mich vernünftiger als das, was das Pariser Abkommen festschreibt: Alle ­Industrieländer reduzieren den CO2-Ausstoss um zwanzig oder dreissig Prozent. Das führt zu einer Weltplanwirtschaft, dabei stossen China oder Indien immer noch mehr CO2 aus. Stattdessen sollten wir das euro­päische System auf alle Länder ausweiten, so dass eine Tonne CO2 überall einen durch den Markt bestimmten Preis hat.

Sie zweifeln ohnehin an der Klimapolitik der Uno.

Ja, dieses Abkommen wird seine Feuertaufe zu bestehen haben, wenn die Temperaturen nicht ansteigen wie prognostiziert. Dann fragen sich die Leute nicht nur in Deutschland und in der Schweiz, sondern überall: «Wofür machen wir das eigentlich?» Bisher verlässt sich die Politik auf Klimaforscher mit Modellen, die die Klimaentwicklung der Vergangenheit nicht nachbilden und ­jene der Zukunft nicht voraussagen können.

Sie sagten vor fünf Jahren in Ihrem Buch «Die kalte Sonne» wegen der schwachen Sonnenaktivität eine Abkühlung voraus. Wir erlebten aber seither einige der wärmsten Jahre.

Wir stützten uns in unserem Buch nicht nur auf die Sonnenaktivität, sondern auch auf die Ozeanströmungen. Und Sie dürfen nicht vergessen: Das System ist träge, wir müssen mit Verzögerungen um Jahrzehnte rechnen. Von 1950 bis 2000 gab es eine Phase der stärksten Sonnenaktivität seit über tausend Jahren; das wirkte sich mit einem Verzug von zehn bis zwanzig Jahren aus. Ich kann Ihnen nicht ­sagen, wie lange es dauert, um den Temperaturtrend bei schwacher Sonnenaktivität umzukehren. Ich weiss nur: Es ist sicherlich nicht korrekt, wenn die Forscher des Weltklima­rates und alle, die ihnen an den Lippen hängen, den Einfluss der Sonne mit null bewerten.

Was erwarten Sie denn?

Wir wissen nicht, was auf der Sonne geschieht; das konnte noch niemand berechnen. Aber wenn die Sonne weiter schwächelt, werden wir es bei den Temperaturen sehen.

Wir können nur feststellen: In der Vergangenheit spielte das CO2 keine Rolle – die Konzentration erhöhte sich jeweils nach einem Temperaturanstieg, nicht vorher. Es gab schon immer erhebliche Schwankungen auch ohne den Einfluss des CO2, so etwa in der mittelalterlichen Warmzeit. Warum sollte das jetzt anders sein?

Sind Sie also ein Klimaleugner?

Nein, ich würde niemals behaupten, dass CO2 überhaupt keine Wirkung habe. Wissenschaftlich lässt sich nachweisen, dass es den Treibhauseffekt gibt. Aber gemäss neuen Studien erhöht sich die Temperatur bei einer Verdoppelung des CO2-Anteils um 1,3 Grad. Wenn es dabei bleibt, dann können wir uns alle zurücklehnen und müssen nicht in Panik verfallen. Wir können die Energieversorgung in diesem Jahrhundert in aller Ruhe umbauen.

Glauben Sie wirklich, dass sich an der ­Klimapolitik etwas ändert?

Die Wissenschaftler sind ja keine ver­schworene Gemeinschaft, sondern einzelne beginnen zu zweifeln. Es gibt zwar Hardliner, auch einige bei Ihnen in der Schweiz. Aber andere wie Hans von Storch sagen: «Wenn bis 2020 die Temperaturen nicht deutlich steigen, liegen wir mit unseren Modellen falsch.»

Wie sieht die Energielandschaft in zwanzig Jahren aus?

Das hätte ich Ihnen vor zwanzig Jahren noch sagen können: ein Drittel Kernenergie, ein Drittel fossile, ein Drittel erneuerbare Energie. Jetzt kann ich es nicht mehr sagen; wir ­haben ja gelernt, welch aberwitzige Sprünge die Politik machen kann. Ich weiss nur eines: Die Suppe, die wir uns eingebrockt haben, müssen wir jahrzehntelang auslöffeln.

Dieser Artikel ist zuerst erschienen in der WELTWOCHE, der wir für den Abdruck an dieser Stelle danken.

 

Tückische vorindustrielle Wärmephase: Vor 4000 Jahren waren in Norwegen die Gletscher schon einmal fast komplett weggetaut

Die Universität Bergen berichtete am 14. Februar 2017 über das Klima in Norwegen vor 4000 Jahren, als es im Sommer im Durchschnitt zwei bis drei Grad wärmer war als heute. Die meisten Gletscher des Landes waren zu jener Zeit vollständig aufgetaut und verschwunden. Anstatt sich nun mit dieser für viele unerwarteten natürlichen Wärmephase zu beschäftigen, bedient das Autorenteam in der Pressemiteilung den Wunsch der Öffentlichkeit nach Betroffenheit und Zukunftsangst. Diesmal – ganz sicher – würden die Gletscher niemals wieder kommen. Obwohl sie genau dies nach der beschriebenen Wärmephase getan haben. Sorgen machen sich die Wissenschaftler um das Wasserkraftgeschäft. Kein Gletscher, keine Hydro-Power. Hier die Pressemitteilung im Original:

Norwegian ice cap ‘exceptionally sensitive’ to climate change

How will future climate change affect our glaciers? By looking into the past 4000 years, a new study lead by Henning Åkesson at the Bjerknes Centre finds an ice cap in southern Norway to be ‘exceptionally sensitive’ to climate change.

The team of researchers from the Bjerknes Centre for Climate Research, the Netherlands and the US took a glance into the past to understand how the ice cap Hardangerjøkulen in southern Norway responds to climate change. The authors simulated the history of the ice cap over the last 4000 years, from a period called the mid-Holocene, when summer temperature at high northern latitudes were two to three degrees warmer than today. Most if not all glaciers in Norway melted away during this period, Hardangerjøkulen included.

Henning Åkesson, a PhD candidate at the Bjerknes Centre and University of Bergen, used a glacier computer model developed at NASA-Jet Propulsion Laboratory and University of California, Irvine to simulate Hardangerjøkulen’s history. To inform model simulations, he used information on past climates and glacier variations from lake sediments receiving meltwater from the ice cap.

Contest between snow and snowmelt

“Present day Hardangerjøkulen is in a very vulnerable state, and our study of its history over the last several thousand years shows that the ice cap may change drastically in response to relatively minor changes in climate conditions”, says Åkesson. Every year, snow covers a glacier in winter, and melts away to a varying extent the following summer. At a certain altitude on the glacier, the competition between snow accumulation and snowmelt is balanced; glaciologists call this the Equilibrium Line Altitude (ELA). “What is special with Hardangerjøkulen and other similar ice caps”, Åkesson explains, “is their flat topography. Anyone skiing up Hardangerjøkulen to celebrate Norway’s national day on May 17th can testify; first it’s steep, but once you’re higher up things get a lot easier.”

A large part of Hardangerjøkulen’s area is close to the present ELA. This means that a small change in the competition between winter snow and summer melt will affect a very large part of the ice cap. Åkesson says “the topography and present climate is such that we soon expect yearly net melt over the entire ice cap. This has already happened a few times in recent years. In the near future we expect this to occur much more often, and with this, the demise of Hardangerjøkulen will accelerate.”  “Today the ice is more than 300 m thick at places, which may sound like a lot. But the implication of our study is that if climate warming continues, this ice cap may disappear before the end of this century. I don’t think most people realize how fast glaciers can change, maybe not even us as scientists,” says Åkesson.

Hydropower from glacier meltwater

“The economic and cultural implications of disappearing glaciers in Norway are considerable for tourism, natural heritage and the hydropower industry”, Kerim Hestnes Nisancioglu at the Bjerknes Centre, co-author of the study, adds. Practically all of Norway’s electricity is generated from hydropower, of which 15 % depend on glacier meltwater. “The hydropower industry needs to plan for these changes, and we need to work together to find out how fast this transition will happen”, Nisancioglu says. What is more, “if Hardangerjøkulen melts away completely, it would not be able to grow back again given today’s climate”, Åkesson concludes. The study was published in the open-access journal The Cryosphere on January 27th. Read the full study here.

Reference: Åkesson, H., Nisancioglu, K. H., Giesen, R. H., and Morlighem, M.: Simulating the evolution of Hardangerjøkulen ice cap in southern Norway since the mid-Holocene and its sensitivity to climate change, The Cryosphere, 11, 281-302, doi:10.5194/tc-11-281-2017, 2017

 

Kierkegaard: Leben lässt sich nur rückwärts verstehen

Leben lässt sich nur rückwärts verstehen, muss aber vorwärts gelebt werden.

Sören Kierkegaard (1813-1855)

Was geschah auf der Sonne vor 7000 Jahren?

Eine Wissenschaftlergruppe um Fusa Miyake beschrieb Ende Januar 2017 in PNAS ein unerwartetes solare Aktivitätsereignis der Sonne, dass sie in 7000 Jahre alten Baumringen registrierten. Hier die Pressemitteilung der Nagoya University:

What Happened to the Sun over 7,000 Years Ago? Analysis of tree rings reveals highly abnormal solar activity in the mid-Holocene

An international team led by researchers at Nagoya University, along with US and Swiss colleagues, has identified a new type of solar event and dated it to the year 5480 BC; they did this by measuring carbon-14 levels in tree rings, which reflect the effects of cosmic radiation on the atmosphere at the time. They have also proposed causes of this event, thereby extending knowledge of how the sun behaves.

When the activity of the sun changes, it has direct effects on the earth. For example, when the sun is relatively inactive, the amount of a type of carbon called carbon-14 increases in the earth’s atmosphere. Because carbon in the air is absorbed by trees, carbon-14 levels in tree rings actually reflect solar activity and unusual solar events in the past. The team took advantage of such a phenomenon by analyzing a specimen from a bristlecone pine tree, a species that can live for thousands of years, to look back deep into the history of the sun.

“We measured the 14C levels in the pine sample at three different laboratories in Japan, the US, and Switzerland, to ensure the reliability of our results,” A. J. Timothy Jull of the University of Arizona says. “We found a change in 14C that was more abrupt than any found previously, except for cosmic ray events in AD 775 and AD 994, and our use of annual data rather than data for each decade allowed us to pinpoint exactly when this occurred.”

The team attempted to develop an explanation for the anomalous solar activity data by comparing the features of the 14C change with those of other solar events known to have occurred over the last couple of millennia. “Although this newly discovered event is more dramatic than others found to date, comparisons of the 14C data among them can help us to work out what happened to the sun at this time,” Fusa Miyake of Nagoya University says. She adds, “We think that a change in the magnetic activity of the sun along with a series of strong solar bursts, or a very weak sun, may have caused the unusual tree ring data.” Although the poor understanding of the mechanisms behind unusual solar activity has hampered efforts to definitively explain the team’s findings, they hope that additional studies, such as telescopic findings of flares given off by other sun-like stars, could lead to an accurate explanation.

The article “Large 14C excursion in 5480 BC indicates an abnormal sun in the mid-Holocene” was published in PNAS at: www.pnas.org/cgi/doi/10.1073/pnas.1613144114

Ob dieses starke solare Ereignis auch klimatische Spuren hinterlassen hat?

 

University of Washington: Modelle können Einfluss des Klimawandels auf El Ninos nicht zuverlässig vorhersagen

Die El Ninos von 1997/1998 und 2015/16 waren in ihrer Stärke sehr ähnlich. Allerdings unterschieden sie sich im Detail, wie Houk Paek und Kollegen im Februar 2017 in den Geophysical Research Letters beschrieben:

Why were the 2015/2016 and 1997/1998 extreme El Niños different?
Subtle but important differences are identified between the 1997/1998 and 2015/2016 extreme El Niños that reflect fundamental differences in their underlying dynamics. The 1997/1998 event is found to evolve following the eastern Pacific El Niño dynamics that relies on basin-wide thermocline variations, whereas the 2015/2016 event involves additionally the central Pacific (CP) El Niño dynamics that depends on subtropical forcing. The stronger CP dynamics during the 2015/2016 event resulted in its sea surface temperature (SST) anomalies lingering around the International Date Line during the decaying phase, which is in contrast to the retreat of the anomalies toward the South American Coast during the decaying phase of the 1997/1998 event. The different SST evolution excited different wave trains resulting in the western U.S. not receiving the same above-normal rainfall during the 2015/2016 El Niño as it did during the 1997/1998 El Niño. Ensemble model experiments are conducted to confirm the different climate impacts of the two El Niños.

Wussten Sie übrigens schon, dass die El Ninos vor 10.000 Jahren ebenso stark und häufig waren wie heute? Nachzulesen in einer Pressemitteilung  der University of Washington vom August 2014. Unter anderem weisen die Autoren daraufhin, dass Klimamodelle das El Nino-Geschehen einfach nicht in den Griff bekommen. Sie warnen daher, den Zukunftmodellierungen der unvollständigen Modelle zu vertrauen:

Ancient Shellfish remains rewrite 10,000 year history of El Nino cycles

The planet’s largest and most powerful driver of climate changes from one year to the next, the El Niño Southern Oscillation in the tropical Pacific Ocean, was widely thought to have been weaker in ancient times because of a different configuration of the Earth’s orbit. But scientists analyzing 25-foot piles of ancient shells have found that the El Niños 10,000 years ago were as strong and frequent as the ones we experience today. The results, from the University of Washington and University of Montpellier, question how well computer models can reproduce historical El Niño cycles, or predict how they could change under future climates. The paper is now online and will appear in an upcoming issue of Science.

“We thought we understood what influences the El Niño mode of climate variation, and we’ve been able to show that we actually don’t understand it very well,” said Julian Sachs, a UW professor of oceanography. The ancient shellfish feasts also upend a widely held interpretation of past climate. “Our data contradicts the hypothesis that El Niño activity was very reduced 10,000 years ago, and then slowly increased since then,” said first author Matthieu Carré, who did the research as a UW postdoctoral researcher and now holds a faculty position at the University of Montpellier in France.

In 2007, while at the UW-based Joint Institute for the Study of the Atmosphere and Ocean, Carré accompanied archaeologists to seven sites in coastal Peru. Together they sampled 25-foot-tall piles of shells from Mesodesma donacium clams eaten and then discarded over centuries into piles that archaeologists call middens. While in graduate school, Carré had developed a technique to analyze shell layers to get ocean temperatures, using carbon dating of charcoal from fires to get the year, and the ratio of oxygen isotopes in the growth layers to get the water temperatures as the shell was forming.

The shells provide 1- to 3-year-long records of monthly temperature of the Pacific Ocean along the coast of Peru. Combining layers of shells from each site gives water temperatures for intervals spanning 100 to 1,000 years during the past 10,000 years. The new record shows that 10,000 years ago the El Niño cycles were strong, contradicting the current leading interpretations. Roughly 7,000 years ago the shells show a shift to the central Pacific of the most severe El Niño impacts, followed by a lull in the strength and occurrence of El Niño from about 6,000 to 4,000 years ago.

One possible explanation for the surprising finding of a strong El Niño 10,000 years ago was that some other factor was compensating for the dampening effect expected from cyclical changes in Earth’s orbit around the sun during that period. “The best candidate is the polar ice sheet, which was melting very fast in this period and may have increased El Niño activity by changing ocean currents,” Carré said.

Around 6,000 years ago most of the ice age floes would have finished melting, so the effect of Earth’s orbital geometry might have taken over then to cause the period of weak El Niños. In previous studies, warm-water shells and evidence of flooding in Andean lakes had been interpreted as signs of a much weaker El Niño around 10,000 years ago. The new data is more reliable, Carré said, for three reasons: the Peruvian coast is strongly affected by El Niño; the shells record ocean temperature, which is the most important parameter for the El Niño cycles; and the ability to record seasonal changes, the timescale at which El Niño can be observed.

“Climate models and a variety of datasets had concluded that El Niños were essentially nonexistent, did not occur, before 6,000 to 8,000 years ago,” Sachs said. “Our results very clearly show that this is not the case, and suggest that current understanding of the El Niño system is incomplete.” The research was funded by the U.S. National Science Foundation, the U.S. National Oceanic and Atmospheric Administration and the French National Research Agency.

Other co-authors are Sara Purca at the Marine Institute of Peru; Andrew Schauer, a UW research scientist in Earth and space sciences; Pascale Braconnot at France’s Climate and Environment Sciences Laboratory; Rommel Angeles Falcón at Peru’s Minister of Culture; and Michèle Julien and Danièle Lavallée at France’s René Ginouvès Institute for Archaeology and Anthropology.

Journal Reference: M. Carre, J. P. Sachs, S. Purca, A. J. Schauer, P. Braconnot, R. A. Falcon, M. Julien, D. Lavallee. Holocene history of ENSO variance and asymmetry in the eastern tropical Pacific. Science, 2014; DOI: 10.1126/science.1252220

 

Kollaps und Wiedererstarken im 60-Jahrestakt: Ozeanzyklen steuern Fischbestände vor der Küste Kaliforniens

Sardinen, Anchovies und Seehechte haben eines gemeinsam: Sie treten vor der Küste Kaliforniens für ein paar Jahrzehnte gehäuft auf, dann bricht die Population zusammen. Eine Studie von McClatchie und Kollegen, die im Februar 2017 in den Geophysical Research Letters erschien, hat das Phänomen nun 500 Jahre zurück verfolgt. Wenig überraschend: Auch im letzten halben Jahrhundert setzt sich der mysteriöse Boom-Kollaps-Zyklus dieser Fischgruppen fort. Abstract:

Collapse and recovery of forage fish populations prior to commercial exploitation
We use a new, well-calibrated 500 year paleorecord off southern California to determine collapse frequency, cross correlation, persistence, and return times of exploited forage fish populations. The paleorecord shows that “collapse” (defined as <10% of the mean peak biomass) is a normal state repeatedly experienced by northern anchovy, Pacific hake, and Pacific sardine which were collapsed 29–40% of the time, prior to commercial fishing exploitation. Mean (± SD) persistence of “fishable biomass” (defined as one third mean peak biomass from the paleorecord) was 19 ± 18, 15 ± 17, and 12 ± 7 years for anchovy, hake, and sardine. Mean return times to the same biomass was 8 years for anchovy but 22 years for sardine and hake. Further, we find that sardine and anchovy are positively correlated over 400 years, consistent with coherent declines of both species off California. Persistence and return times combined with positive sardine-anchovy correlation indicate that on average 1–2 decades of fishable biomass will be followed by 1–2 decades of low forage. Forage populations are resilient on the 500 year time scale, but their collapse and recovery cycle (based on the paleorecord) are suited to alternating periods of high fishing mortality and periods of little or no fishing.

Einige Leser werden es bereits erraten haben, was dahinter steckt: Die Ozeanzyklen, die im zyklischen 60 Jahrestakt die Fischbestände nach oben treiben und nach einem halben Zyklus dann wieder kollabieren lassen.

 

Sauerstoffarme Phasen in der Adria sind in den letzten 40 Jahren seltener geworden

In der Adria kommt es im Sommer und Herbst durch die Wasserschichtung immer wieder zu sauerstoffarmen Phasen, sogenannten Hypoxie-Ereignissen. Eine gute Nachricht: In den letzten 40 Jahren sind die sauerstoffarmen Phasen seltener geworden, wie Djakovac et al. 2015 berichteten:

Mechanisms of hypoxia frequency changes in the northern Adriatic Sea during the period 1972–2012
Hypoxia events frequently occurred in the bottom layer of the northern Adriatic Sea (NAd) from mid-summer to mid-autumn, when the water column is highly stratified, with highly variable spatial extent and duration. To determine the mechanisms of changes in hypoxia frequency and their relation to environmental conditions, 40 yr-long time series of dissolved oxygen and of parameters that describe freshwater influence, stratification processes, and circulation patterns were analysed. It was shown that seasonal hypoxic events in the open water areas coincided with the formation of cyclonic or anticyclonic circulation cells, whose stability was estimated by the appearance of the Istrian Coastal Counter Current (ICCC). The oxygenation of bottom waters during the period August–November of the last two decades has increased, whereas a decreasing trend was observed in surface waters. The frequency of hypoxic events at a larger scale in the NAd decreased since 1992, concurrently with reduced ICCC occurrences. However, the frequency of events in the western area, which is under a direct influence of Po River discharges, did not change significantly, although their intensity recently were lower than during the 1970s and 1980s.

Tomasovych et al. 2017 erweiterten nun mithilfe von Untersuchungen an Muscheln den Betrachtungszeitraum in der Adria auf die vergangenen 500 Jahre. Die Forscher fanden, dass es seit dem 18. Jahrhundert immer wieder zu Hypoxie-Phasen kam, die eng an die Wassertemperatur gekoppelt waren. Insofern sind die modernen sauerstoffarmen Phasen lediglich eine Fortsetzung der bekannten Reihe. Abstract:

Stratigraphic unmixing reveals repeated hypoxia events over the past 500 yr in the northern Adriatic Sea
In the northern Adriatic Sea and in most semi-enclosed coastal regions worldwide, hypoxia induced by eutrophication in the late 20th century caused major die-offs of coastal marine organisms. However, ecosystem responses to hypoxia over longer centennial scales are unclear because the duration of direct observations is limited to a few decades and/or the temporal resolution of sedimentary archives is compromised by slow sedimentation and bioturbation. To assess whether perturbations of ecosystems by hypoxia recurred over centuries in the northern Adriatic Sea, we evaluate the timing and forcing of past hypoxia events based on the production history of the opportunistic, hypoxia-tolerant bivalve Corbula gibba, using 210Pb data, radiocarbon dating, amino acid racemization, and distribution of foraminifers in sediment cores that capture the past 500 yr in the Gulf of Trieste. Unmixing the stratigraphic record on the basis of 311 shells of C. gibba, we show that the reconstructed fluctuations in abundance do not correlate with abundances in the raw stratigraphic record. We find that production of C. gibba has undergone major decadal-scale fluctuations since the 18th century, with outbreaks corresponding to density of more than 1000 individuals per square meter. These outbreaks represent long-term phenomena in the northern Adriatic ecosystem rather than novel states characteristic of the 20th century eutrophication. They positively correlate with centennial-scale fluctuations in sea-surface temperature, indicating that the hypoxia events were coupled with water-column stratification rather than with nutrient enrichment.

 

Weltozeane haben im letzten Jahrzehnt mehr CO2 gepuffert

Der University of California, Santa Barabara, war es sichtlich unangenehm, gute Nachrichten verkünden zu müssen: Die Weltozeane haben im letzten Jahrzehnt dank langsamerer Ozeanzirkulation mehr CO2 gepuffert, das der Atmosphäre als Treibhausgas damit entzogen wurde. Hier die Pressemitteilung:

Decoding Ocean Signals

Geographer Tim DeVries and colleagues determine why the ocean has absorbed more carbon over the past decade

With the ocean absorbing more carbon dioxide (CO2) over the past decade, less of the greenhouse gas is reaching the Earth’s atmosphere. That’s decidedly good news, but it comes with a catch: Rising levels of CO2 in the ocean promote acidification, which breaks down the calcium carbonate shells of some marine organisms. The cause of this recent increase in oceanic CO2 uptake, which has implications for climate change, has been a mystery. But new research from UC Santa Barbara geographer Timothy DeVries and colleagues demonstrates that a slowdown of the ocean’s overturning circulation is the likely catalyst. Their findings appear in the journal Nature. “Such a slowdown is consistent with the projected effects of anthropogenic climate change, where warming and freshening of the surface ocean from melting ice caps leads to weaker overturning circulation,” DeVries explained. “But over the time periods we studied, it’s not possible to say whether the slowdown is related to natural climate variability or to climate change caused by human activity.”

DeVries and fellow researchers Mark Holzer of the University of New South Wales in Sydney and François Primeau of UC Irvine compiled existing oceanographic tracer data — measurements of temperature, salinity, CFCs (manmade gases that dissolve into the ocean) and carbon-14 — and separated it into three decade-long time periods: the 1980s, the 1990s and the 2000s.  Subsequent computer analysis of that data enabled the researchers to characterize ocean circulation — the transfer of water from the surface to the deep ocean and back again — for each time period. They then analyzed ocean-atmosphere carbon exchange and ocean carbon cycling within their circulation model. “As the circulation changed from decade to decade —1980s to 1990s to 2000s — the model predicted a big dip in oceanic CO2 uptake during the 1990s, then a large increase in uptake during the 2000s,” DeVries explained. “Furthermore, these swings were attributed directly to the changes in ocean circulation.”

According to DeVries, this finding may seem counterintuitive. Prevailing scientific wisdom asserts that the deceleration of circulation diminishes the ocean’s ability to absorb anthropogenic CO2 from the atmosphere as surface waters warm and become saturated with CO2. “While that is true, there is another effect that appears to be more important in the short term,” DeVries said. “The weaker overturning circulation brings less naturally CO2-rich deep waters to the surface, which limits how much of that gas in the deep ocean escapes to the atmosphere. That causes the ocean to absorb more CO2 from the atmosphere.”

Journal Reference: Tim DeVries, Mark Holzer, Francois Primeau. Recent increase in oceanic carbon uptake driven by weaker upper-ocean overturning. Nature, 2017; 542 (7640): 215 DOI: 10.1038/nature21068

 

Endlich überprüfbare Vorhersagen: Projekt MiKlip legt Mittelfristprognose für Erderwärmung bis 2023 vor

Das Projekt MiKlip erstellt Klimavorhersagen für die kommenden 10 Jahre. In einer Pressemitteilung der Gruppe vom 26. Januar 2017 heißt es:

Erste experimentelle dekadische Klimavorhersagen im interaktiven Online-Tool

Das MiKlip-Projekt hat als Hauptziel, ein dekadisches Klimavorhersagesystem zu entwickeln, welches vom Deutschen Wetterdienst (DWD) betrieben werden wird.

Ein großer Schritt in Richtung dieses Zieles wurde heute erreicht, da eine erste Version der operationellen Kette erfolgreich vervollständigt wurde und, als letztes Bindeglied der Kette, die dekadischen Klimavorhersagen auf der MiKlip-Webseite veröffentlicht wurden. Die Webseite stellt die aktuelle dekadische Vorhersage der bodennahen Temperatur für 2017-2026 für die gesamte Erde sowie den Nordatlantik dar. Es ist geplant, dass die Webseite in zukünftigen Ausgaben der Vorhersagen um weitere Variablen und Regionen erweitert werden wird.  Die Besucher und Besucherinnen der Webseite haben die Möglichkeit, interaktiv zu erkunden, welche Informationen dekadische Vorhersagen liefern können. Gleichzeitig erhalten sie einen Einblick in die Qualität des MiKlip-Systems.

Da sich die Vorhersagen noch in der Entwicklungsphase befinden, sollen die gezeigten Vorhersagen als Experiment verstanden werden und nicht als Grundlage für Entscheidungen verwendet werden.

Die Webseite ermöglicht es den Besuchern und Besucherinnen zwei verschiedene Varianten der Vorhersagen zu erkunden. Diese werden als Zeitreihen und Karten dargestellt. Die Webseite liefert außerdem eine Evaluierung der Vorhersagegüte des MiKlip-Systems, d.h. Informationen darüber, wie gut retrospektive Vorhersagen Beobachtungen in der Vergangenheit erfasst haben. Die Vorhersagegüte des MiKlip-Systems wird mit der Vorhersagegüte zweier Standardreferenzvorhersagen (Klimatologie und Klimaprojektion) verglichen.

Die Besucher und Besucherinnen der Webseite werden dazu ermutigt, ihre Kommentare und Rückmeldungen zur Seite mithilfe des  Feedback-Knopfs weiterzugeben.

Hier gelangen Sie direkt zu den dekadischen Klimavorhersagen für 2017-2026:

www.fona-miklip.de/1/dekadisches-klimavorhersagesystem/dekadische-klimavorhersage-fuer-2017-2026/

Weitere Informationen:
Mehr über dekadische Klimavorhersagen und die zugrundeliegende Forschung
Informationen zu den einzelnen MiKlip-Arbeitspaketen

Eine begrüßenswerte Initiative, denn die Vorhersagen können in den kommenden Jahren mit der realen Entwicklung verglichen und die verwendeten Modelle somit qualitativ bewertet werden. Hier die globale MiKlip-Prognose für die kommenden 10 Jahre (Abb. 1):

Abbildung 1: MiKlip-Vorhersage für die globale Temperaturentwicklung. Screenshot der Webseite vom 20.2.2017.

 

Verwendet werden dabei HadCRUT4-Temperaturdaten, die deutlich mehr Erwärmung zeigen als die Satellitendaten RSS und UAH. Der Anstieg im Jahr 2012 hat nicht etwa mit einer Erwärmung zu jener Zeit zu tun, sondern mit dem späteren El Nino, der in das 4-Jahresmittel (2012=2012-2015) einfließt. Auf jeden Fall wird es nun in den kommenden Jahren spannend, denn der El Nino ist vorbei. Werden die Werte wirklich so ansteigen, wie von MiKlip vermutet? Die Pognose ist auf dem Tisch, die Zeit tickt, warten wir es ab.

MiKlip bietet auch eine Prognose für den Nordatlantik an (Abb. 2). Dort sollen in den kommenden Jahren die Temperaturen nach einem Zwischentief wieder auf das Niveau von 2005 steigen. Die Erwärmung pausiert dort also seit 2003.

 

Abbildung 2: MiKlip-Vorhersage für die Temperaturentwicklung im Nordatlantik. Screenshot der Webseite vom 20.2.2017.

——————-

Das Bundesumweltministerium macht jetzt ernst mit dem Klimaschutz. Ab sofort gibt es auf offiziellen Veranstaltungen nur noch vegetarische Kost, wie Spiegel Online am 18. Februar 2017 berichtete:

Umweltministerium serviert nur noch vegetarische Kost
Kein Fleisch, kein Fisch: Bei Veranstaltungen des Umweltministeriums gibt es nur noch Vegetarisches. Man wolle glaubwürdig und vorbildlich sein, heißt es.

Weiterlesen auf Spiegel Online

———————

Die Wissenschaftsjournalistin Mish Michaels wurde Anfang Februar 2017 von ihrem Sender WGBH News (Boston) entlassen, weil sie der klimaalarmistischen Idee sowie der Sicherheit bestimmter Impfstoffe skeptisch gegenübersteht. WGBH wollte dieses Verhalten offenbar nicht tolerieren. Offiziell heißt es, die Mitarbeiterin hätte das Unternehmen aus “persönlichen Gründen” verlassen. Nachzulesen im Boston Globe (via GWPF).

 

Forscher der Arizona State University fordern 500 000 000 000 Dollar, um das arktische Meereis um einen Meter zu verdicken

Anfang Februar 2017 war der Klimawissenschaftler Hans von Storch zu Gast in der SWR 1-Sendung “Leute”. Es ist schon erstaunlich, wie sehr die SWR Moderatorin Nicole Köster versucht, aus Herrn Storch Klimaalarmismus zu entlocken. Der allerdings bleibt völlig gelassen und entgegnet mit Anpassungsmaßnahmen und wissenschaftlichen Erkenntnissen. Hut ab vor Hans von Storch. Das 34-minütige Interview können Sie als Podcast auf der SWR-Webseite nachhören.

——————-

Kontrastprogramm bei der Arizona State University. Vollständiger Hirnriss. Eine Wissenschaftlergruppe schlägt im Fachblatt Earth’s Future vor, das arktische Meereis aus Klimaschutzgründen um einen Meter zu verdicken. Dazu wollen sie 10 Millionen windbetriebene Pumpen installieren, die Meerwasser auf die Eisoberfläche befördern, wo es dann gefriert. Kostenpunkt: 500 Milliarden Dollar. Der Damm, der die Realität vom Wahnsinn trennt, ist hier offensichtlich völlig gebrochen.

Siehe auch Bericht auf grenzwissenschaft-aktuell.de.

—————–

Irrsinn, Teil 2. Am 9. Februar 2017 traute man in der Neuen Zürcher Zeitung seinen Augen nicht:

Flughafen Wien: Gericht verbietet dritte Landebahn wegen Klimawandel
Der Wiener Flughafen darf nicht ausgebaut werden. Das Bundesverwaltungsgericht untersagte den geplanten Bau einer dritten Start- und Landebahn, weil dadurch der Flugverkehr und damit die Treibhausgasemissionen Österreichs deutlich ansteigen würden. Der Schutz vor den negativen Folgen des Klimawandels sei höher zu bewerten als die positiven Effekte für die Arbeitsplätze und den Standort, erklärte das Gericht.

Weiterlesen in der NZZ. Siehe auch ausführlicher Bericht auf Inside Climate News.

——————-

In einer Pressemitteilung vom 9. Februar 2017 gab das Geophysikalische Instituts der norwegischen Universität Bergen bekannt, dass sich die sommerlichen und herbstlichen Wetterfronten in Europa während der Satellitenära ab 1979 verschärft hätten. Fairerweise geben die Autoren jedoch zu bedenken, dass der betrachtete Zeitraum zu kurz sein, um auf eine anthropogene Beeinflussung zu schließen. Noch sei unklar, ob es sich nicht vielleicht um ein Ergebnis der natürlichen Variabilität im Zuge der 60-jährigen Ozeanzyklen handelt. Hier die Meldung:

Increase in the number of extremely strong fronts over Europe?

A new research finds an increase of strong and extremely strong fronts in summertime and autumn over Europe. If this is a trend or caused by climate change remains to be seen, according to lead author Sebastian Schemm.

Weather fronts are for good reason key elements on our daily weather chart. When they traverse from west to east across Europe they can bring vigorous weather changes, often in connection with high wind speed, gusts, heavy precipitation or often hail. The latter affects mostly continental Europe during the summer season and much less the Nordic countries.

In a recent study in Geophysical Research Letters  Sebastian Schemm from Geophysical Institute and the Bjerknes Centre for Climate Research, and co-authors from the University of Bern and ETH Zürich revealed an increase in the number of strong and extremely strong fronts over Europe mainly during summer and autumn. The study was also selected as as research highlight in Nature Climate Change. In their study, the authors investigated gridded data based on observations and satellite retrievals for the period between 1979–2014.

No comparable trend is identified over continental North America. Because frontal precipitations increases with the strength of a front, this findings may help to better understand the high spatio-temporal variability of precipitation trends across Europe. “Surprisingly meteorologist have yet to settle on a single front definition”, argues Sebastian Schemm, but  “in our study we relied on a very common method that helps meteorologist to draw surface fronts”. In this definition information about temperature and moisture contrasts are combined into one single variable. Accordingly the authors are able to pinpoint increasing atmospheric humidity as the underlying cause of the observed trend in extreme fronts.

According to the IPCC AR5 report, humidity trends are significant over Europe but mixed or close to zero over parts of North America. This is in agreement with the trend in weather fronts. However, according to the lead author, it remains to be seen if the increase in the number of extremely strong fronts is tight to anthropogenic climate change or simply natural variability and part of a multi-decadal climate fluctuation.

Reference: Schemm, S., M. Sprenger, O. Martius, H. Wernli, and M. Zimmer (2017), Increase in the number of extremely strong fronts over Europe? A study based on ERA-Interim reanalysis (1979–2014), Geophys. Res. Lett., 44, 553–561, doi:10.1002/2016GL071451

 

Klimaalarm abgeblasen: Kalkige Mikroalgen zeigen der Ozeanversauerung die kalte Schulter

Das Alfred Wegener-Institut hatte am 5. Dezember 2016 gute Nachrichten zu vermelden:

Winzig kleine Algen, große Widerstandsfähigkeit

Mikroalgen sind mikroskopisch kleine, einzellige Algenarten und eine wichtige Nahrungsquelle im Arktischen Ozean. Dr. Clara Hoppe vom Alfred-Wegener-Institut untersucht, [...], wie sich durch den Klimawandel veränderte Lebensbedingungen auf Mikroalgen im Arktischen Ozean auswirken. Dazu gehört der Anstieg der Wassertemperatur ebenso wie die Versauerung der Ozeane und veränderte Lichtverhältnisse im Wasser aufgrund des Meereisrückgangs. Mikroalgen sind im Gegensatz zu Makroalgen nicht mit dem bloßen Auge erkennbar, sondern mikroskopisch kleine, einzellige Algenarten. Sie sind so winzig, dass ein Milliliter Wasser Abertausende enthalten kann. Da Mikroalgen eine wichtige Nahrungsquelle etwa für Krebstiere wie Krill sind, könnte eine Änderung zum Beispiel ihres Wachstums weitreichende Folgen für das arktische Nahrungsnetz haben.

[...]

„Ich habe jahrelang am Mikroskop gesessen und kaum Unterschiede beobachtet“, stellt Clara Hoppe fest. Was an sich eine gute Tatsache ist, war für die Biologin zunächst gewöhnungsbedürftig. „Ich bin als Forscherin ja quasi darauf gepolt, Veränderungen und Effekte erkennen zu wollen. Aber letztlich habe ich gemerkt, dass es unglaublich spannend ist, dass diese Organismen eben nicht so stark reagieren wie wir es von anderen Arten und Regionen kennen. Ich will herausfinden, warum nicht. Warum sind die Arktischen Mikroalgen so widerstandsfähig? Welche Mechanismen stecken dahinter?“

Eine Theorie hat sie bereits: Die Mikroalgen reagieren unterschiedlich auf Umweltveränderungen wie Temperaturanstiege. Selbst innerhalb einer Art geht nicht jede Mikroalge damit gleich um. Durch diese Flexibilität scheint die Artengemeinschaft insgesamt robuster zu sein. Je höher also die Vielfalt innerhalb einer Art ist, umso besser können die Mikroalgen Veränderungen in ihrer Umwelt abfedern. [...] 

Ganzen Artikel beim AWI lesen.

Bereits ein Jahr (29.11.2015) zuvor hatte Die Welt den Klimaalarm bei den Coccolithen abgeblasen:

Kalkalgen Dieser Meeresbewohner trotzt dem Klimawandel
Ein Szenario des Klimawandels scheint sich nicht zu bestätigen: Die Kalkalgen in den Ozeanen überstehen die Veränderungen überraschend gut. Das Meeresplankton verändert sich – aber anders als gedacht. [...] Bisher fürchtete man, dass die Kalkalgen zu den Organismen gehören, denen der Klimawandel gefährlich zusetzt. Das ist aber bisher nicht eingetreten – im Gegenteil. Die Algen scheinen den Klimawandel gut zu bewältigen. Die Forscher, die das festgestellt haben, sind selbst positiv überrascht. Ein Teil des weltweit ausgestoßenen Kohlendioxids wird von Meeren aufgenommen, die dadurch saurer werden. Die Säure greift die kalkhaltigen Schalen vieler Meeresbewohner an. Das war zumindest die Vermutung. Die Kalkalgen leiden aber nicht. Überraschenderweise seien die Bestände in den vergangenen 50 Jahren global nicht überall rückläufig, berichten US-Wissenschaftler in der Fachzeitschrift „Science“. Im Nordatlantik nimmt die Zahl der Algen sogar zu. [...] 

Ganzen Artikel auf welt.de lesen.

Im Prinzip hält sich die Überraschung in Grenzen. Algen sind Pflanzen. Und Pflanzen brauchen CO2. Da nun mehr CO2 zur Verfügung steht als vorher, wachsen die Mikroalgen besser. So einfach ist das. Sinngemäß berichtete dies auch das Bigelow Laboratory for Ocean Sciences am 16. Januar 2016:

Increased carbon dioxide enhances plankton growth (weiterlesen …)

Konfliktforschung 1400-1900: Je kälter das Klima, umso häufiger rasselten die Völker aneinander

Im Januar 2017 erschien das NBER Working Paper einer Forschergruppe um Murat Iyigun, in dem die Geschichte militärischer Konflikte zwischen 1400 und 1900 ausgewertet wird. Das unerwartete Resultat: Je kälter das Klima, umso häufiger rasselten die Völker aneinander. Hier der Abstract:

Winter is Coming: The Long-Run Effects of Climate Change on Conflict, 1400-1900
We investigate the long-run effects of cooling on conflict. We construct a geo-referenced and digitized database of conflicts in Europe, North Africa, and the Near East from 1400-1900, which we merge with historical temperature data. We show that cooling is associated with increased conflict. When we allow the effects of cooling over a fifty-year period to depend on the extent of cooling during the preceding period, the effect of cooling on conflict is larger in locations that experienced earlier cooling. We interpret this as evidence that the adverse effects of climate change intensify with its duration.

——————-

Spiegel Online wagte es am 20. Januar 2017 gegen den politischen Mainstream zu schwimmen und brachte eine Öko-Story, bei der der Klimawandel doch tatsächlich einmal unbeteiligt ist und freigesprochen wird:

Steinzeitliches Massensterben Mensch, du warst der Killer!
Weltweit starben die Riesen unter den Tieren vor Zehntausenden Jahren aus. War es ein Klimawandel oder war es der Mensch? Forscher glauben nun, das klar beantworten zu können – und fällen einen Schuldspruch.

Ein australisch-amerikanisch-deutsches Forscherteam um den Paläontologen Sander van der Kaars glaubt, stichhaltige Indizien gefunden zu haben, die eine uralte Streitfrage beantworten sollen: Was war schuld am zu unseren Tagen letzten Massensterben der Megafauna – Mensch oder Klimawandel? Kaars und Kollegen zeigen mit einer in den “Nature Communications” veröffentlichten Studie über das Verschwinden der australischen Megafauna, dass ein Klimawandel nichts mit diesem Massensterben zu tun hatte – der Mensch verursachte das offenbar aus eigener Kraft.

Weiterlesen auf Spiegel Online

——————-

Schon gewusst? Während des letzten Interglazials – also der Warmzeit zwischen den letzten beiden Eiszeiten – war es ähnlich warm wie heute. Dies rief die American Association for the Advancement of Science am 19. Januar 2017 per Pressemitteilung in Erinnerung:

Sea-surface temps during last interglacial period like modern temps

Sea-surface temperatures during the last interglaciation period were like those of today, a new study reports. The trend is worrisome, as sea levels during the last interglacial period were between six and nine meters above their present height. The last interglaciation (LIG), which occurred 129,000 to 116,000 years ago, is thought to have been about as warm or a bit warmer than today, making it a useful reference to validate global climate models and understand sea-level response to a warming climate.

Here, Jeremy S. Hoffman and colleagues compiled 104 published LIG sea surface temperature (SST) records from 83 marine sediment core sites. They compared each core site to data sets from 1870-1889 and 1995-2014, respectively. Their analysis reveals that, at the onset of the LIG 129,000 years ago, the global ocean SST was already similar to the 1870-1889 average.

However, by 125,000 years ago, the global SST increased by 0.5° ± 0.3°Celcius, reaching a temperature indistinguishable from the 1995-2014 average. These results suggest that LIG global mean annual SSTs simulated with most global climate models are too low. As well, the data show that the Atlantic Ocean in the Northern Hemisphere was cooler at the beginning of the LIG, compared to temperatures in the Southern Hemisphere. Collectively, these results may help scientists better understand how oceans will respond to modern warming.

Journal Reference: Jeremy S. Hoffman, Peter U. Clark, Andrew C. Parnell, Feng He. Regional and global sea-surface temperatures during the last interglaciation. Science, 2017; 355 (6322): 276 DOI: 10.1126/science.aai8464

 

Vulkane, die schwarzen Schwäne der Evolution?

Im November 2016 hielt Sebastian Lüning im Rahmen der Berliner EIKE-Klimatagung einen Vortrag zur Klimawirkung von Vulkanen. Eine Kurzbeschreibung erschien hierzu auf der EIKE-Webseite:

Dr. habil. Sebastian Lüning, Co Autor des Klimabestsellers „Die kalte Sonne“ berichtet über Vulkane, und ob deren zu unvorhersehbaren Zeiten erfolgenden Ausbrüche als „schwarze Schwäne des Klimageschehens gedeutet werden können. Der Ko-Autor des Klimabestsellers „Die kalte Sonne“ fängt damit an, dass er nun schon zum dritten Mal in Berlin zum Klimathema vorträgt. Das erste Mal, bei der Vorstellung des Buches „Die kalte Sonne“, dessen Thesen vom überaus starken Einfluss der Sonne über die verschiedensten Prozesse – insbesondere denen der atlantischen wie pazifischen Strömungen- sich seit dieser Zeit immer stärker bestätigt, über die Verabschiedung eines verdienten Geologie-Professors an der TU in den Ruhestand, bei dem Lüning zusammen mit den damaligen Vizechef des PIK F.W. Gerstengarbe, ein Streitgespräch führen durfte bis zum heutigen Tage.

Zur Einstimmung in das Thema zitiert er aus Nicolas Talebs berühmten Buch „Der schwarze Schwan“, um zu erläutern, dass damit unvorhergesehene, aber nicht ganz unwahrscheinliche, jedoch sehr wirkmächtige Ereignisse gemeint sind, die sämtliche Wahrscheinlichkeitsberechnungen, die fast alle auf irgendeine Weise mittels Gleichverteilungen und/oder Trendfortschreibungen bestimmt werden, über den Haufen werfen. Vulkane bzw. deren Ausbrüche gehören zweifelsfrei zu solchen Ereignissen. Z.B. in dem sie dank ihres Ascheauswurfes evtl. eine neuen kleine Eiszeit auslösen können.

Diese Hypothese verfolgten einige Autoren, die auch in „Nature “ veröffentlichen durften. Ziel war die ganze kleine Eiszeit als nicht sonnenabhängig zu erklären. Sie mussten aber später einräumen, dass sie sich schlicht im Zeitmaßstab vermessen hatten. Über dieses Eingeständnis, eines durchaus normalen Fehlers, wurde jedoch später von den Medien nicht mehr berichtet. Null. Spätere papers zeigten hingegen das ganze Gegenteil. Die klimatischen Einflüsse der Vulkane sind vorhanden (Sigi et. al 2015) aber nur sehr kurzfristig -in Klima relevanten Zeitmaßstäben- abkühlend wirksam. Später im Vortrag zeigt Lüning auf, dass auch Alfred Wegener einen solchen schwarzen Schwan – nämlich die Kontinentalverschiebung – entdeckt hatte. Die Sonnenaktivität hat, wie Lüning zeigt, einen ganz wesentlichen Anteil an der Erwärmung, weil bei jeder dieser massiven Erwärmungen, diese einen Höchststand hatte. Jedoch spielen sie im IPCC Bericht keinerlei Rolle.

Im Folgenden der Vortrag auf Youtube in voller Länge:

 

Dr. habil Sebastian Lüning, Bild EIKE

———————————————

Bleiben wir beim Thema Vulkane. Im Dezember 2016 erschien in Geology eine Arbeit von Kees Nooren und Kollegen, in der die Autoren einer Klima-Abkühlung um 540 n.Chr. nachgingen, zu der bisher der schuldige Vulkan fehlte. Nun ist der Ausbruch wohl lokalisiert. Es soll sich um den El Chichon in Mexiko handeln, wie Alterdatierungen an dessen Ablagerungen nun anzeigen. Abstract:

Explosive eruption of El Chichón volcano (Mexico) disrupted 6th century Maya civilization and contributed to global cooling
A remarkably long period of Northern Hemispheric cooling in the 6th century CE, which disrupted human societies across large parts of the globe, has been attributed to volcanic forcing of climate. A major tropical eruption in 540 CE is thought to have played a key role, but there is no consensus about the source volcano to date. Here, we present evidence for El Chichón in southern Mexico as the most likely candidate, based on a refined reconstruction of the volcano’s eruption history. A new chronological framework, derived from distal tephra deposits and the world’s largest Holocene beach ridge plain along the Gulf of Mexico, enabled us to positively link a major explosive event to a prominent volcanic sulfur spike in bipolar ice core records, dated at 540 CE. We speculate that voluminous tephra fall from the eruption had a severe environmental impact on Maya societies, leading to temporary cultural decline, site abandonment, and migration within the core area of Maya civilization.

Eine andere Forscherguppe hat sich mit den klimatischen Auswirkungen des Tambora-Ausbruchs 1815 und seine Auswirkungen auf Neuengland beschäftigt. Die University of Massachusetts at Amherst gab am 19. Januar 2017 die folgende Pressemitteilung hierzu heraus:

New England’s 1816 ‘Mackerel Year’ and Climate Change Today

UMass Amherst, New England researchers explore past global climate catastrophe

Hundreds of articles have been written about the largest volcanic eruption in recorded history, at Indonesia’s Mount Tambora just over 200 years ago. But for a small group of New England-based researchers, one more Tambora story needed to be told, one related to its catastrophic effects in the Gulf of Maine that may carry lessons for intertwined human-natural systems facing climate change around the world today.In the latest issue of Science Advances, first author and research fellow Karen Alexander at the University of Massachusetts Amherst and 11 others including aquatic ecologists, climate scientists and environmental historians recount their many-layered, multidisciplinary investigation into the effects of Tambora on coastal fish and commercial fisheries.

Alexander says, “We approached our study as a forensic examination. We knew that Tambora’s extreme cold had afflicted New England, Europe, China and other places for as long as 17 months. But no one we knew of had investigated coastal ecosystems and fisheries. So, we looked for evidence close to home.” In work that integrates the social and natural sciences, they used historical fish export data, weather readings, dam construction and town growth chronologies and other sources to discover Tambora’s effects on the Gulf of Maine’s complex human and natural system.

The 1815 eruption caused a long-lasting, extreme climate event in 1816 known as the “year without a summer.” As volcanic winter settled on much of the Northern Hemisphere, crops failed, livestock died and famine swept over many lands. In New England, crop yields may have fallen by 90 percent. The researchers found that 1816 was also called “the mackerel year,” a clue to what they would find regarding fisheries.

Besides Tambora’s climate effects, the authors examined other system-wide influences to explain observed trends. These included historical events such as the War of 1812, human population growth, fish habitat obstruction due to dam building and changes in fishing gear that might have affected fisheries at the time. Employing historical methods in a Complex Adaptive Systems approach allowed them to group and order data at different scales of organization and to identify statistically significant processes that corresponded to known outcomes, Alexander says.

For instance, temperature fluctuations influenced the entire Gulf of Maine for short periods of time, while dam construction affected individual watersheds through the life of the dams. Space and time scales differ in each case, but both temperature fluctuations and habitat obstructions affect fish, and thus fisheries, at the same time. Such interactions are characteristic of complex systems, she notes.

Establishing timing was key to solving the mystery, Alexander adds. Major export species including freshwater-spawning alewives and shad and marine-spawning mackerel and herring, have different temperature tolerances and seasonal migration patterns and timing, or phenology. Alewives and mackerel arrived earlier when water was colder, shad and herring arrive later after water had warmed up. Because of their phenology and vulnerability in rivers and streams during spawning, alewives suffered the most from the extreme climate event. In Massachusetts where streams had been dammed for a long time, its effects were compounded, the researchers found.

In the early 1800s alewives were a “utility fish,” an important commercial export but also used as chicken feed, garden fertilizer and human food in winter. The winter of 1816 was so cold, Alexander says, that “Penobscot Bay froze solid from Belfast to Castine.” When alewives arrived at their seasonal spawning time, adverse conditions likely disrupted spawning runs, increased natural mortality and, critically for the people depending on them, decreased catch.

She adds, “During this climate crisis, people couldn’t catch enough alewives to meet their needs, so they quickly turned to mackerel, the next abundant species to arrive along the coast. Pursuing mackerel and rapidly distributing it to communities with no other sources of food fundamentally altered the infrastructure of coastal fisheries.” Although records suggest that alewife populations apparently recovered within 25 years, “people responded rapidly and effectively to Tambora in only five years and never looked back when the crisis passed.”

Rates of human and alewife response became uncoupled and the quick fixes, become permanent, later achieved an air of inevitability, the authors suggest.

They add that “complex solutions elude simple explanations.” They point out the “many and obvious,” parallels between that sudden extreme event and current occurrences of drought, flood, storm devastation, food disruption and famine attributed to climate change.

“The past can be a laboratory,” Alexander and colleagues write. Employing historical methods within a Complex Adaptive Systems approach may offer a simple way to examine complex systems where scale, rate and phenology interconnect human and natural processes, andhelp to“advance human resilience by strengthening resilience in the natural world.”

UMass Amherst fisheries ecologist Adrian Jordaan adds, “When the resources are available locally, they can help societies cope with change. Also, during extreme climate events, unthinkable changes including large societal shifts can occur. These are things that we must be prepared for in the world of today, where extreme climatic events are becoming more frequent and severe.”

Michelle Staudinger, an ecologist with the Northeast Climate Science Center at UMass Amherst, says, “Alewives and other fishes that inhabit both rivers and oceans are highly vulnerable to climate change. The lessons learned from this study will help us better anticipate, prepare and cope for additional future impacts on their populations as well as the human communities that depend on them.”

Alex Bryan, a U.S. Geological Survey climate scientist and co-author, says studying a 200-year-old event was a challenge. “Long-term temperature records don’t begin until the turn of the 20th century. Fortunately, we found the weather journal of a physician residing in Salem, Mass., who recorded the air temperature four times a day from the 1780s to the 1820s. Without his devotion to monitoring the weather, this study would not have been possible.”