Es ist nicht alles Gold was glänzt: Ein kleiner Streifzug durch die Welt der Klimamodelle

Über die fragwürdigen Qualitäten von Klimamodellen und Temperaturprognosen haben wir hier im Blog bereits mehrfach in Einzelbeiträgen berichtet (Artikelübersicht hier). Wir wollen das Thema nun in einer kleinen Serie vertiefen und hierzu einen kleinen Streifzug durch die aktuelle Literatur unternehmen. Sind die millionenschweren Rechenkästen ihre hohen Investitionskosten wert oder gibt es möglicherweise Gründe, sich zunächst auf die grundlegende Klärung des darin verwendeten Formelwerks zu konzentrieren? Kann man den Ergebnissen der Klimamodellierung uneingeschränkt vertrauen oder ist hierzu religiöse Überzeugung von Nöten?

Der bekannte Mathematiker und Chaosforscher Heinz-Otto Peitgen wurde 2006 in einem Spiegel-Interview gefragt, ob sich denn das Klima überhaupt modellieren ließe. Pleitgen, der mittlerweile Präsident der Bremer Jacobs University ist, antwortete damals:

„Jetzt reden wir von Glaubenssachen. Es gibt Leute, die glauben – und viele von denen sitzen in hoch bezahlten Positionen in sehr bedeutenden Forschungszentren -, dass man das Klima modellieren kann. Ich zähle zu denen, die das nicht glauben. Ich halte es für möglich, dass sich die mittlere Erwärmung der Ozeane in 50 Jahren mit einem bestimmten Fehler vorausberechnen lässt. Aber welche Wirkungen das auf das Klima hat, das ist eine ganz andere Geschichte.“

Mit dieser skeptischen Sichtweise ist Peitgen nicht allein. Im Jahr 2011 erschien im Journal of Forecasting eine Studie, in der die Ergebnisse von Klimamodellen gegen den Verlauf von Zufallsbewegungen („random walk“) verglichen wurden. Das erschreckende Resultat: Die getesteten Klimamodelle schnitten schlechter ab als die Zufallsbewegungen (siehe Ross McKitrick’s Artikel in der Financial Post, bzw. Beiträge auf WUWT und EIKE). Andrew Montford schlug aufgrund der mageren Leistungen der Klimamodelle vor, diese künftig als „Protomodelle“ zu bezeichnen, damit sie von effektiveren, wirklich prädiktiven Modellen unterschieden werden können. Auf diese Weise würden die großen Unsicherheiten der Klimamodelle in der Öffentlichkeit Erinnerung gehalten, was insbesondere für politische Entscheidungsträger wichtig ist.

Bei einem Treffen von Klimawissenschaftlern, das im Oktober 2011 in Boulder, Colorado, stattfand, zeigte sich, dass die Ergebnisse der diversen verwendeten globalen und regionalen Klimamodelle stark streuten. Die Gründe für diese Diskrepanzen wären allerdings noch zu schlecht verstanden und würden in der Diskussion noch zu wenig berücksichtigt geschweige denn kommuniziert. Diese Schlussfolgerung des Workshops wurde in einem Artikel der geophysikalischen Fachzeitung Eos festgehalten (siehe Beitrag von Roger Pielke, Sr.). Roger Pielke, Sr. weist zudem darauf hin, dass Modelle erst dann als glaubwürdig und verlässlich eingestuft werden können, wenn sie die Klimaentwicklung der Vergangenheit reproduzieren könnten. Bislang sind die Modelle jedoch diesen Beweis schuldig geblieben, insbesondere wenn man regionale Entwicklungen im Maßstab von einzelnen Jahren bis zu mehreren Jahrzehnten als Test heranzieht.

Noch immer sind die Vorgänge in der Atmosphäre offensichtlich viel zu komplex, als dass sie von Computern in realistischer Weise modelliert werden könnten. Einen Überblick zu diesem Problem gibt zum Beispiel Tim Ball in seinem Blog.

Natürlich möchte man von all diesen Schwächen der Klimamodelle am liebsten gar nichts hören, wenn man Anhänger der Klimakatastrophe ist. Daher geht die Modelliererzunft in der Öffentlichkeit gerne über diese Schwierigkeiten hinweg. Es sei alles viel zu kompliziert und als Normalmensch könne man das sowieso nicht verstehen. Trust me, I  am a Doctor!

Die Öffentlichkeit ist mittlerweile jedoch hellhörig geworden. In einer kürzlich veröffentlichten Studie wertete Karen Akerlof mit einigen Kollegen die vier wichtigsten nationalen Tageszeitungen der USA für den Zeitraum von 1998 bis 2010 und prüfte die Berichterstattung zum Thema Klimammodelle. Es zeigte sich, dass im Schnitt doppelt so viele negative Kommentare über die Leistungsfähigkeit von Klimamodellen vorkamen wie positive. In Umfragen gaben zudem knapp zwei Drittel der US-Bürger an, dass Klimamodelle entweder zu ungenau sind, um die Zukunft vorherzusagen, oder dass sie nicht wissen, ob man ihnen vertrauen kann.

Und was für Schlüsse zog das Team um Akerlof daraus? Der ORF berichtete die überraschende Sichtweise: 

In einer solchen Situation, „wo die meisten verwirrt oder skeptisch sind, könnte das Angebot erklärender Inhalte abseits von politischen Kommentaren und Meinungsträgern Menschen dabei helfen, ihre laienhaften Wissenschaftsmodelle zu überwinden.“ Und das könnte sich auch auf ihre Wünsche nach politischen Maßnahmen auswirken, wie die Forscher abschließend hoffen.

Nicht die Klimamodelle wären also das Problem, sondern die laienhaften Vorstellungen der Bevölkerung. Der Fehler muss natürlich immer auf der Gegenseite liegen, da man sich selber als IPCC-nahem Forscher anscheinend nichts vorzuwerfen hat… Viel Spass weiterhin in der schönen heilen virtuellen Klimawissenschaftswelt.

Lauschen wir daher lieber einem kritischeren Vertreter der Klimaforschung, Dr Roy Spencer, der in einem Videobeitrag über eine folgenschwere Verwechslung von klimatischer Ursache und Wirkung von Wolken aufklärt:

Wolken und Schwebteilchen, sogenannte Aerosole, gehören zu den großen Unbekannten in den Klimamodellen. Sie werden gerne als „Joker“ eingesetzt und offenbar so dimensioniert, dass auf jeden Fall das gewünschte Modellierungsresultat herauskommt (siehe Kapitel 5 in „Die kalte Sonne“).

In einem Nature-Beitrag vom 9.5.2012 wird jetzt behauptet, man hätte in diesem Bereich mittlerweile große Fortschritte gemacht. Die Modelle der neuesten Generation wären nun viel schlauer, besser und präziser als alles was es zuvor gab. Der Durchbruch stünde kurz bevor. All dies kam zufällig gerade noch rechtzeitig für den gerade entstehenden 5. Klimazustandsbericht des IPCC, der 2013/2014 erscheinen soll. Was für ein großes Glück, könnte man meinen. Im Nature-Beitrag wird geschildert, dass man den Erwärmungsstopp von 1940-1977 nun endlich in den Griff bekommen hätte. Und wie hat man es geschafft? Man hat einfach die sonnenverdunkelnden Luftverunreinigungen während dieser Zeit noch kühlender gemacht. Ozeanzyklen hingegen hätten kaum noch etwas mit dem genannten Erwärmungsstop zu tun. Es muss also purer Zufall sein, dass die Temperaturen in den letzten 150 Jahren immer stiegen, wenn die Ozeanzyklen nach oben strebten, und dass die Temperaturen wieder fielen bzw. stagnierten, wenn die Ozeanzyklen absackten. Zufälle gibt’s die gibt’s gar nicht… Der Großteil der IPCC-Modellierer scheint jedoch daran zu glauben. Vielleicht glauben sie auch noch an den Osterhasen, wer weiß das schon so genau.

Nur vereinzelt regt sich Widerstand. Und wieder ist es Kevin Trenberth, der bereits vor einigen Jahren in einer privaten Email an Kollegen den mittlerweile berühmten Ausspruch gemacht hat: „Es ist eine Schande, dass die Wissenschaft die derzeitige Pause der Erderwärmung nicht erklären kann.“ Man hat’s schon nicht leicht, wenn man immer das sagt, was man auch denkt. Er hatte damals natürlich recht, durfte seine Zweifel aber eigentlich nicht öffentlich äußern.

Im aktuellen Fall weist Trenberth auf die noch immer großen Unsicherheiten hinsichtlich der Klimawirkung von Wolken und Aerosolen hin. In den Satellitendaten ist der von den Modellierern postulierte starke Aerosol-Effekt jedenfalls nicht wiederzufinden. Theorie und Praxis wollen einfach nicht zusammenpassen. Trenberth wird im Nature Beitrag zudem zitiert:

„Es würde mich überraschen, falls der Ozean [also die Ozeanzyklen] in Form von natürlichen Zyklen keine substantielle Rolle spielen sollte.“

Auch der Modellierer Michael Winton von NOAA‘s Geophysical Fluid Dynamics Laboratory (GFDL) machte sich zu diesem Thema durchaus selbstkritische Gedanken, wie im Nature-Beitrag geschildert wird:

„Wenn man ein Modell hat, das gut zu den gemessenen Daten passt, würde man das dann als Modellierunsgerfolg bezeichnen?“ Obwohl das neue GFDL-Modell eine umfangreichere Darstellung der Atmosphäre beinhaltet und die Satellitendaten besser nachvollziehen kann, warnt Winton vor der Gefahr, dass die Modellierer möglicherweise die richtige Antwort aus den falschen Gründen gewonnen haben. 

Diese Skepsis ist durchaus angebracht. Denn die Aerosol-Neubewertung im aktuellen GFDL-Klimamodell führt zu einer wichtigen Veränderung für die Klimadiskussion: Die Klimawirkung von CO2 und anderen Treibhausgase müsste nun noch höher liegen, als bislang schon vom IPCC angenommen. Den IPCC wird es freuen. Denn nun steigt die Temperatur bis 2100 im Mittel nicht mehr nur um 3,1°C, sondern sogar gleich um 4°C an. Für dieses schöne Ergebnis haben die beteiligten Modellierer sicher eine kleine Gehaltserhöhung verdient, meinen Sie nicht auch?

Siehe auch Beitrag auf The Resilient Earth.

 

Videotipp:

Der Meteorologe Donald Bäcker beschreibt am 21.06.2012 im ARD-Morgenmagazin die Schwierigkeit langfristiger Wetterprognosen aus Basis von Wetter- und Klimamodellen.

 

Mit Dank an Klaus-Eckart Puls und Rainer Hoffmann für die Bereitstellung von Material.
Lesen Sie morgen Teil zwei der Klimamodellierungs-Reihe.
Teilen: