Wieviel menschengemachter Einfluss steckt im Klimawandel?

Von Frank Bosse

Glaubt man Stefan Rahmstorf und Grant Foster (Foster & Rahmstorf 2011, im Folgenden “F/R 11″) ist es ganz einfach mit der Berechnung des menschgemachten Klimawandels: Man nehme die beobachteten Temperaturdaten 1979-2010, subtrahiere das, was durch El Nino und La Nina (ENSO) beigetragen wird, außerdem die Änderungen, die durch die Variation der Sonnengesamtstrahlung (TSI) eingetragen werden und schließlich  berücksichtige man noch die vulkanischen Aerosole – und simsalabim – das, was da übrig bleibt, ist die menschgemachte Erwärmung. Abbildung 5 aus F/R 11 zeigt das Ergebnis:

 

Was wir sehen, ist ein linearer Trend mit einer Erwärmung von ca. 0,15 Grad Celsius pro 10 Jahre und daran ist „am wahrscheinlichsten ausschließlich der Mensch“ schuld! Aus der Zusammenfassung von F/R 11 (Fettsetzung ergänzt):

„The resultant adjusted data show clearly,…, that the rate of global warming due to other factors (most likely these are exclusively anthropogenic) has been remarkably steady during the 32 years from 1979 through 2010.”

Das sind in der Tat alarmierende Nachrichten: Bis 2100 wären wir dann auf der Ordinate ihres Bildes bei 2 Grad Erwärmung, hinzu kommen noch 0,8 Grad seit Beginn der Industrialisierung, die schon aufgelaufen sind.

Sind wir einer sehr kritischen globalen Situation nahe oder ist es wie bei bisher allen diesen Ankündigungen in der Geschichte – prophezeite Katastrophen  traten noch nie wirklich ein? Ist der Alarm also stichhaltig? Oder gibt es da noch eine größere interne Variabilität, die beim Alarm nicht berücksichtigt wurde? Hätten die Autoren vielleicht von möglichen Argumenten gegen ihren Schluss wissen können? Ihr Kollege Latif (ja, der mit den Prognosen über den ausbleibenden Winterschnee und die Sommertemperaturen von bis zu 50 Grad Celsius in Mitteleuropa – beides nicht eingetroffen) hatte bereits 2006  (Latif et al. 2006) eine dekadische Variabilität in Modellen simuliert, und es gab auch aktuelle Hinweise zum Zeitpunkt des Verfassens der F/R 11-Arbeit: So hatten u.a. DelSole et al. 2011 gewarnt: es könnte eine Variabilität ohne jedes Forcing (ohne treibende Kräfte von außen wie etwa Treibhausgase, Sonne oder Vulkane) geben, die auf Zeitspannen von etwa 30 Jahren einen Trend von 0,08°C pro 10 Jahre erzeugen kann, ohne dass der Mensch dazu beiträgt.

Dass es eine „Fluktuation“ geben muss, die F/R (2011) in ihrer Betrachtung nicht berücksichtigten, liegt auf der Hand: Benutzt man ihren Algorithmus (er ist nicht sehr kompliziert, ein geübter Benutzer eines Kalkulationsprogrammes braucht kaum eine Stunde, um die linearen Rechnungen nachzuvollziehen – erstaunlich wenig Zeit für so etwas komplexes wie unser Klima) für die Jahre 1915-1945 ist man verblüfft:

 

Auch im frühen 20. Jahrhundert verbleibt ein Anstieg von 0,12 Grad/10 Jahre, und der kann in dieser Höhe damals schwerlich menschengemacht sein. Die atlantische multidekadische Oszillation (AMO) war schon seit 2000 und davor bekannt, aber die Erklärung hierfür lange strittig: Ist es ein Auf-und-Ab der Temperaturen des nördlichen extratropischen Atlantiks, das selbst durch ein Forcing entsteht, oder ist es eine Schwankung der thermohalinen Zirkulation, also völlig natürlich?

Das IPCC setzte bisher auf das Forcing als Ursache der Schwankungen in der Temperaturreihe seit 1880 und erklärte es so: Die Erwärmung nach 1910 entstand durch ein Nachlassen der kühlenden Wirkung von vorangegangenen Vulkanausbrüchen. Die Abkühlung 1945-1975 wurde dagegen durch troposphärische, vornehmlich anthropogene Aerosole verursacht, die zunächst ein Absinken der Sonnenstrahlung am Boden (“Global Dimming”) und nach 1975 mit dem Greifen von Umweltschutzmaßnahmen zu ihrer Reduzierung ein Aufhellen (“Global Brightening”) bewirkten.

Immer wieder erschienen Arbeiten hierzu. Darunter solche, die die AMO auch in Modellen nachvollzogen, ohne dass immer wieder Aerosole die Variabilität zum richtigen Zeitpunkt etwa alle 60 Jahre „von oben her“ steuern mussten, genannt seien Wei & Lohmann (2012) und Wouters et al. (2012). Aktuell ist auch eine Publikation, die die These des aerosolen Forcings stützt: Booth et al. 2012 meinten in Simulationen zeigen zu können, dass man das Verhalten der nordatlantischen Variabilität der Oberflächentemperaturen des Ozeans durch Aerosolforcing im 20. Jahrhundert vollständig erklären könne. Dem widersprachen erst unlängst Zhang et al. (2013). Sie fanden, dass bei Einbeziehung des Wärmeinhalts der oberen 700m (Ocean Heat Content – OHC) des nördlichen Atlantiks die Erklärung durch Aerosolforcing allein sehr zweifelhaft ist.

So hat man wohl bisher die Einflüsse der Aerosole auf die atlantische Variabilität überschätzt, wenn man nicht nur an der Meeresoberfläche bleibt. Die Aerosol-Erklärung klingt auch schon ein wenig zu kompliziert: erst Vulkane, dann menschengemachte Schwebestoffe für eine Erscheinung, die es schon mindestens seit hunderten von Jahren mit einiger Konstanz in Amplitude und Phase gibt, vgl.: Gray et al. (2004). Sollten immer wieder die genannten Forcings zeitlich genau passend wirken? Wie  wahrscheinlich ist das?

Aufmerksame Leser haben vielleicht schon unseren Beitrag “Sag‘ mir wo die Wärme ist, wo ist sie nur geblieben?” gelesen, wo wir Hinweise fanden, dass auf der Nordhalbkugel die troposphärischen Aerosole gerade im AMO-Gebiet eine geringere Wirkung entfalten als anderswo. Es zeigte sich auch, dass der ozeanische Wärmeinhalt des Gebietes der Schlüssel zum Verständnis der Temperaturentwicklung zu sein scheint: Die Energie in über 11 Millionen km³ Wasser bis hinab in 700 m Tiefe sollte deutlich mehr von mächtigen Ozeanströmungen zu beeinflussen sein, als von der Atmosphäre mit ihrer vergleichsweise sehr geringen Wärmekapazität. Wie die Wärmeenergie in dieser großen Wassermenge auf die Temperaturen der gesamten Nordhalbkugel (HadCRUT4) wirkt, zeigt dieses Bild nochmals sehr anschaulich:

In blau der ozeanische Wärmeinhalt (OHC) des AMO-Gebietes 30-60N; 10W-60W, in rot die Temperaturen der Nordhalbkugel, beides geglättet mit einem Tiefpass.

 

Die Nordhalbkugel wirkt nun augenscheinlich wiederum sehr ausgeprägt auf die Temperaturtrends der gesamten Erde. Seit 1900 können wir da sehen, wie sich typische „Kamelhöcker“ abbilden:

 

Gezeigt sind die Steigungen der 13- jährigen Trends (jeweils mittenzentriert) der globalen Temperaturen in Grad Celsius pro Dekade über die Jahre und eine 15-Jahres-Tiefpassglättung. Die Anstiegsraten,  Amplituden und Zeitabläufe der beiden Höcker der letzten 110 Jahre sind nahezu identisch, was auch gegen wechselnde Ursachen spricht, wie sie die Aerosolerklärung fordert. Die ausbleibende Erwärmung seit mindestens 2005 ist auch verständlich: Es kühlt sich mit dem wahrscheinlichen Abschwung der AMO-Fluktuation (vgl. letztes Bild des OHC des nördlichen extratropischen Atlantiks) seitdem ab.

 

Globale Temperaturen nach HadCRUT4 mit einer 5-Jahresglättung

 

An diesem Punkt setzt auch eine aktuelle Arbeit zweier Mathematiker (Tung & Zhou 2013) an, die schließlich die Rechnung von F/R 11 wiederholen, diesmal jedoch unter Einbeziehung der atlantischen internen Variabilität:

 

Abbildung 5b aus Tung/Zhou(2013)

 

Der Trend, der sich im Beobachtungszeitraum 1979-2010 von F/R 11 ergibt, wenn man alle in der Abbildung bezeichneten Einflüsse subtrahiert, beträgt noch 0,07°C/10 Jahre,  recht genau die Hälfte von dem, was wir unter „Alarm“ bei  Rahmstorf und Foster gesehen haben.  Der Verlauf 1910-1945 passt sich, anders als bei F/R 11, sehr gut ein. Die „Kamelhöcker“ sind verschwunden. In 2100 sollten wir dann im Mittel ca. 0,9°C mehr sehen als heute – statt 1,8°C, wie es sich bei einer Extrapolation der F/R 11-Reihe ergibt. F/R 11 haben die ansteigende Flanke der AMO in dieser Zeit der anthropogenen Erwärmung zugeschlagen ohne die Möglichkeit einer anderen Ursache auch nur zu erwähnen! Kein Ruhmesblatt für den Peer Review-Prozess bei den ENVIRONMENTAL RESEARCH LETTERS, in denen die Arbeit von Foster und Rahmstorf erschienen ist.

Ist das Ergebnis in der Abbildung oben nun der resultierende anthropogene Trend vornehmlich durch die Freisetzung von CO2? Das kann man nicht sagen. Vergleichen wir es mit einem Sack voller Unbekannte, der Sack stehe für unser Klima. Wir entfernen das, was wir schon gut kennen und folgern daraus: alles was noch drin ist, muss anthropogen sein. So etwa könnte man am Ende das Vorgehen von F/R 2011 beschreiben. Das ist zwar eine nette Strategie bei TV-Quiz-Sendungen (dort Ausschlussmethode genannt) und auch leidlich funktionierend, da es nur eine begrenzte Auswahl an möglichen Antworten gibt.

In der Wissenschaft wird jedoch stets Neues gefunden, ein Beispiel ist die Wirkung von „Black Carbon“, also Ruß.  Ihm wird neuerdings ein Wärmeeffekt von etwa 2/3  der derzeit vom IPCC angenommenen CO2-Wärmewirkung  zugeschrieben (vgl. unseren Beitrag “Ruß ist ein viel größerer Klimakiller als gedacht: Muss CO2 jetzt kleinere Brötchen backen?“). Der Platz für das Kohlendioxid im Sack wird so immer kleiner.  Wer weiß, was wir demnächst noch alles numerisch besser wissen werden und aus dem Sack entfernen können. Die Forschung an solaren Einflüssen auf unser Klima ist im vollen Gange und geht seit kurzem weit über die Effekte der Sonnen-Gesamtstrahlung (TSI) hinaus (vgl. unseren Bericht  “Neuer Bericht des US-amerikanischen National Research Council zur Klimawirkung der Sonne“).