News und Termine

Naturschützer warnt vor Klima-Hysterie „Die Eisbären werden auch Trump überleben“

In der Zeit zwischen 8000 und 5000 Jahre vor heute war die Sahara dank reichhaltigerer Niederschläge grün: The Green Sahara. Die Phase fällt in das holozäne thermische Maximum, als es global um 1-2 Grad wärmer war als heute. Im Zuge der Milankovic-Zyklik reichte der Monsunregen viel weiter nach Norden als heute. Der Archäologe David Wright sollte diese Fakten eigentlich kennen. Trotzdem publizierte er nun in Frontiers in Earth Science eine richtig verrückte Hypothese: Der Mensch wäre am Umschlag von der Grünen zur Gelben Sahara selber Schuld. Er hätte durch Überweidung die Vegetation zerstört, damit die Albedo verstärkt und die Wüste verschuldet. Quatsch hoch drei. Wer sich trotzdem Wrights Argumente einmal anschauen möchte, kann die dazugehörige Pressemitteilung studieren.

Siehe auch unseren kürzlichen Blogartikel "Die Grüne Sahara".

———————-

Michael Miersch am 14. März 2017 in der Bildzeitung zum Klimawandel, Naturschutz und zur Energiewende:

Naturschützer warnt vor Klima-Hysterie „Die Eisbären werden auch Trump überleben“

Miersch: „Ein besonders gutes Beispiel für Klima-Hysterie! In den 50er-Jahren gab es weltweit noch 5000 Eisbären, nach neueren Zählungen sind die Bestände auf über 30 000 angewachsen. Tendenz steigend. Warum? Ein Zoologe sagte mir mal: ‚Ein Eisbär lebt nicht von Eis, sondern von Robben.‘ Und auch die wichtigsten Beutetiere Sattelrobben und Ringelrobben haben sich erfreulich vermehrt. Wer also das Ende des Eisbären vorhersagt, begibt sich selbst auf dünnes Eis. Die Eisbären werden auch die vier oder acht Jahre Trump überleben – auch wenn das Klima sich weiter erwärmen sollte.“

[...]

BILD: Sie arbeiten als Geschäftsführer für Bildung für die Deutsche Wildtier-Stiftung. Verstehen wir Sie richtig, dass Ihnen der Naturschutz inzwischen zu kurz kommt?

Miersch: „Es ist eine Sache der Abwägung. Im Moment ist die Priorität von Politik und Bevölkerung klar. Nehmen Sie die Windenergie, die in Deutschland inzwischen eine mächtigere Lobby als die Öl-, Kohle- und Atomkraft-Fraktion aufgebaut hat. Jährlich 120 000 Vögel, darunter 12 000 Greifvögel und 250 000 Fledermäuse sterben durch Windräder, ohne dass sich die breite Masse darüber aufregt. Stellen Sie sich mal vor, was in Deutschland los gewesen wäre, wenn in der Nähe von Atomkraftwerken 100 Vögel tot vom Himmel gefallen wären. Völlig zu Recht.“

Ganzes Interview in der Bildzeitung lesen.

———————-

Gute Nachricht für das Leben in der Antarktis. Der Klimawandel schafft dort besserer Lebensbedingungen, wie eine Pressemitteilung des Dartmouth College (via ScienceDaily) vom 13. März 2017 berichtet:

Increased water availability from climate change may release more nutrients into soil in Antarctica

Increases in phosphorus load in soil and aquatic ecosystems may allow for more abundant life

As climate change continues to impact the Antarctic, glacier melt and permafrost thaw are likely to make more liquid water available to soil and aquatic ecosystems in the McMurdo Dry Valleys, potentially providing a more nutrient-rich environment for life, according to a Dartmouth study recently published in Antarctic Science. With an average annual air temperature of -2.2 F and an average precipitation of 3-50 mm per year, the McMurdo Dry Valleys of Antarctica are dominated by dry soils underlain by permafrost. The Dry Valleys ecosystem is severely limited by liquid water and nutrients, resulting in limited organic matter. One such limited nutrient is phosphorus, an element that is essential to all living organisms. Understanding the spatial distribution of phosphorus in the soil is crucial to identifying where life could become more abundant in the future.

Dartmouth scientists examined the variability of soil phosphorus in the McMurdo Dry Valleys by evaluating two forms of phosphorus in surface soil samples: labile phosphorus, which is immediately available to organisms, and mineral phosphorus, which needs to be broken down by weathering before organisms can use it. The researchers analyzed how parent material, landscape age, soil chemistry and texture, and topography affect the two forms of phosphorus.

The findings indicate that in the McMurdo Dry Valleys, as for many other regions, the two forms of phosphorus, labile and mineral phosphorus, are not related. Even though rock type may be used to help predict the amount of mineral phosphorus in soils, it does not predict how much phosphorus is available to organisms. Instead, the available phosphorus was found to be correlated with soil conductivity, soil texture and topography. The findings also revealed that landscape age across a gradient of approximately 20,000 to 1.5 million years was not a strong predictor of either form of phosphorus. “Mineral phosphorus, while not currently available to organisms, represents a large store of this essential nutrient that could become unlocked in the future,” says lead author Ruth C. Heindel, a graduate student in earth sciences at Dartmouth.

As global warming continues to impact the McMurdo Dry Valleys of Antarctica, with more meltwater streams and water tracks travelling across the landscape, more mineral phosphorus is likely to become available through rock weathering over centuries to millennia. Phosphorus loads are also likely to increase to Dry Valleys aquatic ecosystems, which are currently some of the most phosphorus-limited ecosystems on the planet. As more phosphorus becomes available, microscopic organisms, such as nematodes, tardigrades, rotifers, algae and cyanobacteria, may become more abundant in the McMurdo Dry Valleys.

Ruth C. Heindel, Angela M. Spickard, Ross A. Virginia. Landscape-scale soil phosphorus variability in the McMurdo Dry Valleys. Antarctic Science, 2017; 1 DOI: 10.1017/S0954102016000742

 

University of California Santa Barbara: Bis zur Hälfte der arktischen Meereisschmelze geht auf das Konto der natürlichen Variabilität

Am 26. März 2017 zeichnete Der Tagesspiegel ein düsteres Bild für das arktische Meereis:

Globaler Klimawandel: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge

Ein ungewöhnlich milder arktischer Winter hat der Nordpolarregion einen neuen unerfreulichen Rekord beschert. Noch nie gab es am Ende dieser Jahreszeit so wenig Eis auf dem Arktischen Ozean. Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen. Das National Snow and Ice Data Centre (NSIDC) der Universität von Colorado in Boulder gab nun die maximale Eisfläche auf dem nördlichen Polarmeer im Winter 2016/2017 an. Die Meereisfläche wuchs in der kalten Jahreszeit nur auf 14,42 Millionen Quadratkilometer an. Gemessen wurde dies am 7. März. „Das ist der niedrigste Stand in den 38 Jahren mit Satellitenmessungen“, teilte das NSIDC mit.

Ersteinmal: Es ist richtig, dass das arktische Meereis derzeit ziemlich geschrumpft ist. Climate4You zeigt die Entwicklung auf Basis des NSIDC (Stand Februar 2017):

Abbildung 1: Entwicklung der arktischen (blau) und antarktischen (rot) Meereisbedeckung währen der letzten 35 Jahre. Quelle: Climate4You auf Basis von NSIDC.

 

Die Formulierung “noch nie” ist natürlich grob irreführend, wenn man bedenkt, dass die Satellitendaten gerade einmal ein paar Jahrzehnte zurückreichen. Ein sinnvoller Vergleich wäre mit der letzten großen Wärmephase, der Mittelalterlichen Wärmeperiode vor 1000 Jahren. Hier eine Rekonstruktion der Meereisentwicklung vor Grönland von Miettinen et al. 2016:

Abbildung 2: Entwicklung der Temperatur (oben) und Meereisbedeckung (unten) im Bereich von Grönland. Graphik: Miettinen et al. 2016.

 

Gut zu erkennen ist der starke Rückgang des arktischen Meereises in der Zeit 1000-1200 n.Chr. (untere Kurve in Abb. 2). Dieser wichtige historische Kontext wird in den aktuellen Presseartikeln zum arktischen Meereis komplett ausgeblendet. Das Verschweigen einer unbequemen Vergangenheit ist jedoch keine nachhaltige Erklärungslösung. Umso erfreulicher ist ein Artikel auf Spiegel Online vom 14. März 2017 zu einer neuen Arbeit, die den aktuellen Meereisschwund zu einem großen Teil der natürlichen Variabilität zuschreibt:

Eisschwund in der Arktis: Schuld ist nicht nur der Mensch
Das Eis der Arktis wird immer kleiner. Die Verantwortung dafür trägt die Menschheit – aber nicht allein, wie eine neue Studie zeigt.

[...] Etwas komplizierter wird die Sache allerdings dadurch, dass der Mensch ganz offenbar nicht allein verantwortlich ist für das Verschwinden des Eises. “Seriöse Leute haben schon lange gesagt, dass natürliche Variabilität beim Meereisrückgang eine Rolle spielt”, sagt etwa Rüdiger Gerdes vom Alfred-Wegener-Institut in Bremerhaven. Und auch Claire Parkinson vom Goddard Space Flight Center der Nasa in Greenbelt (US-Bundesstaat Maryland) bestätigt: “Polarforschern ist schon lange klar, dass Veränderungen beim Meereis verschiedene Ursachen haben.” [...] Mit Computermodellierungen berechnete  [ein Forscherteam um Qinghua Ding von der University of California Santa Barbara] dafür zunächst, welchen Anteil die atmosphärische Zirkulation im September am Verlust des Meereises insgesamt hatte. Dabei kamen sie auf einen stattlichen Beitrag von bis zu 60 Prozent. Nun ist es allerdings so, dass die Emissionen der Menschen – und die daraus resultierenden Temperaturänderungen in der Atmosphäre – die großräumigen Windsysteme der Erde auch beeinflussen. Also nahmen Ding und seine Kollegen diesen menschengemachten Beitrag aus ihrer Rechnung wieder heraus. Übrig blieb ein natürlicher Anteil von 30 bis 50 Prozent am Verschwinden des sommerlichen Meereises.

Ganzen Artikel auf Spiegel Online lesen.

Hochspannend: Bis zur Hälfte der sommerlichen Meereisschmelze in der Arktis geht auf das Konto der natürlichen Variabilität. Der Tagesspiegel hätte dies in seinem Artikel gerne erwähnen können. Lieber schwieg man, denn das Volk hätte es ja missverstehen können. Für alle mutigen Leser daher hier der Originalabstract von Ding et al. aus Nature Climate Change. Das Paper erschien dort am 13. März 2017:

Influence of high-latitude atmospheric circulation changes on summertime Arctic sea ice
The Arctic has seen rapid sea-ice decline in the past three decades, whilst warming at about twice the global average rate. Yet the relationship between Arctic warming and sea-ice loss is not well understood. Here, we present evidence that trends in summertime atmospheric circulation may have contributed as much as 60% to the September sea-ice extent decline since 1979. A tendency towards a stronger anticyclonic circulation over Greenland and the Arctic Ocean with a barotropic structure in the troposphere increased the downwelling longwave radiation above the ice by warming and moistening the lower troposphere. Model experiments, with reanalysis data constraining atmospheric circulation, replicate the observed thermodynamic response and indicate that the near-surface changes are dominated by circulation changes rather than feedbacks from the changing sea-ice cover. Internal variability dominates the Arctic summer circulation trend and may be responsible for about 30–50% of the overall decline in September sea ice since 1979.

Siehe auch Bericht in der Welt vom 14. März 2017:

Klimawandel: Auch natürliche Gründe für Eis-Schwund der Arktis
[...] Lange Zeit gingen [Experten] davon aus, dass das Handeln des Menschen, der übermäßige Ausstoß von Treibhausgasen in die Atmosphäre, die Erwärmung am Nordpol vorantreibt. Dass der Mensch also schuld ist, wenn sich die biologischen Netzwerke im Eis des Nordens auflösen. Eine neue Studie aber sieht das anders. Der drastische Rückgang des sommerlichen Meereises in der Arktis geht demnach zu einem großen Teil auf natürliche Schwankungen zurück. Etwa 40 Prozent des Schwunds beruhten auf vom Treibhauseffekt unabhängigen Luftströmungen, schätzen US-Forscher um Qinghua Ding von der University of California in Santa Barbara im Fachblatt „Nature Climate Change“.

Ganzen Artikel in der Welt lesen.

Hier die dazugehörige Pressemitteilung der University of Washington vom 13. März 2017:

Rapid decline of Arctic sea ice a combination of climate change and natural variability

Arctic sea ice in recent decades has declined even faster than predicted by most models of climate change. Many scientists have suspected that the trend now underway is a combination of global warming and natural climate variability.

A new study finds that a substantial chunk of summer sea ice loss in recent decades was due to natural variability in the atmosphere over the Arctic Ocean. The study, from the University of Washington, the University of California Santa Barbara and federal scientists, is published March 13 in Nature Climate Change. “Anthropogenic forcing is still dominant — it’s still the key player,” said first author Qinghua Ding, a climate scientist at the University of California Santa Barbara who holds an affiliate position at the UW, where he began the work as a research scientist in the UW’s Applied Physics Laboratory. “But we found that natural variability has helped to accelerate this melting, especially over the past 20 years.” The paper builds on previous work by Ding and other UW scientists that found changes in the tropical Pacific Ocean have in recent decades created a “hot spot” over Greenland and the Canadian Arctic that has boosted warming in that region.

The hot spot is a large region of higher pressure where air is squeezed together so it becomes warmer and can hold more moisture, both of which bring more heat to the sea ice below. The new paper focuses specifically on what this atmospheric circulation means for Arctic sea ice in September, when the ocean reaches its maximum area of open water. “The idea that natural or internal variability has contributed substantially to the Arctic sea ice loss is not entirely new,” said second author Axel Schweiger, a University of Washington polar scientist who tracks Arctic sea ice. “This study provides the mechanism, and uses a new approach to illuminate the processes that are responsible for these changes.”

Ding designed a new sea ice model experiment that combines forcing due to climate change with observed weather in recent decades. The model shows that a shift in wind patterns is responsible for about 60 percent of sea ice loss in the Arctic Ocean since 1979. Some of this shift is related to climate change, but the study finds that 30-50 percent of the observed sea ice loss since 1979 is due to natural variations in this large-scale atmospheric pattern. “What we’ve found is that a good fraction of the decrease in September sea ice melt in the past several decades is most likely natural variability. That’s not really a surprise,” said co-author David Battisti, a UW professor of atmospheric sciences. “The method is really innovative, and it nails down how much of the observed sea ice trend we’ve seen in recent decades in the Arctic is due to natural variability and how much is due to greenhouse gases.”

The long-term natural variability is ultimately thought to be driven by the tropical Pacific Ocean. Conditions in the tropical Pacific set off ripple effects, and atmospheric waves snake around the globe to create areas of higher and lower air pressure. Teasing apart the natural and human-caused parts of sea ice decline will help to predict future sea ice conditions in Arctic summer. Forecasting sea ice conditions is relevant for shipping, climate science, Arctic biology and even tourism. It also helps to understand why sea ice declines may be faster in some decades than others. “In the long term, say 50 to 100 years, the natural internal variability will be overwhelmed by increasing greenhouse gases,” Ding said. “But to predict what will happen in the next few decades, we need to understand both parts.”

What will happen next is unknown. The tropical Pacific Ocean could stay in its current phase or it could enter an opposite phase, causing a low-pressure center to develop over Arctic seas that would temporarily slow the long-term loss of sea ice due to increased greenhouse gases. “We are a long way from having skill in predicting natural variability on decadal time scales,” Ding said. The research was funded by NOAA, the National Science Foundation, NASA and the Tamaki Foundation. Other co-authors are Stephen Po-Chedley, Eduardo Blanchard-Wrigglesworth and Ryan Eastman in the UW’s Department of Atmospheric Sciences; Eric Steig in the UW’s Department of Earth and Space Sciences; and Michelle L’Heureux, Kristin Harnos and Qin Zhang at the National Oceanographic and Atmospheric Administration’s Climate Prediction Center.

 

Neue Hinweise auf eine niedigere CO2-Klimasensitivität

Wie stark erwärmt CO2 das Klima? Ein Teil der Klimaskeptiker sagt, dass das CO2 überhaupt keine Erwärmungswirkung besitzt. Ein anderer Teil sieht durchaus eine Erwärmungswirkung, die jedoch unterhalb der vom IPCC angegebenen Spanne von 1,5-4,5°C Erwärmung pro CO2-Verdopplung liegen soll. Wiederum ein anderer Teil der Skeptiker vermutet eine Erwärmung am unteren Rand innerhalb der IPCC-Spanne. In unserem Buch “Die kalte Sonne” hatten wir Beispiele für 1,5°C und 1,0°C pro CO2-Verdopplung vorgestellt. Die sogenannte CO2-Klimasensitivität bleibt weiterhin eine kontrovers diskutierte Größe. Im letzten IPCC-Bericht (AR5) hatten sich die Experten so zerstritten, dass sie sich nicht einmal mehr auf einen besten Schätzwert einigen konnten.

Zuletzt gab es vermehrte Hinweise darauf, dass die CO2-Klimasensitivität wohl eher am unteren Rand der IPCC-Spanne liegt. Siehe unsere Blogbeiträge hier. Im Folgenden wollen wir Sie auf den neuesten Stand der Diskussion bringen. Was hat sich in den letzten Monaten auf diesem Feld getan?

Im Oktober 2016 stellten Zeng & Geil 2016 in den Geophysical Research Letters eine Temperaturprognose vor, in der sie auch die bisherigen Messwerte verstärkt berücksichtigen. Dabei kommen sie auf eine Klimasensitivität (ECS) von 2,34°C pro CO2-Verdopplung, was deutlich unterhalb des vom IPCC (AR4) genannten Mittelwerts von 3,0°C liegt. Zeng & Geil 2016 schreiben im Haupttext der Arbeit:

Then our equilibrium climate sensitivity of 2.34°C is within the IPCC [2013] range of 1.5–4.5°C, and our transient climate response of 1.46°C is also within the IPCC [2013] range

Hier der Abstract:

Global warming projection in the 21st century based on an observational data-driven model
Global warming has been projected primarily by Earth system models (ESMs). Complementary to this approach, here we provide the decadal and long-term global warming projections based on an observational data-driven model. This model combines natural multidecadal variability with anthropogenic warming that depends on the history of annual emissions. It shows good skill in decadal hindcasts with the recent warming slowdown well captured. While our ensemble mean temperature projections at the end of 21st century are consistent with those from ESMs, our decadal warming projection of 0.35 (0.30-0.43) K from 1986–2005 to 2016–2035 is within their projection range and only two-thirds of the ensemble mean from ESMs. Our predicted warming rate in the next few years is slower than in the 1980s and 1990s, followed by a greater warming rate. Our projection uncertainty range is just one-third of that from ESMs, and its implication is also discussed.

Bereits im Mai 2016 hatte Ray Bates in Earth and Space Science ein anderes Modell vorgestellt, in dem er eher Werte um 1°C für die Klimasensitivität errechnete:

Estimating climate sensitivity using two-zone energy balance models
Estimates of 2 × CO2 equilibrium climate sensitivity (EqCS) derive from running global climate models (GCMs) to equilibrium. Estimates of effective climate sensitivity (EfCS) are the corresponding quantities obtained using transient GCM output or observations. The EfCS approach uses an accompanying energy balance model (EBM), the zero-dimensional model (ZDM) being standard. GCM values of EqCS and EfCS vary widely [Intergovernmental Panel on Climate Change range: (1.5, 4.5)°C] and have failed to converge over the past 35 years. Recently, attempts have been made to refine the EfCS approach by using two-zone (tropical/extratropical) EBMs. When applied using satellite radiation data, these give low and tightly constrained EfCS values, in the neighborhood of 1°C. These low observational EfCS/two-zone EBM values have been questioned because (a) they disagree with higher observational EfCS/ZDM values and (b) the EfCS/two-zone EBM values given by GCMs are poorly correlated with the standard GCM sensitivity estimates. The validity of the low observational EfCS/two-zone EBM values is here explored, with focus on the limitations of the observational EfCS/ZDM approach, the disagreement between the GCM and observational radiative responses to surface temperature perturbations in the tropics, and on the modified EfCS values provided by an extended two-zone EBM that includes an explicit parameterization of dynamical heat transport. The results support the low observational EfCS/two-zone EBM values, indicating that objections (a) and (b) to these values both need to be reconsidered. It is shown that in the EBM with explicit dynamical heat transport the traditional formulism of climate feedbacks can break down because of lack of additivity.

Am 20. März 2017 erschien nun ein Paper von Hermann Harde im International Journal of Atmospheric Sciences, in dem er auf eine Klimasensitivität (ECS) von 0,7°C kommt:

Radiation Transfer Calculations and Assessment of Global Warming by CO2
We present detailed line-by-line radiation transfer calculations, which were performed under different atmospheric conditions for the most important greenhouse gases water vapor, carbon dioxide, methane, and ozone. Particularly cloud effects, surface temperature variations, and humidity changes as well as molecular lineshape effects are investigated to examine their specific influence on some basic climatologic parameters like the radiative forcing, the long wave absorptivity, and back-radiation as a function of an increasing CO2 concentration in the atmosphere. These calculations are used to assess the CO2 global warming by means of an advanced two-layer climate model and to disclose some larger discrepancies in calculating the climate sensitivity. Including solar and cloud effects as well as all relevant feedback processes our simulations give an equilibrium climate sensitivity of = 0.7°C (temperature increase at doubled CO2) and a solar sensitivity of = 0.17°C (at 0.1% increase of the total solar irradiance). Then CO2 contributes 40% and the Sun 60% to global warming over the last century.

Ein paar Tage zuvor hatte Antero Ollila auf WUWT eine Abhandlung auf WUWT veröffentlicht, bei der er eine transient climate Response (TCR) von 0,6°C bestimmt:

On the Reproducibility of the IPCC’s climate sensitivity
[...] The conclusion is that the IPCC’s warming values are about 200 % too high (1.75 degrees versus 0.6 degrees) because both the CO2 radiative forcing equation, and the CS calculation include water feedback. It is well-known that IPCC uses the water feedback in doubling the GH gas effects; even though there are relative humidity measurements showing that this assumption is not justified. CO2 radiative forcing by Myhre et al. includes also water feedback, and this has not been recognized before the author’s studies. This feature explains too high of a contribution of CO2.

Die ansonsten üblicherweise zitierte equilibrium climate sensitivity (ECS) würde entspreched höher liegen. Ollila schreibt hierzu jedoch:

The calculation of the equilibrium CS (ECS) by IPCC applies positive feedbacks, which are not observed so far and are therefore very theoretical.

Die zuletzt genannten Arbeiten mit Werten unterhalb von 1,0°C erinnern auch an eine Berechnung von Dietze (2003), in der eine ECS von 0,65°C pro CO2-Verdopplung vorschlagen wurde. In dem Aufsatz erläutert Peter Dietze auch, dass Stephen Schneider früher wohl von einem ähnlichen Wert ausgegangen sein muss:

Hinsichtlich der Übertreibung der Klimaerwärmung sei auch an Stephen Schneider mit seiner bekannten Aussage von 1989 [5.1] erinnert „To capture the public imagination, we have to offer up some scary scenarios, make simplified dramatic statements and little mention of any doubts one might have. Each of us has to decide the right balance between being effective, and being honest“. In einer Studie des Pew Center im Oktober 2000 [5.2] konstatierte er, die Klimasensitivität der Erde für CO2 sei „unbekannt“ (!), es werde jedoch „allgemein [für die Simulationsrechnungen] angenommen daß der wahrscheinlichste Gleichgewichtswert für eine CO2-Verdoppelung zwischen 1,5 und 4,5 °C liegt“. Als er wegen der solar bedingten Abkühlung nach 1940 eine kommende Eiszeit befürchtete, veröffentlichte er 1971 in Science, daß selbst eine Verachtfachung der CO2-Konzentration eine globale Erwärmung um kaum 2 °C bewirken würde [5.1].

Zu erwähnen ist auch eine Arbeit von Holger Schmithüsen und Kollegen in den Geophysical Research Letters aus dem Dezember 2015. Thema ist ein negativer Treibhauseffekt in der Antarktis.

How increasing CO2 leads to an increased negative greenhouse effect in Antarctica
CO2 is the strongest anthropogenic forcing agent for climate change since preindustrial times. Like other greenhouse gases, CO2 absorbs terrestrial surface radiation and causes emission from the atmosphere to space. As the surface is generally warmer than the atmosphere, the total long-wave emission to space is commonly less than the surface emission. However, this does not hold true for the high elevated areas of central Antarctica. For this region, the emission to space is higher than the surface emission; and the greenhouse effect of CO2 is around zero or even negative, which has not been discussed so far. We investigated this in detail and show that for central Antarctica an increase in CO2 concentration leads to an increased long-wave energy loss to space, which cools the Earth-atmosphere system. These findings for central Antarctica are in contrast to the general warming effect of increasing CO2.

Eine gute Übersicht zur Debatte der Klimasensitivität finden Sie in einem Vortrag von Marcel Crok, den er im Dezember 2015 in Essen hielt:

 

Angesichts der vielen Hinweise auf eine geringere CO2-Klimasensitivität wundert es nicht, dass die Hardliner im IPCC vorsorgen und im Gegenzug Papers mit hohen Werten publizieren. Im kommenden IPCC-Bericht (AR6) werden diese dann gleichberechtigt verwendet, so dass am Ende alles beim Alten bleiben kann. Eine tolle Taktik. Beispiel 1 stammt von Richardson et al. 2016 im IPCC-nahen Blatt Nature Climate Change. Darin wird behauptet, die gemessenen Temperaturen wären falsch gemessen. Wenn man die richtigen (nicht gemessenen) Temperaturen verwenden würde, dass würde die IPCC-Klimasensitivität auch stimmen. Klingt logisch, oder? Judith Curry und Nick Lewis (hier und hier) entzauberten die Abhandlung elegant. Judith Curry schrieb:

The key issue that this paper raises is about the quality of the global surface temperature data sets, particularly related to sampling. The paper infers that the trend of surface temperature anomalies in HadCRUT4 are 9-40% lower than the true global averages. Is this believable? Well the uncertainty in surface temperature trends (9-40%) doesn’t seem implausible, but the inference that the uncertainty is only on the side of insufficient warming doesn’t seem plausible.

Beispiel 2: Carolyn Snyder wollte es offenbar besonders gut machen. Im Oktober 2016 schlug sie in Nature doch tatsächlich eine Klimasensitivität von 7-13°C vor. Das gab sicher eine Festanstellung oder Beförderung. Möglicherweise ignoriert Snyder, dass der CO2 Anstieg nach einem Glazial rund 800 Jahre NACH der Wiedererwärmung einsetzt und daher nicht die eigentliche Ursache sein kann, sondern höchstens verstärkend wirkt. Da ist wohl etwas schief gelaufen. Nature war es egal, hauptsache krasser Alarm. Siehe auch Beiträge hierzu auf JoNova und WUWT.

Skandal beim Spiegel-Jugendmagazin Bento: Feuer frei zum faktenfreien Mobbing wissenschaftlich Andersdenkender

Drei Nachwuchsjournalisten legten vor kurzem im Jugendmagazin Bento von Spiegel Online eine Arbeitsprobe vor, die wenig überzeugt. Was hatten sich Caroline Wiemann, Vanessa Vu und Josa Mania-Schlegel wohl dabei gedacht, als sie versuchten, wissenschaftliche Ansichten ins Lächerliche zu ziehen, ohne auch nur einen einzigen konkreten Sachinhalt anzusprechen? Bereits bei der Planung des Interviews mit Michael Limburg scheinen böse Pannen unterlaufen zu sein. Hätte man nicht mindestens drei wissenschaftliche Fragestellungen diskutieren müssen, um dann die Diskrepanzen herauszuarbeiten und anschließend zu bewerten? Stattdessen verlassen sich Wiemann, Vu und Mania-Schlegel blind auf Dritte, ohne eigenen Faktencheck. Peinlich.

Die Klimawissenschaften sind zugegebenermaßen komplex. Das darf jedoch kein Vorwand dafür sein, komplett ohne Inhalte auszukommen und Andersdenkende ins Lächerliche zu ziehen. Es ist schon ein starkes Stück, was die drei Youngster hier mit Limburg treiben. Störrisch beharre er auf seinen alternativen Fakten, die jedoch im Artikel nicht konkret angesprochen werden. Sie werfen ihm vor, Limburg gehöre zur organisierten Klimaleugner-Szene, würde ganz fies mit dem Flugzeug reisen und sähe wie ein Agent aus. Außerdem kenne er einen, der angeblich das Passivrauchen gut findet. Der tickt ja wohl nicht richtig.

Leute, Leute. Das ist armselig. Hier drei Klimafragen an Caroline Wiemann, Vanessa Vu und Josa Mania-Schlegel, quasi zur Nachbearbeitung dieses Fiaskos:

1) Liebe Frau Wiemann, könnten Sie kurz die vorindustrielle Temperaturentwicklung der letzten 10.000 Jahre für uns skizzieren? Hat es während dieser Zeit bereits schon einmal Zeiten gegeben, während denen es ähnlich warm oder sogar wärmer als heute war? Was waren die Gründe für diese natürlichen Wärmeperioden?

2) Liebe Frau Vu, der IPCC räumte in seinem 5. Klimazustandsbericht ein, dass die gängigen Klimamodelle die paläoklimatologisch gut dokumentierte mittelalterliche Wärmeperiode nicht reproduzieren können. Inwieweit kann man Modellen vertrauen, die die Rückwärtsmodellierung nicht verlässlich bewältigen? Zusatzfrage: Auf welchen besten Schätzwert (“best estimate”) der “CO2-Klimasensitivität” hat sich der IPCC in seinem letzten Bericht geeinigt?

3) Lieber Herr Mania-Schlegel, das Jahr 1850 wird in politischen Diskussionen oftmals als Bezugspunkt von Betrachtungen zum Klimawandel verwendet. Inwiefern halten Sie diesen Bezugspunkt für geeignet, berücksichtigend, dass es sich um die Schlussphase der sogenannten Kleinen Eiszeit handelt, einer natürlichen Kälteperiode, die eine kalte Extrementwicklung in der Klimageschichte der letzten 10 000 Jahre darstellt?

 

Lesen Sie auch die lesenswerten Besprechungen des bento-Artikels auf EIKE und achgut.

 

Aus der Klimageschichte lernen: Die arktischen Hitzewellen der 1930er und 40er Jahre

Klimaalarm der World Meteorological Organization (WMO), brühwarm weitererzählt am 21. März 2017 von derwesten.de:

Hitzewellen in der Arktis – Klimaforscher schlagen Alarm
[...] Im Winter gab es in der Arktis Temperaturen fast am Schmelzpunkt. Nicht das einzige Wetterextrem, von dem Klimaforscher berichten. Mindestens drei Mal sei es Anfang 2017 in der Arktis zu so etwas wie Hitzewellen gekommen, berichtete die Weltwetterorganisation (WMO) in Genf. Mächtige atlantische Stürme hätten warme, feuchte Luft in die Arktis gebracht. Auf dem Höhepunkt des Winters und der eigentlichen Gefrierperiode habe es Tage mit Temperaturen fast am Schmelzpunkt gegeben. Das habe den polaren Jetstream – einen der Windströme, die sich in großer Höhe um den Planeten ziehen – und damit das Wetter global beeinflusst.

Ist es wirklich fünf vor zwölf? Wird es in der Arktis immer heißer und heißer? Schauen wir uns den Verlauf der HadCRUT4-Temperaturen in der Arktis einmal an (Abb. 1). Schön zu sehen ist die Erwärmungsphase 1990-2005. Davor und danach herrschte eher ein welliges Temperaturplateau. Eine signifikante Arktis-Erwärmung in den letzten 10 Jahren ist nicht zu erkennen.

Abb. 1: Temperaturentwicklung in der Arktis seit 1957. Daten: HadCRUT4, Graphik: Climate4You.

 

Erweitern wir nun unseren Zeithorizon und schauen fast 100 Jahre zurück. Was für eine Überraschung: In den 1930er und 40er Jahren gab es in der Arktis zwei Hitze-Jahrzehnte, die ähnlich warm waren wie heute (Abb. 2). Eine klitzekleine Auslassung in der WMO-Pressemitteilung und dem Artikel auf derwesten.de.

Abb. 2: Temperaturentwicklung in der Arktis seit 1920. Daten: HadCRUT4, Graphik: Climate4You.

 

Die frühen arktischen Hitzejahre sind eindrucksvoll in den Temperaturaufzeichnungen der isländischen Stadt Akureyri dokumentiert (Abb. 3):

Abb. 3: Temperaturentwicklung des isländischen Ortes Akureyri seit 1880. Quelle: NASA/GISS.

 

Was könnte wohl zu der Erwärmung in den 1930er/40er Jahren geführt haben? Hier genügt ein Blick auf den Verlauf des 60-jährigen Atlantikzyklus, der AMO (Atlantische Multidekaden Ozillation). Die kann man ganz einfach auf der NOAA-Webseite hochaktuell selber plotten (Abb. 4). Die AMO-Kurven auf Wikipedia oder anderswo sind zwar farbenfroher, aber oft fehlen die letzten Jahre. Hauptantrieb der Arktis-Erwärmung in den 1990er und 2000er Jahren war der zeitgleiche starke Anstieg der AMO. Die von der WMO berichteten Hitzewellen passen gut zum aktuelle Plateau der AMO (Abb. 4). Nun muss man kein Wahrsager sein, um die zukünftig Entwicklung realistisch abzuschätzen: Das AMO-Plateau könnte sich noch einige Jahre fortsetzen. Eine weitere massive Erwärmung ist nicht zu erwarten, da der höchste Punkt der AMO-Spitze bereits erreicht ist. Irgendwann in den kommenden Jahren beginnt dann die Talfahrt der AMO. Entsprechend sollten auch die Temperaturen in der Arktis dann zurückgehen. Der Blick in die Klimageschichte lohnt sich.

 

 

Bereits Winston Churchill wusste:

Je weiter man zurückblicken kann, desto weiter wird man vorausschauen.

Irgendwann werden das dann auch die Damen und Herren Zeitungsredakteure erkennen. Die Kunst des Faktencheckens scheint seit Erfindung der Copy-Paste-Funktion verlorengegangen zu sein.

 

 

Machen wir wieder gutes Klima

Am 25. März 2017 hat sich SRF-Wettermann Christoph Siegrist wieder einmal ziemlich lächerlich gemacht:

Über den Klimawandel: Machen wir wieder gutes Klima
Wer hat den Treibhauseffekt erfunden? Und wer kam auf die Idee, Gase in der Luft zu messen? Die Geschichte von Klimawandel und CO2 ist turbulent und Donald Trump ist nicht der erste, der der Klimaforschung den Geldhahn zudrehen will.

Weiterlesen beim SRF.

Allein schon der Titel “Machen wir wieder ein gutes Klima” ist so albern wie naiv. Damit definiert Siegrist die ungünstig kühle Periode der Kleinen Eiszeit vor der industriellen Revolution (also vor der postulierten anthropogenen Erwärmung) als “gutes Klima”. Zudem scheint er davon überzeugt zu sein, dass die Menschheit allein über die Regulation der CO2-Emissionen das irdische Klima nach Wunsch manipulieren könnte. Von den zahlreichen natürlich verursachten Klima-Schwankungen (die selbst schon im Holozän durchaus signifikant waren) scheint Wetterfrosch Siegrist noch nie etwas gehört zu haben. Noch peinlicher ist diese widersinnige Textpassage von Siegrist, der einst – man glaubt es kaum – an der ETH Zürich das Fach Naturwissenschaften studierte:

“Es (das CO2) schwankt im Takt der Erde, die Konzentration steigt vom Morgen bis zum Mittag, sinkt dann auf die Nacht hin wieder. Und es scheint, also würde die Erde atmen, denn immer im nordhemisphärischen Frühling steigt die CO2-Konzentration und sinkt dann (im Sommer) wieder auf den Herbst (hin). Aber die Erde schnauft immer schwerer, denn es gibt immer mehr CO2 in der Atmosphäre.

Offenbar hat der diplomierte Naturwissenschaftler Siegrist mittlerweile völlig verdrängt, was bereits interessierte Sekundar-Schüler wissen sollten: Das CO2-Atmen der Erde wird vor allem durch die Photosynthese der Pflanzenwelt verursacht, also dem Prozess, der notabene die wichtigste Grundlage des irdischen Lebens darstellt. Aber Pflanzen “schnaufen” mit mehr CO2 nicht “immer schwerer”, sondern in Gegenteil, immer leichter! Für die meisten Pflanzen sind höhere CO2-Gehalte von 1000 bis 2000 ppm ideal und bereits die bisherige Zunahme von ca. 300 auf 400 ppm führte in den letzten Jahrzehnten zu einem erstaunlichen Ergrünen der Erde.

Weiter scheint Siegrist nicht zu wissen, dass die Ozonloch-Problematik und die These eines CO2-induzierten globalen Klimawandels zwei grundverschiedene Themen sind, zwischen denen höchstens einige indirekte Verknüpfungen existieren. Warum sonst kommt er auf die Idee, diese unterschiedlichen Zusammenhänge im folgenden Zitat derart unreflektiert zu vermischen:

“Er (Ronald Reagan) hatte wenig Interesse übrig für Klimaforschung. Allerdings sass damals ein gewisser Al Gore im Kongress, der ein Hearing zum Thema organisierte und so verhinderte, dass Klimaforschung komplett aus der politischen Agenda fiel. Und Reagan war lernfähig: Unter seiner Regierung gingen die USA mutig voran in der Bekämpfung des Ozonlochs; mit Erfolg.”

Aber immerhin muss man Siegrist zugestehen, dass er die globale Abkühlungsphase von den 1940er bis in die 1970er Jahre offen benennt und mit dem damaligen Vorstoss vieler Gletscher auch als eine reale Tatsache belegt. Damit gibt er – wohl nicht ganz freiwillig und unbewusst – zu, dass die durch zahlreiche nachträgliche “Adjustments” manipulierte globale Temperatur-Kurve von GISS/NASA nicht stimmen kann, da dort diese globale Abkühlungsphase weitgehend weg retuschiert wurde, weil sie nicht in das Konzept einer allein durch CO2 bedingten Klimaerwärmung passt.

 

Kein Klimawandel: Überschwemmungen in Peru durch einen halben El Nino

Klimasorgen am 21. März 2017 in der Frankfurter Rundschau:

El Niño, Klimawandel: Peru kämpft gegen Fluten

Nur ein Vorbote für weit schlimmere Katastrophen? Forscher rätseln, wie das Aufheizen des Pazifiks, daraus resultierende Regenfälle und die schweren Überschwemmungen in Peru genau zusammenhängen.

Peru bekommt die dramatische Lage infolge tagelanger Unwetter und Überschwemmungen nach Einschätzung von Präsident Pedro Pablo Kuczynski langsam unter Kontrolle. „Wir haben die Hoffnung, dass es bald vorbei ist“, sagte er bei einem Besuch des Katastrophenzentrums. Bisher starben 78 Menschen, 260 wurden verletzt und über 100.000 Menschen verloren ihre Häuser. Die Unwetter gehen nach Meinung von Wissenschaftlern auf das Klimaphänomen des „Küsten-El-Niño“ zurück, der bisher räumlich begrenzt ist. Das Meereswasser vor der Küste ist um fünf Grad wärmer als normalerweise um diese Jahreszeit üblich. Wegen der starken Verdunstung des Wassers kommt es zu heftigen Regenfällen in den Anden, was die Flüsse stark anschwellen ließ. Ob sich aus diesem Wetterphänomen die als El Niño verstandene großräumige Erwärmung des äquatorialen zentralen Pazifiks entwickeln werde, ist derzeit aber nach Einschätzung des Deutschen Wetterdienstes (DWD) noch unklar. [...] Kuczynski forderte mehr Einsatz gegen den Klimawandel. Er hat bereits angekündigt, dass die rund 30 Flüsse an der Küste stärker kanalisiert werden müssen. Ihr starkes Gefälle von den Anden herunter zum Pazifik mache sie schnell zu reißenden Strömen. „Alle Länder müssen zusammen arbeiten, das Thema ist ein globales“, sagte er dem Sender CNN.

El Nino, Klimawandel? Der Artikel lässt einen zunächst ziemlich ratlos zurück. Ist der El Nino nicht schon seit etlichen Monaten vorbei? Handelt es sich um die Nachwehen des El Nino? Was ist ein “Küsten-El Nino”? Und was soll der Klimawandel damit zu tun haben? Die Washington Post gibt einen ersten Hinweis, um was es sich handelt:

The water is so warm, actually, that Peru climatologists declared a “coastal El Niño” to communicate to the public the kind of conditions they should expect and prepare for. The situation doesn’t meet NOAA’s technical definition of an El Niño, so you won’t be seeing the agency declare its arrival — perhaps for months — but meteorologists can’t ignore this technically unnamed phenomenon’s devastating impact. NOAA says the ocean is still in a neutral condition — meaning neither El Niño or La Niña — but forecast models used by the Australian Bureau of Meteorology suggest El Niño might arrive as early as April [2017]. It’s a tough call to make, though, since the region is known to have a “spring barrier” on forecasts. For whatever reason, El Niño forecasts made in spring tend not to perform that well. But the warm water is blatantly obvious off the coast of South America in 2017. It’s kind of like half an El Niño, but for all intents and purposes in Peru, it might as well be a whole one.

Die Bezeichnung “Küsten-El Nino” ist also eine Lokalbezeichnung peruanischer Wissenschaftler, die salopp im Artikel als “halber El Nino” bezeichnet wird. Offiziell stehen die El Nino-Anzeichen auf neutral, was kein Wunder nach dem Abflauen des letzten starken El Ninos ist. Eine robuste Prognose der weiteren Entwicklung ist zu diesem frühen Zeitpunkt noch nicht möglich. Mit dem Klimawandel hat das Ganze herzlich wenig zu tun. Der peruanische Präsident agiert hier als Trittbrettfahrer und erhofft sich internationale Gelder zur Sicherung der schon immer gefährlichen Andenflüsse unter dem Schirm des “Klimaschutzes”. Gegen eine internationale Beteiligung an den Fluss-Sicherungsmaßnahmen ist nichts auszusetzen. Aber ginge es auch ohne die moralisch und fachlich falsche Klimakeule?

Wir nutzen die Gelegenheit und schauen uns das El Nino-Geschehen etwas genauer an. Die NOAA bietet auf ihrer Webseite detallierte Verlaufskarten und Temperaturkurven hierzu an. Dort ist schön zu erkennen, wie die Wärmeblase in den letzten Wochen die peruanische Küste erreicht hat:

Abbildung 1: Entwicklung der Ozeanoberflächentemperatur Januar bis März 2017. Graphik: NOAA.

 

Die peruanische Küstenregion (hier als Nino 1+2-Region bezeichnet) liegt derzeit 2,2°C über normal:

Abbildung 2: El Nino-Regionen zur Bestimmung lokaler El Nino-Anomalien. Quelle: NOAA. Stand: 27. März 2017.

 

Die dazugehörigen Temperatur-Anomalie-Kurven hier (NINO 1+2=peruanische Küste):

Abbildung 3: Temperaturanomalien in verschiedenen Äquatorsegmenten des Pazifik. Quelle: NOAA.

 

Das war’s dann wieder für heute mit der Kalten-Sonne-Universität. Bei uns gibt es den wissenschaftlichen Hintergrund zu Zeitungsartikeln, die auf den ersten Blick nicht leicht zu erschließen sind. Und das Ganze 100% Klimaalarm-frei.

 

 

 

 

Einfluss der Sonne auf den Klimawandel erstmals beziffert

Pressemitteilung des Schweizerischen Nationalfonds zur Förderung der Wissenschaflichen Forschung vom 27. März 2017:

———-

Einfluss der Sonne auf den Klimawandel erstmals beziffert

Modellrechnungen zeigen erstmals eine plausible Möglichkeit auf, wie Schwankungen der Sonnenaktivität einen spürbaren Effekt auf das Klima haben. Gemäss den vom Schweizerischen Nationalfonds geförderten Arbeiten könnte sich die menschgemachte Erderwärmung in den nächsten Jahrzehnten leicht verlangsamen: Eine schwächere Sonne wird voraussichtlich ein halbes Grad Abkühlung beitragen.

Es gibt den menschgemachten Klimawandel – und es gibt natürliche Klimaschwankungen. Ein wichtiger Faktor bei diesem unabänderlichen Auf und Ab der Erdtemperatur, das in verschiedenen Zyklen verläuft, ist die Sonne: Ihre Aktivität variiert und damit auch die Intensität der Strahlung, die bei uns ankommt. Es ist eine der zentralen Fragen der Klimaforschung, ob diese Schwankungen überhaupt einen Effekt auf das irdische Klima haben. Die IPCC-Berichte gehen davon aus, dass die Sonnenaktivität in der jüngeren Vergangenheit und auch der nächsten Zukunft keine Bedeutung für den Klimawandel hat.

Eine vom Schweizerischen Nationalfonds (SNF) geförderte Studie relativiert diese Annahme nun. Die Forschenden vom Physikalisch-Meteorologischen Observatorium Davos (PMOD), der EAWAG, der ETH Zürich und der Universität Bern liefern mit aufwendigen Modellrechnungen eine belastbare Schätzung des zu erwartenden Beitrags der Sonne zur Temperaturänderung in den nächsten 100 Jahren und finden dabei erstmals einen signifikanten Effekt. Sie errechnen eine Abkühlung des Erdklimas um ein halbes Grad, wenn die Sonnenaktivität ihr nächstes Minimum erreicht.

Auch wenn diese Abkühlung den menschgemachten Anstieg der Temperatur keineswegs kompensieren wird, ist sie bedeutsam, so Werner Schmutz, Direktor des PMOD und Leiter des Projekts: “Wir könnten wertvolle Zeit gewinnen, wenn die Aktivität der Sonne zurückgeht und sich der Temperaturanstieg damit ein wenig verlangsamt. Das dürfte uns helfen, mit den Folgen des Klimawandels umzugehen.” Doch die Zeit ist nur geborgt: Nach dem nächsten Minimum komme auch das nächste Maximum garantiert, warnt Schmutz.

Starke Schwankungen können vergangenes Klima erklären

Ende März treffen sich die beteiligten Forscher zu einer Konferenz in Davos, um die Endresultate des Projekts zu diskutieren. Dieses bündelte das Knowhow verschiedener Forschungsinstitutionen bei der Modellierung von Klimaeffekten. Das PMOD errechnete den sogenannten Strahlungsantrieb der Sonne (wobei neben der elektromagnetischen auch die Teilchenstrahlung berücksichtigt wurde), die ETH Zürich die weiteren Auswirkungen in der Atmosphäre und die Universität Bern die Wechselwirkungen zwischen Atmosphäre und Ozeanen.

Die Schweizer Forscher gingen dabei von einer deutlich stärkeren Schwankung der auf die Erde treffenden Strahlung aus als in bisherigen Modellen. “Das ist der einzige Ansatz, um die natürlichen Klimaschwankungen der letzten paar Tausend Jahre zu verstehen”, ist Schmutz überzeugt. Die anderen Hypothesen seien weniger schlüssig, wie zum Beispiel der Effekt grosser Vulkanausbrüche.

Wie genau sich die Sonne in den nächsten Jahren verhalten wird bleibt allerdings Spekulation: entsprechende Datenreihen gibt es erst seit ein paar Jahrzehnten und über diese Zeitspanne weisen sie keine Schwankungen auf. “Insofern bleiben auch unsere neuen Ergebnisse noch eine Hypothese”, sagt Schmutz: “Den nächsten Zyklus vorauszusagen fällt den Solarphysikern nach wie vor schwer.” Doch weil wir seit 1950 eine konstante starke Phase beobachten, werden wir aller Voraussicht nach in 50 bis 100 Jahren wiederum einen Tiefpunkt erleben, und das könnte durchaus so stark wie das sogenannte Maunder-Minimum ausfallen, das im 17. Jahrhundert für besonders kalte Verhältnisse sorgte.

Wichtige historische Daten

Auch die historische Perspektive war ein wichtiger Teil des Forschungsprojekts. Das Oeschger-Zentrum für Klimaforschung der Universität Bern hat Datenreihen zur Sonnenaktivität aus der Vergangenheit mit konkreten klimatischen Verhältnissen verglichen. Sonnenflecken, deren Anzahl gut mit der Aktivität der Sonne korreliert, werden schon seit gut drei Jahrhunderten erfasst. Wie kalt es auf der Erde damals wirklich war, ist dagegen viel schwieriger exakt zu beziffern: “Wir wissen, dass die Winter beim letzten Minimum sehr kalt waren, zumindest in Nordeuropa”, sagt Schmutz. Für die Forschenden bleibt noch einiges an Arbeit, um den Zusammenhang mit dem globalen Erdklima im Detail nachvollziehen zu können – in der Vergangenheit und eben auch in der Zukunft.

————-

Siehe auch SRF-Radiobeitrag (ab Minute 08:10 hier) und DLF. In den SRF-Abendnachrichten von TV und Radio gab es jeweils etwas längere Beiträge, die beide hier nun über diese Zusammenfassung auf SRF News abgerufen werden können. Dringende Leseempfehlung auch für den Beitrag “Es ist die Sonne” von Markus Schär in der Weltwoche vom 29. März 2017:

Klima: Es ist die Sonne
Schweizer Studie: Nicht der Mensch, die Sonne erwärmt das Klima

[...] Und vor allem stellte Projektleiter Werner Schmutz fest, die Schwankungen der Sonnenaktivität seien «der einzige Ansatz, um die natürlichen Klimaschwankungen der letzten paar tausend Jahre zu verstehen». Wie bitte? Fritz Vahrenholt, vorher Umweltpolitiker, Windkraft-Unternehmer und Weltklimarat-Experte, gab vor fünf Jahren mit dem Geologen Sebastian Lüning das Buch «Die kalte Sonne» heraus. «Die Sonne befand sich in den letzten Jahrzehnten in einer ihrer aktivsten Phasen der vergangenen 10 000 Jahre», stellten die beiden Wissenschaftler fest: Die Erde genoss ein «Grosses Solares Maximum» wie um das Jahr null und das Jahr 1000 – als ein ebenso günstiges Klima herrschte wie heute. Und das Duo sagte bis 2035 wegen der schwachen Sonnenaktivität eine Abkühlung um ein halbes Grad voraus. Laut Wikipedia wurden diese Thesen in der Fachwelt aber «einhellig verworfen». Jetzt kommen Schweizer Forscher «erstmals» zur Erkenntnis, dass sich der Klimawandel nur mit der Sonnenaktivität erklären lässt. Das ist eine solche Sensation, dass Tages-Anzeiger, NZZ und Blick natürlich nicht darüber berichteten.

Ganzen Beitrag in der Weltwoche lesen (für Abonnenten).

 

 

University of Exeter: Phytoplankton kann sich leicht an den Klimawandel anpassen

Hans Joachim Schellnhuber und der ehemalige Greenpeace-Aktvist Malte Meinshausen haben am 24. März 2017 in Science einen tollkühnen Fahrplan für die globale Dekarbonisierung veröffentlicht. Bis 2050 muss das CO2 auf nahezu Null runter. Wenn die Bausindustrie es nicht schafft Beton und Stahl ohne CO2- Erzeugung herzustellen, sollen sie die Stoffe durch Holz, locker geschichtete Steine oder Glasfiber ersetzen, und zwar bis maximal 2040!  Das wäre das Ende jedes wirtschaftlichen, bezahlbaren Bauens und für die dritte Welt besonders verheerend. Kein Dach überm Kopf aber 2 Grad? Klima-Wissenschaftler wollen nun am ganz großen historischen Rad drehen. Zurück in die Steinzeit in nur drei Jahrzehnten. In welcher Eigenschaft genau haben die Autoren den Artikel geschrieben? Das Paper ist auch Gegenstand der Diskussion bei Judith Curry.

Der Untergang der Welt
sich stets Grenzen hält.

© Erhard Horst Bellermann
(*1937), deutscher Bauingenieur, Dichter und Aphoristiker
Quelle: Bellermann, Dümmer for One, BoD 2003

——————————————

Am 16. März 2017 fand in Osnabrück eine von der Deutschen Bundesstiftung Umwelt ausgerichtete Lehrerfortbildung mit bizarrem Titel statt:

“Lehrerfortbildung: “Der Klimawandel vor Gericht”

Am Donnerstag, den 16. März 2017, findet von 15.00 bis 18.00 Uhr die Lehrerfortbildung “Der Klimawandel vor Gericht – Fachliches Lernen, Bewertungskompetenz entwickeln, Fächerübergreifende Perspektiven wahrnehmen” mit Prof. Dr. Ingo Eilks und MEd Fiona Affeldt, Universität Bremen, in der Deutschen Bundesstiftung Umwelt (DBU) statt. Fachdidaktiker und Lehrkräfte haben im Rahmen des Projektes »Der Klimawandel vor Gericht« Unterrichtseinheiten zum fachlichen Lernen und zur Förderung von Kommunikations- und Bewertungskompetenz entwickelt. Entstanden sind dabei Arbeitsmaterialien, Versuche und Methoden für das fachliche Lernen zum Thema Klimawandel aus den Perspektiven der Fächer Biologie, Chemie, Physik und Politik. Prof. Dr. Ingo Eilks und Fiona Affeldt von der Universität Bremen vermitteln den Teilnehmerinnen und Teilnehmern aktuelle fachliche Grundlagen und geben einen Überblick über die Materialien. Anhand dieser Materialien lassen sich Themen wie die Hinterfragung unseres Konsumverhaltens, Aspekte einer nachhaltigen Ernährung und gesellschaftliche Entscheidungen zum Klimawandel alltagsnah bearbeiten. Einige Unterrichtselemente und Versuche können selber ausprobiert werden. Darüber hinaus lernen die Teilnehmenden auch die aktuelle DBU-Ausstellung »ÜberLebensmittel« und ihr Begleitprogramm kennen.

Wie ist der Titel zu verstehen? Oder handelt es sich vielmehr um eine Mittagsveranstaltung “Klimawandel vor dem Hauptgericht”? Alles deutet auf eine verdeckte klimaalarmistische Schulung hin…

———————-

Die University of Exeter hatte am 21. März 2017 gute Nachrichten: Phytoplankton kann sich relativ leicht an steigende Wassertemperaturen und den Klimawandel anpassen, wie Langzeituntersuchungen an Grünalgen jetzt zeigten. Im Folgenden die Pressemitteilung der Forschergruppe um Dr Elisa Schaum:

The foundation of aquatic life can rapidly adapt to global warming, new research suggests

Important microscopic creatures which produce half of the oxygen in the atmosphere can rapidly adapt to global warming, new research suggests.

Phytoplankton, which also act as an essential food supply for fish, can increase the rate at which they take in carbon dioxide and release oxygen while in warmer water temperatures, a long-running experiment shows.

Monitoring of one species, a green algae, Chlamydomonas reinhardtii, after ten years of them being in waters of a higher temperature shows they quickly adapt so they are still able to photosynthesise more than they respire.

Phytoplankton use chlorophyll to capture sunlight, and photosynthesis to turn it into chemical energy. This means they are critical for reducing carbon dioxide in the atmosphere and for providing food for aquatic life. It is crucial to know how these tiny organisms – which are not visible to the naked eye – react to climate change in the long-term. Experts had made predictions that that climate change would have negative effects on phytoplankton. But a new study shows green algae can adjust to warmer water temperatures. They become more competitive and increase the amount they are able to photosynthesise.

Algae examined by scientists which lived in warmer waters became fitter, and more competitive, proving that these tiny creatures adapt well to climate change. This suggests that this species could continue to be a plentiful source of food for aquatic life even if temperatures rise. Previous studies which sought to answer this question have been conducted only in laboratories rather than looking at how phytoplankton reacted to real conditions. In contrast this research, which has run so far for ten years, has allowed researchers to examine how the green algae fare in their natural environment, where they are exposed to a more complex environment, and competitors.

Scientists at the University of Exeter’s Penryn campus in Cornwall have for a decade monitored ten tanks home to the phytoplankton with freshwater heated to four degrees centigrade above the ambient temperature. This is the rate at which our climate will have been warmed by the end of the century. The temperatures of ten other tanks were kept at normal temperatures. All the tanks were kept outside the Freshwater Biological Association’s river laboratory in Dorset. All twenty tanks were populated with the same types and proportion of various freshwater phytoplankton, zooplankton, invertebrates and plants. In the laboratory scientists tested how much the algae could photosynthesise, how fast they were growing, and how well they outcompeted organisms from the ambient ponds.

Lead author Dr Elisa Schaum said: “phytoplankton may be microscopically small, but they are essential for all aquatic life. They provide food for zooplankton, which are then eaten by fish. Aquatic ecosystems produce the oxygen in every second breath we take, and are responsible for the oceans’ capacity as a sink for carbon dioxide.

“Other research had suggested that increased temperatures can pose problems for some types of phytoplankton. But we have shown that algae adapt very rapidly and that the mechanism underpinning their evolutionary response is linked to higher rates of photosynthesis – they can produce more energy, and channel it into faster growth rates and a better capacity for competition with other algae. They divide once a day and live in large populations of thousands of cells per millilitre of water. This means evolutionary changes are made through a few hundred of generations within a couple of years.

“It is important to recognise that climate change is a serious threat to aquatic ecosystems. Although the green algae monitored in our study cope well with elevated temperature, and may be able to sustain populations of organisms that eat them, we do not know yet what will happen to other groups of algae, and whether or not they will adapt through the same mechanisms.”

 

Eine unglaubliche Geschichte: Wikipedia und der Hamburger Forsythienstrauch

Von Sebastian Lüning und Josef Kowatsch

An der Hamburger Binnenalster steht nahe der Lombardsbrücke ein Forsythienstrauch. Vor wenigen Tagen, am 24. März 2017, war es wieder soweit: Der Strauch blühte! Na und, wird der eine oder andere sagen. Soll er doch blühen. Nun ist dieser Strauch jedoch nicht irgendein Strauch, sondern auch ein wissenschaftliches Studienobjekt, das seit 1945 ununterbrochen beobachtet wird. Der Blühtermin des Forsythienstrauchs wird penibel festgehalten und in einer Langzeitreihe aufgetragen. Schauen wir zunächst auf die letzten 30 Jahre, ein Zeitraum der kimawissenschaftlich Relevanz besitzt (Abb. 1). Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar). Gut zu erkennen ist der deutliche Verspätungstrend beim Blühen. Der neue Datenpunkt aus diesem Jahr (2017) passt sich bestens in diesen Trend ein. Späteres Blühen ist in der Regel ein Anzeichen für einen kalten Winter (Abb. 2). Insofern will der unbestechliche Hamburger Forsythienstrauch so gar nicht in das Erzählmuster einer katastrophalen Klimaerwärmung passen.

 

Abbildung 1: Verschiebung des Blühtermins von Forsythiensträuchern auf der Hamburger Lombardsbrücke während der letzten 30 Jahre. Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar).

 

Abbildung 2: Entwicklung der Februar-Temperaturen in Deutschland während der vergangenen 30 Jahre. Daten DWD. Graphik: Kowatsch

 

Aufgrund seiner klimatologischen Relevanz besitzt der Hamburger Strauch sogar seine eigene Wikipedia-Seite. Bis zum Februar 2017 war die Seite relativ knapp gehalten und bestand eigentlich nur aus einem Unterkapitel mit dem Titel “Geschichte”. Dort hieß es damals (beim Link ganz nach unten scrollen um die Seitenversion zu begutachten):

Der Hamburger Forsythien-Kalender ist die phänometrische Aufzeichnung der Zeitpunkte des Blühbeginns der Forsythiensträucher an der Lombardsbrücke in Hamburg seit 1945.

Geschichte

Im zerstörten Hamburg, kurz vor Ende des Zweiten Weltkriegs, fielen Carl Wendorf am 27. März 1945 die blühenden Forsythiensträucher inmitten der Trümmer an der Lombardsbrücke auf. Er beschloss jedes Frühjahr den Blühbeginn zu notieren, was zu einer lückenlosen Aufzeichnung ab 1945 führte. Seit dem Tod von Carl Wendorf im Jahr 1984 führt Jens Iska-Holtz diese Liste weiter. Er meldet die Daten als phänologischer Beobachter an den Deutschen Wetterdienst.[1][2]

Die zunehmende Verspätung des Blühens während der letzten 30 Jahre blieb seltsamerweise im Wikipedia-Artikel unerwähnt. Kürzlich kontaktierte uns ein Naturfreund, dem diese Informationslücke auf der Wikipedia-Seite ebenfalls aufgefallen war. Der anonym bleiben wollende Naturfreund erklärte, dass er sich in der Mitte zwischen den Klimalagern verortet sehe, beide Seiten hätten zum Teil gute Argumente. Er hatte vom kruden Vorwurf von Seiten der Skeptiker gelesen, dass Wikipedia angeblich von Klimaktivisten unterwandert wäre. Dies sei schwer nachvollziehbar, dachte er sich.

Daher wagte er ein Experiment. Ganz oben auf der Wikipedia-Seite gibt es die Reiter “Bearbeiten” und “Versionsgeschichte“. Dort kann Jedermann/Jederfrau Ergänzungen oder Korrekturen von Wikipediaartikeln vornehmen. Am 8. Februar 2017 loggte sich der Naturfreund als “Greenway21″ bei Wikipedia ein und schlug eine wichtige Ergänzung auf der Seite des Hamburger Forsythienstrauches vor:

Während der letzten 50 Jahren ist ein generelles Vorrücken der Forsythienblüte im Jahresverlauf zu erkennen. Seit 1988 allerdings verspätet sich der Blüh-Termin der Hamburger Forsythien wieder zunehmend. [3]

Ein wissenschaftlich einwandfreies Statement, beschreibt es doch in fairer Weise zum einen den Langzeittrend und andererseits den hochrelevanten aktuellen Trend der letzten 30 Jahre. Die offizielle Langzeitreihe seit 1945 können Sie auf dieser Webseite des Deutschen Wetterdienstes anschauen (zweite Graphik auf der Seite, gelbe Kurve). Das Experiment hatte begonnen. Würden die Wikipedia-Redakteure die wichtige Ergänzung zulassen und freischalten? Es dauerte keine halbe Stunde, da war die Ergänzung wieder rückgängig gemacht. Ein Seiten-Editor mit dem Codenamen “DeWikiMan” verweigerte die Aufnahme. Grund: Der Trend zum verspäteten Blühen während der letzten 30 Jahre wäre statistisch nicht ausreichend belegt. Schauen Sie sich Abbildung 1 nocheinmal genau an. Ist der Trend wirklich nicht erkennbar? Und wir haben sogar nachgerechnet. Das Resultat: Der Trend des Blühbeginns seit 1988 ist signifikant steigend. Der Trend über die letzten 30 Jahre beträgt 0,83+-0,62 Tage/Jahr auf dem 95%- Konfidenzniveau.

Ganz offensichtlich wurde hier ein wichtiger Zusatz aus persönlichen Gründen blockiert. Daher lohnt sich ein Blick auf die Person “DeWikiMan”. Wer steckt dahinter? In seinem Wikipedia-Profil outet er sich als ökologisch Interessierter:

Mein Hauptinteresse hier gilt allem, was mit Umweltökonomik, Ökologischer Ökonomik und speziell Klimaökonomik (das Rot schmerzt!) zu tun hat.

Genau so stellt man sich einen Klimaaktivisten vor. Ein klassischer Torwächter, der auf Wikipedia nur Inhalte zulässst, die mit seiner Ideologie übereinstimmen. Auf keinen Fall ein guter Inhalts-Schiedsrichter für diese wichtige Online-Enzyklopädie. Aber DeWikiMan setzte noch einen oben drauf. Er grübelte 11 Tage und schrieb dann selber einen längeren Absatz, den niemand hinterfragte, ja hinterfragen konnte, denn DeWikiMan hatte ja die Änderungsmacht. Am 19. Februar 2017 erschien auf der Wikipedia-Seite ein ganz neues Unterkapitel mit dem kuriosen Titel “Früherer Blühbeginn“, also dem genauen Gegenteil des aktuellen Trends:

Im Jahr 1995 stellte der DWD fest, dass die Lombardsbrücke mit einer Verfrühung um 26 Tage in 50 Jahren von allen Standorten mit einer phänologischen Datenreihe den stärksten Trend aufwies.[3] Auch 2015 konstantierte der DWD für den Zeitraum zwischen 1945 und 2014 einen Trend zu einem immer früheren Blühbeginn.[4] Neben Änderungen des Klimas sind auch andere Änderungen der Umwelteinflüsse an diesem urbanen Standortes als Ursache in Betracht zu ziehen.[2][3] Hinzu kommt, dass die Forsythie, wenn kein ausreichender Kältereiz vorhanden ist, nicht unbedingt der Temperatur folgt. So gab es im Winter 2006/2007 ein Temperaturmaximum an der Lombardsbrücke, dennoch blühte die Forsythie relativ spät, deutlich nach ihrem Rekordwert 2001/2002, weil im warmen Winter 2006/2007 der Kältereiz gefehlt hatte.[4]

Der Wikipedia-Klimaaktivist nutzte seinen Hebel, um die Desinformation auf die Spitze zu treiben. Anstatt im Text in transparenter Weise auch Raum für den unbequemen Trend der letzten 30 Jahre zu schaffen, umtänzelt er ihn und betrachtet lediglich das für ihn passende Zeitfenster von 60 Jahren. Bitterböses Rosinenpicken. Wir danken Naturfreund “Greenway21″ für diesen wichtigen Test, der in eindrucksvoller Art und Weise bestätigt, dass Klimaaktivisten die Wikipedia-Seite gekapert und fest im Griff haben. DeWikiMan ist als Editor schwer haltbar geworden und Wikipedia sollte seine Aktivitäten einmal etwas genauer unter die Lupe nehmen. Schade, dass das ursprünglich ausgezeichnete Konzept einer von Freiwilligen geschriebenen Online-Enzyklopädie von politischen Aktivisten gekapert und in sensiblen Themenbereichen unbrauchbar gemacht wurde.

 

Abbildung 3: Hamburger Forsythiensträucher an der Binnenalster. Foto: NordNordWest, Lizenz: Creative Commons by-sa-3.0 de

 

 

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen

Es hat ein wenig gedauert, aber nun hat man sogar in Berlin realisiert, dass nur gemeinsame internationale Anstrengungen Sinn machen, wenn es um globale Probleme geht. Daniel Wetzel am 11. März 2017 in der Welt:

Bundesregierung gibt Alleingänge im Klimaschutz auf
Deutschland hat im Klimaschutz stets den Vorreiter und Musterschüler gespielt. Doch damit ist jetzt offenbar Schluss. Kanzleramtsminister Peter Altmaier spricht sich gegen nationale Alleingänge aus. [...] Denn der Bundesminister für besondere Aufgaben [Altmaier] stellte den versammelten Unternehmern und Managern die Erfüllung eines lang gehegten Wunsches in Aussicht: Mit den teuren klimapolitischen Alleingängen Deutschlands könnte es nach seinen Worten bald vorbei sein. „Ich bin fest davon überzeugt, dass der Weg nationaler Ziele falsch ist“, erklärte Altmaier vor den Teilnehmern der exklusiven „Klausurtagung Energie- und Umweltpolitik“, zu der der Wirtschaftsrat der CDU eingeladen hatte. Es sei zwar „schwer, bestehende Vereinbarungen zu canceln“, sagte Altmaier. Doch künftig brauche man „europäische und internationale Ziele“.

Ganzen Artikel in der Welt lesen.

Bereits einige Tage zuvor, am 6. März 2017, erläuterte Wetzel in derselben Zeitung die ungeschminkten Fakten des deutschen Energieexperiments:

Teuer und unrealistisch Die Energiewende droht zum ökonomischen Desaster zu werden
Während die Kosten für die Energiewende weiter steigen, sinkt laut einer eine McKinsey-Langzeit-Studie die Zahl der Ökostrom-Jobs. Und auch das wichtigste Ziel der Umstellung verfehlt die Politik. ie Sichtweisen der Bundesregierung und der Berater könnten nicht unterschiedlicher sein. Gerade hat die neue Bundeswirtschaftsministerin Brigitte Zypries (SPD) in hoher Auflage eine Broschüre mit dem Titel „Die Energiewende – unsere Erfolgsgeschichte“ verteilen lassen. Da wird auf 20 Seiten gepriesen, dass Deutschland inzwischen einen Ökostrom-Anteil von 32 Prozent erreicht hat und die Stromversorgung dabei weiterhin die sicherste der Welt ist. Die Strompreise für private Haushalte hätten sich stabilisiert. Insgesamt, so Zypries, sei die Energiewende „nachhaltig und sicher, bezahlbar und planbar, verlässlich und intelligent“. Ganz anders sieht das Bild aus, das die Beratungsgesellschaft McKinsey mit der aktuellen Fortschreibung ihres „Energiewende-Index“ zeichnet. Das Expertenteam um Senior Partner Thomas Vahlenkamp überprüft alle sechs Monate anhand von 15 quantitativ messbaren Kriterien, ob die von der Politik aufgestellten Energiewende-Ziele noch erreichbar sind. Der Titel dieses Papiers: „Die Kosten steigen weiter.“

Ganzen Artikel auf welt.de lesen.

Zu allem Überfluss scheint das vormals so hochgelobte Erneuerbare Energien Gesetz (EEG) das ganze Gegenteil von dem zu bewirken, was versprochen wurde. Pressemitteilung der Universität Hamburg vom 14. Februar 2017:

Wieviel Klimaschutz steckt im EEG?

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen.

2017 ist die Reform des Erneuerbare-Energien-Gesetzes (EEG) in Kraft getreten. Mit dem EEG soll der Ausstoß von Treibhausgasen verringert und damit das Klima geschützt werden. Welchen Effekt das EEG tatsächlich für den Klimaschutz hat, haben Prof. Dr. Grischa Perino und Dr. Johannes Jarke vom Fachbereich Sozialökonomie der Universität Hamburg untersucht. Sie kommen zu dem Schluss, dass angesichts des europäischen Treibhausgas-Handelssystems (EU ETS) die Treibhausgasemissionen durch das EEG sogar steigen können.

Durch das EEG soll laut Bundeswirtschaftsministerium der Anteil erneuerbarer Energien von derzeit rund 32 Prozent auf 40 bis 45 Prozent im Jahr 2025 und auf 55 bis 60 Prozent im Jahr 2035 steigen. In ihrem Klimaschutzplan hat sich die Bundesregierung außerdem verpflichtet, die Treibhausgasemissionen bis 2050 im Vergleich zu 1990 um 80 bis 95 Prozent zu vermindern. Doch durch das europäische Emissionshandelssystem (EU ETS) ist die Obergrenze an Treibhausgasemissionen verbindlich festgelegt. Das EU ETS erfasst europaweit rund 12.000 Anlagen der Energiewirtschaft und der energieintensiven Industrie sowie alle innereuropäischen Flüge. Die Betreiber der Anlagen, die dem EU-ETS unterliegen, müssen für jede ausgestoßene Tonne CO2 ein Zertifikat abgeben. Emissionsrechte, die nicht benötigt werden, werden an andere teilnehmende Unternehmen verkauft oder für die Zukunft gespart. Eine Reduzierung der Emissionen in der deutschen Stromerzeugung verschiebt die Emissionen also lediglich an eine andere Stelle. Das hat auch das Gutachten Anfang Februar 2017 vorgestellte Gutachten des Wissenschaftlichen Beirats des Bundeswirtschaftsministeriums noch einmal betont.

Die Hamburger Forscher zeigen in ihrer gerade im „Journal of Environmental Economics and Management“ erschienenen Studie: Werden die erneuerbaren Energien durch einen Aufschlag auf den Strompreis finanziert, wie dies in Deutschland mit der EEG-Umlage der Fall ist, können die Treibhausgasemissionen insgesamt sogar steigen. Der Grund: Für Verbraucherinnen und Verbraucher ist Strom durch die Energiewende deutlich teurer geworden, so dass sie vermehrt fossile Energieträger in Bereichen nutzen, die nicht dem EU ETS unterliegen, und damit die Gesamtemissionen erhöhen. Eine Finanzierung der Energiewende über das Steuersystem würde diesen Effekt vermeiden.

Professor Perino: „Der Ausbau erneuerbarer Energien im Stromsektor ist ein zentraler Bestandteil der Energiewende und damit der Klimapolitik der Bundesregierung. Intuitiv erscheint das sehr sinnvoll. Auf den zweiten Blick sind die Zusammenhänge aber deutlich komplexer. Insbesondere die Wechselwirkungen mit dem Emissionshandel stellen derzeit so manche Intuition auf den Kopf. Eine regelgebundene Flexibilisierung der Emissionsobergrenze im Emissionshandel, wie auch vom Umweltbundesamt und dem Wissenschaftlichen Beirat des Bundeswirtschaftsministeriums gefordert, ist daher für die Klimawirkung des EEG entscheidend.“

Originalartikel: Do Renewable Energy Policies Reduce Carbon Emissions? On Caps and Inter-Industry Leakage”. Journal of Environmental Economics and Management, DOI: 10.1016/j.jeem.2017.01.004

Schauen Sie hierzu auch ein Video, in dem Prof. Perino seine Ergebnisse weiter erläutert.

Immer deutlicher wird, dass man sich mit der übereilten Energiewende in gefährliches Gelände vorgewagt hat. Dies zeigt auch ein Vorfall vom 24. Januar 2017 als das deutsche Stromnetz erneut am Rande des Zusammenbruchs stand. Der Grund dafür war die klägliche Leistung von Windkraftanlagen und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpft. Lesen Sie hierzu den Beitrag “24. Januar 2017 – Der Tag, an dem Merkels Energie­wende auf der Kippe stand” von Günter Keil auf EIKE.

Weite Teil der deutschen Landschaft sind mittlerweile mit Windkraftanlagen zugespargelt. Möglich gemacht wurde dies durch üppige staatliche Subventionen. Die laufen jedoch in ein paar Jahren aus. Der Rückbau der Stahlkolosse ist daher wohl nur eine Frage der Zeit. Was aufgebaut wurde, kann auch wieder abgebaut werden. Die Leipziger Volkszeitung berichtete am 16. März 2017:

Jedes dritte Windrad in Sachsen hat bald ausgedient
Hunderte Windräder in Sachsen und Thüringen könnten bald aus der Landschaft verschwinden. Ab Ende 2020 wird für Anlagen, die seit 20 Jahren in Betrieb sind, keine Einspeisevergütung mehr gezahlt. Weil ihr Betrieb laut Windenergieverband BWE dann unrentabel werde, droht in den meisten Fällen der Abriss. Gegen die anhaltende Flaute bei der Wind-energienutzung laufen Sachsens Grüne jetzt Sturm. Bundesweit sind rund 6000 Altanlagen betroffen, wie eine Deutsche Windguard-Studie im Auftrag der Naturstrom AG belegt. In den Folgejahren stünden weitere 1600 Rückbauten pro Jahr an.

Weiterlesen in der Leipziger Volkszeitung

Beim Klimaretter macht man sich bereits große Sorgen.  Jörg Staude beklagte am 2. März 2017:

Strompreis legt ab 2020 Windkraft still
Zufall oder Absicht? Am Aschermittwoch wird in Berlin eine Studie vorgestellt, laut der nach 2020 bis zu einem Drittel der Windkraft-Kapazität die Abschaltung droht, falls der Strompreis an der Börse so bleibt und es keine politischen Gegenmaßnahmen gibt.

Weiterlesen auf klimaretter.info.

Björn Peters vom Deutschen Arbeitgeber Verband schaute über die nationale Grenze hinüber und entdeckte in China einen Trend, der Magengrummeln verursacht. Sein Beitrag vom 20. März 2017:

Warum stoppt China den Ausbau von Windkraft?
Eine Meldung Ende Februar auf china.org.cn ließ die Fachwelt aufhorchen:  China hat den weiteren Ausbau der Windkraft in sechs wichtigen Provinzen vorerst gestoppt.  Die Förderung erneuerbarer Energien hat auch in China einen sehr hohen Stellenwert, daher lohnt ein näherer Blick auf die Umstände dieser Entscheidung. [...] Nach den Pressemeldungen war der Ausbaustopp eine Reaktion auf die geringe Nutzbarkeit des Windstroms.  Traurige Rekordhalter waren die Anlagen in Gansu in Zentralchina.  Dort konnten nur 57 % der durch Windenergieanlagen im Jahr 2016 produzierten Energie auch genutzt werden.  In der sehr großen Provinz Xinjiang im Nordwesten Chinas waren es 62 %, in den beiden benachbarten Provinzen Jilin und Heilongjiang im Nordosten Chinas waren es 70 % und 81 %, in der Inneren Mongolei, eine große Provinz im Norden Chinas immerhin 79 %.  Insgesamt blieben im Jahr 2016 fast 50 TWh an Windstrom ungenutzt, im Jahr davor bereits 34 TWh.  Dass so viel Energie quasi weggeworfen werden musste, liegt vordergründig am immer noch nicht ausreichenden Leitungsbau zwischen den entlegenen Provinzen mit hohem Windaufkommen und den industriellen Zentren.  Dahinter verbirgt sich aber ein tieferes Problem der Windenergie, das hier dank der besseren Datenlage anhand der deutschen Windstromproduktion skizziert wird. 

Ganzen Beitrag auf deutscherarbeitgeberverband.de lesen. Zur Meldung auf china.org.cn geht es hier.

Und abschließend wieder eine Nachricht, die hoffnungsfroh stimmt. Kann schon bald im großen Maßstab Treibstoff aus CO2 gewonnen werden, sozusagen Gold aus Stroh? Pressemitteilung der Duke University vom 23. Februar 2017 (via Science Daily):

Light-driven reaction converts carbon dioxide into fuel: Illuminated rhodium nanoparticles catalyze key chemistry

Duke University researchers have developed tiny nanoparticles that help convert carbon dioxide into methane using only ultraviolet light as an energy source.

Having found a catalyst that can do this important chemistry using ultraviolet light, the team now hopes to develop a version that would run on natural sunlight, a potential boon to alternative energy. Chemists have long sought an efficient, light-driven catalyst to power this reaction, which could help reduce the growing levels of carbon dioxide in our atmosphere by converting it into methane, a key building block for many types of fuels. Not only are the rhodium nanoparticles made more efficient when illuminated by light, they have the advantage of strongly favoring the formation of methane rather than an equal mix of methane and undesirable side-products like carbon monoxide. This strong “selectivity” of the light-driven catalysis may also extend to other important chemical reactions, the researchers say. “The fact that you can use light to influence a specific reaction pathway is very exciting,” said Jie Liu, the George B. Geller professor of chemistry at Duke University. “This discovery will really advance the understanding of catalysis.” The paper appears online Feb. 23 in Nature Communications.

Despite being one of the rarest elements on Earth, rhodium plays a surprisingly important role in our everyday lives. Small amounts of the silvery grey metal are used to speed up or “catalyze” a number of key industrial processes, including those that make drugs, detergents and nitrogen fertilizer, and they even play a major role breaking down toxic pollutants in the catalytic converters of our cars. Rhodium accelerates these reactions with an added boost of energy, which usually comes in the form of heat because it is easily produced and absorbed. However, high temperatures also cause problems, like shortened catalyst lifetimes and the unwanted synthesis of undesired products.

In the past two decades, scientists have explored new and useful ways that light can be used to add energy to bits of metal shrunk down to the nanoscale, a field called plasmonics. “Effectively, plasmonic metal nanoparticles act like little antennas that absorb visible or ultraviolet light very efficiently and can do a number of things like generate strong electric fields,” said Henry Everitt, an adjunct professor of physics at Duke and senior research scientist at the Army’s Aviation and Missile RD&E Center at Redstone Arsenal, AL. “For the last few years there has been a recognition that this property might be applied to catalysis.”

Xiao Zhang, a graduate student in Jie Liu’s lab, synthesized rhodium nanocubes that were the optimal size for absorbing near-ultraviolet light. He then placed small amounts of the charcoal-colored nanoparticles into a reaction chamber and passed mixtures of carbon dioxide and hydrogen through the powdery material. When Zhang heated the nanoparticles to 300 degrees Celsius, the reaction generated an equal mix of methane and carbon monoxide, a poisonous gas. When he turned off the heat and instead illuminated them with a high-powered ultraviolet LED lamp, Zhang was not only surprised to find that carbon dioxide and hydrogen reacted at room temperature, but that the reaction almost exclusively produced methane. “We discovered that when we shine light on rhodium nanostructures, we can force the chemical reaction to go in one direction more than another,” Everitt said. “So we get to choose how the reaction goes with light in a way that we can’t do with heat.”

This selectivity — the ability to control the chemical reaction so that it generates the desired product with little or no side-products — is an important factor in determining the cost and feasibility of industrial-scale reactions, Zhang says. “If the reaction has only 50 percent selectivity, then the cost will be double what it would be if the selectively is nearly 100 percent,” Zhang said. “And if the selectivity is very high, you can also save time and energy by not having to purify the product.” Now the team plans to test whether their light-powered technique might drive other reactions that are currently catalyzed with heated rhodium metal. By tweaking the size of the rhodium nanoparticles, they also hope to develop a version of the catalyst that is powered by sunlight, creating a solar-powered reaction that could be integrated into renewable energy systems.

“Our discovery of the unique way light can efficiently, selectively influence catalysis came as a result of an on-going collaboration between experimentalists and theorists,” Liu said. “Professor Weitao Yang’s group in the Duke chemistry department provided critical theoretical insights that helped us understand what was happening. This sort of analysis can be applied to many important chemical reactions, and we have only just begun to explore this exciting new approach to catalysis.”

Paper: Xiao Zhang, Xueqian Li, Du Zhang, Neil Qiang Su, Weitao Yang, Henry O. Everitt, Jie Liu. Product selectivity in plasmonic photocatalysis for carbon dioxide hydrogenation. Nature Communications, 2017; 8: 14542 DOI: 10.1038/NCOMMS14542

 

Großbaustelle Klimamodelle: Probleme mit Pilzen, Bakterien, Boden-CO2 und Regionalmodellierungen

Klimamodelle sollen das Klima der Erde virtuell nachbilden. Dazu müssen alle Prozess in Gleichungen gefasst werden, aus denen der Computer dann den Verlauf in Zeit und Raum berechnet. Die Ergebisse von Klimamodellen bilden die Grundlage für den begonnenen weitreichenden Umbau der Energiesysteme und Gesellschaft. Die Erwärmung der letzten 150 Jahre bekommen die Modelle einigermaßen hin. Der Anstieg des CO2 passt gut zur Erwärmung. Allerdings ist im selben Zeitraum auch die Sonnenaktivität stark angestiegen. Hat sie wirklich nichts mit der Erwärmung zu tun?

Einen Hinweis auf Probleme bei den Klimamodellen gibt die Auswertung von regionalen Entwicklungen. Eigentlich sollten die Modelle die kleinermaßstäblichen Klimaentwicklungen gut bewältigen können, denn die Summe der regionalen Entwicklungen ergibt doch eigentlich die globale Summe. Interessanterweise versagen die Modelle jedoch reihenweise, wenn es um regionale Simulationen geht. Hierauf wies im August 2016 die Penn State University in einer Pressemitteilung noch einmal ausdrücklich hin:

Global climate models do not easily downscale for regional predictions

One size does not always fit all, especially when it comes to global climate models, according to Penn State climate researchers.”The impacts of climate change rightfully concern policy makers and stakeholders who need to make decisions about how to cope with a changing climate,” said Fuqing Zhang, professor of meteorology and director, Center for Advanced Data Assimilation and Predictability Techniques, Penn State. “They often rely upon climate model projections at regional and local scales in their decision making.”

Zhang and Michael Mann, Distinguished professor of atmospheric science and director, Earth System Science Center, were concerned that the direct use of climate model output at local or even regional scales could produce inaccurate information. They focused on two key climate variables, temperature and precipitation.

They found that projections of temperature changes with global climate models became increasingly uncertain at scales below roughly 600 horizontal miles, a distance equivalent to the combined widths of Pennsylvania, Ohio and Indiana. While climate models might provide useful information about the overall warming expected for, say, the Midwest, predicting the difference between the warming of Indianapolis and Pittsburgh might prove futile.

Regional changes in precipitation were even more challenging to predict, with estimates becoming highly uncertain at scales below roughly 1200 miles, equivalent to the combined width of all the states from the Atlantic Ocean through New Jersey across Nebraska. The difference between changing rainfall totals in Philadelphia and Omaha due to global warming, for example, would be difficult to assess. The researchers report the results of their study in the August issue of Advances in Atmospheric Sciences.

“Policy makers and stakeholders use information from these models to inform their decisions,” said Mann. “It is crucial they understand the limitation in the information the model projections can provide at local scales.” Climate models provide useful predictions of the overall warming of the globe and the largest-scale shifts in patterns of rainfall and drought, but are considerably more hard pressed to predict, for example, whether New York City will become wetter or drier, or to deal with the effects of mountain ranges like the Rocky Mountains on regional weather patterns.

“Climate models can meaningfully project the overall global increase in warmth, rises in sea level and very large-scale changes in rainfall patterns,” said Zhang. “But they are uncertain about the potential significant ramifications on society in any specific location.” The researchers believe that further research may lead to a reduction in the uncertainties. They caution users of climate model projections to take into account the increased uncertainties in assessing local climate scenarios. “Uncertainty is hardly a reason for inaction,” said Mann. “Moreover, uncertainty can cut both ways, and we must be cognizant of the possibility that impacts in many regions could be considerably greater and more costly than climate model projections suggest.”

Ein Jahr zuvor hatte bereits die Lund University auf eine große Unsicherheit in den Klimamodellen hingewiesen, die wohl den wenigsten Beobachtern in den Sinn gekommen wäre: Pilze und Bakterien. Diese werden von den gängigen Klimamodellen fundamental falsch dargestellt. Hier die Pressemitteilung vom  28. August 2015:

Future climate models greatly affected by fungi and bacteria
Researchers from Lund University, Sweden, and USA have shown that our understanding of how organic material is decomposed by fungi and bacteria is fundamentally wrong. This means that climate models that include microorganisms to estimate future climate change must be reconsidered.

When a plant dies, its leaves and branches fall to the ground. Decomposition of soil organic matter is then mainly carried out by fungi and bacteria, which convert dead plant materials into carbon dioxide and mineral nutrients. Until now, scientists have thought that high quality organic materials, such as leaves that are rich in soluble sugars, are mainly decomposed by bacteria. Lower quality materials, such as cellulose and lignin that are found in wood, are mainly broken down by fungi. Previous research has also shown that organic material that is broken down by fungi results in a reduced leakage of carbon dioxide and nutrients compared to material decomposed by bacteria. This has consequences for climate models, since more loss of carbon dioxide and mineral nitrogen would have a direct bearing on the soil’s contribution to greenhouse gases and eutrophication.

In a 23-year experiment, researchers from Lund University and USA have examined the relative significance of fungal and bacterial decomposition. “In contrast with expectations, there was no evidence that high quality organic material was mainly broken down by bacteria. In fact, the data strongly suggested the contrary”, says Johannes Rousk, researcher in Microbial Ecology at Lund University in Sweden. “There was also no evidence to suggest that organic material broken down by fungi reduced the leakage of carbon dioxide into the atmosphere, or the leakage of nutrients. Once again, the results tended to suggest the contrary”, says Johannes Rousk. The results could have consequences not only for future climate models, but may also impact current policies on land use intended to promote fungi. This may be based on flawed assumptions regarding the fungal role in reducing negative environmental effects.

Publication: Revisiting the hypothesis that fungal-to-bacterial dominance characterizes turnover of soil organic matter and nutrients

Die großen Unsicherheiten in den Klimamodellen hinsichtlich des CO2-Haushalts im Boden sind auch Thema einer Pressemitteilung der Yale University vom 1. August 2016:

Managing Uncertainty: How Soil Carbon Feedbacks Could Affect Climate Change

A new Yale-led paper makes the case that developing meaningful climate projections depends upon a better understanding of the role of “soil carbon turnover.”

There is more than twice as much carbon in the planet’s soils than there is in its atmosphere, so the loss of even a small proportion of that could have a profound feedback effect on the global climate. Yet in its most recent report, in 2013, the Intergovernmental Panel on Climate Change (IPCC) used models that paid less attention to soil carbon potentially entering the atmosphere than had earlier reports, concluding that there simply wasn’t enough evidence about how warmer global temperatures might impact soil carbon stocks.

A new Yale-led paper makes the case that developing meaningful climate projections will rely on understanding the role of “soil carbon turnover” and how it might potentially trigger climate feedbacks in a warming world. Writing in the journal Nature Climate Change, a team of scientists calls for more collaboration between modelers and soil scientists to improve the scientific understanding of the mechanisms that control the creation, stabilization, and decomposition of carbon in the soil. That in turn will promote the kinds of experiments that will begin to remove uncertainties about the competing mechanisms that drive soil carbon stocks, the researchers write.

While scientists might never eliminate all uncertainty when it comes to evaluating the mechanisms driving changes in soil carbon stocks, new research advances are making it possible to predict the full range of potential outcomes, said Mark Bradford, an Associate Professor of Terrestrial Ecosystem Ecology at the Yale School of Forestry & Environmental Studies (F&ES) and lead author of the study. And that, he says, will increase confidence. “There is so much discussion of uncertainty in the public debate about climate change that the term now seems ambiguous and politically loaded,” Bradford said. “The discussion should not be about how much uncertainty there is, but rather about how much confidence we have that the real planetary response lies somewhere in the range of projected uncertainty.”  “You gain scientific confidence by representing the best — and sometimes polar opposite — ideas about the how the world works in your models. If someone tells you they have high confidence that something will happen, you can then take actions based on the best knowledge available.”

Warming temperatures can trigger two very different changes in soil carbon soil levels. On the one hand, they can stimulate the growth of plants, increasing the amount of carbon storage potential. Conversely, those higher temperatures can also accelerate the activity of organisms that live in the soil and consume decaying plant matter. In that case, there is a net increase in the amount of carbon released from the biosphere into the atmosphere. In other words, one function puts carbon into the soil, keeping it out of the atmosphere, while the other emits it into the atmosphere. The twist, however, is that the processes that emit carbon from the soil also convert a small fraction of the decaying plant matter into stores of carbon that can be locked away over millennial timescales, which would be optimal to minimizing climate impacts.

While scientists have made great advances in understanding how plants will respond, their ability to evaluate how much carbon goes into the soil, and where it ends up, is made difficult because it’s not possible to measure directly. “In the soil, we don’t know how things are working because, if you like, it’s as clear as mud,” Bradford said. “Often we can’t measure what we’re trying to measure because we can’t see the organisms. You have millions of individual microbes — from thousands of cryptic species — in just a handful of soil.” For these reasons, he said, much of the understanding of how soil carbon stocks will respond to warming is based only on the outputs, which is like trying to calculate the balance of a bank account based simply on how much money is being withdrawn.

Another complicating factor is that our knowledge of how soil carbon is created and stabilized is undergoing somewhat of a conceptual revolution, and only one set of ideas is represented in the climate models, the new paper says. For decades scientists assumed that carbon entering the soil through materials that are harder to “digest” by microbes — like, say, wood — would be more likely to remain in the soil longer. In recent years, however, there has emerged a growing consensus that carbon is more likely to remain in the soil if it enters through more digestible plant matter — a cloverleaf, for instance. “The science has flipped,” Bradford said. “The harder it is to digest initially the less of it stays in the soil, whereas the easier it is to be eaten then the more of it stays in the soil.” This is important because it’s the easily digestible plant matter — such as the sugars released from plant roots into the soil — that likely eventually get converted into the long term stores of soil carbon but they are also the hardest inputs to quantify.

This growing awareness shifts the way scientists view ecosystem management, from thinking about the biomass that you can see aboveground to a focus on thinking about the amount of carbon that can be pumped belowground directly through the roots of the plants and to the organisms in the soils. Ultimately, Bradford says, it will be impossible to eliminate all uncertainty. But that, he says, is not such a bad thing. “By increasing our real understanding, we might even end up making our climate projections more uncertain, in terms of a greater range in the extent the planet might warm,” he said. “But we’ll be more confident that the true answer falls within that range.” “Advancing our confidence and taking necessary actions will ultimately require that we embrace uncertainty as a fact of life.”

 

Wird die CO2-Verweildauer in der Atmosphäre überschätzt?

Der CO2-Gehalt der Erdathmosphäre ist mittlerweile auf einen Stand geklettert, der alle Werte der letzten 800.000 Jahre übertrifft (Abb. 1). Während der Eiszeiten sank die CO2-Konzentration bis auf 180 ppm ab, während er in den dazwischenliegenden Warmzeiten (Interglazialen) auf 250-300 ppm hinaufkletterte. Grund für diese CO2-Entwicklung ist vor allem das Ausgasen des CO2 aus dem wärmernen Interglazial-Wasser. Seit Beginn der Industriellen Revolution stieg der CO2-Wert jedoch auf Werte deutlich oberhalb der typischen Warmzeit-Spannweite. Aktuell besitzt die Atmosphäre einen CO2-Anteil von etwas mehr als 400 ppm.

Abbildung 1: CO2-Verlauf der letzten 800.000 Jahre. Quelle: Scripps Institution of Oceanography, via Climate Central.

 

Die große Frage ist nun, wie lange die Natur wohl brauchen würde, bis der antrhopogene CO2-Berg wieder abgebaut ist, sofern die CO2-Emissionen stark zurückgefahren werden könnten. Nehmen wir einmal an, von heute auf morgen würden Kohle, Öl und Gas verboten werden. In wievielen Jahren wäre der CO2-Überschuss vom natürlichen Kreislauf aufgenommen und aus der Atmosphäre verschwunden sein? Der 5. IPCC-Bericht schreibt hier, dass nach 1000 Jahren 85-60% des anthropogenen CO2 aus der Atmosphäre wieder verschwunden wären. Der vollständig Abbau würde aber mehrere hunderttausend Jahre dauern. In Kapitel 6 der Arbeitsgruppe 1 heißt es dazu:

The removal of human-emitted CO2 from the atmosphere by natural processes will take a few hundred thousand years (high confidence). Depending on the RCP scenario considered, about 15 to 40% of emitted CO2 will remain in the atmosphere longer than 1,000 years. This very long time required by sinks to remove anthropogenic CO2 makes climate change caused by elevated CO2 irreversible on human time scale.

Laut Umweltbundesamt (UBA) geht es aber auch schneller. Auf der UBA-Webseite wird angegeben:

Kohlendioxid ist ein geruch- und farbloses Gas, dessen durchschnittliche Verweildauer in der Atmosphäre 120 Jahre beträgt.

Von einem ähnlichen Wert geht auch Mojib Latif aus: Infranken.de berichtete am 13. Januar 2016 über einen Latif-Vortrag im Rahmen einer Lions-Club-Veranstaltung:

“100 Jahre bleibt CO2 in der Luft”
Der Klimaforscher Professor Mojib Latif machte als Gastredner beim Neujahresempfang des Lions-Clubs auf den Klimawandel aufmerksam. [...] “Wenn wir CO2 in die Luft blasen, dann bleibt das da 100 Jahre”, so Latif.

Hermann Harde von der Helmut-Schmidt-University Hamburg beschreibt in einer Arbeit, die im Mai 2017 im Fachblatt Global and Planetary Change erscheint und bereits vorab online verfügbar ist, einen neuen Ansatz, der Hinweise auf eine viel kürzere CO2-Verweildauer in der Atmosphäre liefert. Laut Harde bleibt das überschüssige CO2 im Durchschnitt lediglich 4 Jahre in der Luft:

Scrutinizing the carbon cycle and CO2 residence time in the atmosphere
Climate scientists presume that the carbon cycle has come out of balance due to the increasing anthropogenic emissions from fossil fuel combustion and land use change. This is made responsible for the rapidly increasing atmospheric CO2 concentrations over recent years, and it is estimated that the removal of the additional emissions from the atmosphere will take a few hundred thousand years. Since this goes along with an increasing greenhouse effect and a further global warming, a better understanding of the carbon cycle is of great importance for all future climate change predictions. We have critically scrutinized this cycle and present an alternative concept, for which the uptake of CO2 by natural sinks scales proportional with the CO2 concentration. In addition, we consider temperature dependent natural emission and absorption rates, by which the paleoclimatic CO2 variations and the actual CO2 growth rate can well be explained. The anthropogenic contribution to the actual CO2 concentration is found to be 4.3%, its fraction to the CO2 increase over the Industrial Era is 15% and the average residence time 4 years.

Dieser Wert ist nicht zu verwechseln mit der Verweildauer von einzelnen CO2-Molekülen in der Atmosphäre. Hier herrscht weitgehend Einigkeit, dass die Moleküle selber nur einige Jahre in der Luft bleiben, bevor sie mit CO2 aus dem Meerwasser im Sinne einer Gleichgewichtsreaktion ausgetauscht werden.

 

 

 

Hartmut Heinrich – Ein Pionier der Paläoklimawissenschaften

Die natürliche Klimavariabilität dokumentieren und verstehen, das wäre eine der Hauptaufgaben der modernen Klimawissenschaften. Der deutsche Meeresgeologe und Klimatologe Hartmut Heinrich war seiner Zeit weit voraus. Bereits Ende der 1980er Jahre hat er in Meeressedimenten ein wiederkehrendes Klimasignal entdeckt, die nach ihm benannten sogenannten Heinrich-Ereignisse. Wikipedia beschreibt:

Heinrich-Ereignisse beschreiben Perioden beschleunigter Eisvorstöße (englisch Ice flow surges) und deren Abfluss ins Meer. Die Ereignisse wurden aufgrund von Beobachtungen eines verstärkten Sedimenteintrages kontinentalen Ursprunges in jungpleistozänen Sedimentlagen am Meeresboden postuliert. Diese Sedimentlagen werden auch als Heinrich-Lagen oder IRD (englisch ice rafted debris oder ice rafted deposit) bezeichnet.[1] Aufgrund der groben Sedimentfraktion erscheint ein Transport durch Meeresströmungen unwahrscheinlich, als Transportmedium dürften daher vielmehr Eisberge/-schollen in Frage kommen.

Heinrich-Ereignisse wurden im Jahr 1988 erstmals von Hartmut Heinrich erwähnt und bisher nur für die letzte Kaltzeit nachgewiesen. Bei diesen Ereignissen brachen große Mengen an Eisbergen von den vorrückenden Gletschermassen ab und drifteten über den Nordatlantik. Die Eisberge führten Sedimente mit sich, die durch die Gletschertätigkeit abgetragen und inkorporiert worden waren; durch das Schmelzen der Eisberge fiel dieses von Eisbergen verschleppte Material auf den Meeresboden.

Das Schmelzen der Eisberge führte zu einer erhöhten Süßwasserzufuhr in den Nordatlantik. Dieser Zustrom an kaltem Süßwasser hat wahrscheinlich die dichtegetriebenen thermohalinen Zirkulationsmuster des Ozeans verändert. Die Ereignisse fallen oft mit Hinweisen auf globale Klimaschwankungen zusammen.

Weiterlesen auf Wikipedia.

Hans von Storch und Kay Emeis haben kürzlich ein spannendes Interview mit dem Klimapionier geführt. Absolut lesenswert. Das pdf des Interview finden Sie auf academia.edu. Leider kehrte Hartmut Heinrich der Wissenschaft früh den Rücken. In der von Klimamodellierern dominierten Klimawelt bräuchten wir heute mehr Forscher vom Typus Heinrich.

 

Philipp Blom: Die Kleine Eiszeit

Im Februar 2017 erschien ein neues Buch von Philip Blom zur Kleinen Eiszeit:

Die Welt aus den Angeln: Eine Geschichte der Kleinen Eiszeit von 1570 bis 1700 sowie der Entstehung der modernen Welt, verbunden mit einigen Überlegungen zum Klima der Gegenwart

Eine Rezension des Buches erschien am 10. März 2017 in der Welt von Christoph Arens:

Plötzlicher Klimawandel Vor 330 Jahren war ganz Europa ein eisiges Reich
Lange Winter und kurze, kühle Sommer: Im 17. Jahrhundert änderte sich das Klima in Europa dramatisch. Hungersnöte waren die Folge. Der Historiker Philipp Blom hat erforscht, wie der Kontinent die „Kleine Eiszeit“ überlebte.

Was passiert in einer Gesellschaft, wenn sich das Klima ändert? Wer stirbt, wer überlebt? Was bricht zusammen, und was wächst? „Es wirkt wie ein sadistisches Experiment“, erdacht von einem „böswilligen Dämon oder einem außerirdischen Wissenschaftler, ein Tierversuch mit ganzen Gesellschaften“, schreibt der Historiker Philipp Blom in seinem neuen Buch „Die Welt aus den Angeln.“

Weiterlesen in der Welt

———————-

Peter Heller am 25. Februar 2017 in Tichys Einblick:

Fakten statt Dogmen: Klimakatastrophe in der Krise
Mit einer Podiumsdiskussion wollte die VolkswagenStiftung zu mehr Klimaschutzanstrengungen aufrufen. Das aber scheiterte kläglich. Ein Veranstaltungsbericht.

Nach neunzig Minuten war für Bettina Münch-Epple die Grenze des Erträglichen überschritten. Unübersehbar hatte sich in ihr bis dahin viel verwirrte Verzweiflung aufgestaut, die schließlich in eine nur mühsam kaschierte Publikumsbeschimpfung mündete. Die Verärgerung der Leiterin der Bildungskommunikation des WWF Deutschland entstand, weil der Verlauf des Abends so gar nicht dem Plan des Veranstalters entsprach.

Unter dem Titel „Klimaschutz ade? Wie kann die Gesellschaft mobilisiert werden?“ wollte die von dem gleichnamigen Konzern unabhängige VolkswagenStiftung eigentlich darüber diskutieren lassen, warum denn gegen den „kommenden Klimawandel“ trotz der „düsteren Vorhersagen“ der Wissenschaft nichts getan würde.

Die mit apokalyptischen Bildern gefüllte Ankündigung vermittelte deutlich das Bestreben, über die Gleichsetzung von „Klimawandel“ mit „Klimakatastrophe“ unter dem tarnenden Überbau einer wissenschaftlichen Debatte Volkserziehung zu betreiben. Als aber der offensichtlich zum Zweck der seriösen Untermauerung „dramatischer Befunde“ geladene Klimaforscher Hans von Storch seinen Impulsvortrag mit dem Satz begann, er wäre nicht gekommen, um irgendwen zu mobilisieren, flog ihm die Sympathie der gut einhundertfünfzig Zuhörer spürbar zu. Seine weiteren Ausführungen ließen dann auch der Auffassung Raum, der Stand des Wissens sei wohl doch nicht so besorgniserregend, was viele Gäste, erkennbar am Beifall, mit Genugtuung zur Kenntnis nahmen.

Weiterlesen auf Tichys Einblick

 

Klimamodelle auf dem Prüfstand

Klimamodelle wurden vor zwanzig Jahren als der große Durchbruch gefeiert. Endlich konnte man die Realität im Computer nachvollziehen. Immer größer und schneller wurden die Rechner. Man glaubte fest daran, dass man nur noch i-Tüpfelchen justieren müsste und kurz vor dem Ziel war. Als dann aber die Rechenergebnisse mit der Realität verglichen wurden, ergaben sich riesige unerklärliche Diskrepanzen. Parallel dazu erarbeiteten Paläoklimatologen eine immer robustere Rekonstruktion des realen Klimaverlaufs, was die Probleme sogar noch offensichtlicher machte. Im Monatsabstand erscheinen heute Papers, die auf die schwerwiegenden Probleme der Klimamodellier hinweisen. Tests werden bevorzugt in der Mitte der Kleinen Eiszeit um 1800 begonnen, da dann die Erwärmung der letzten 200 Jahre so schön zum CO2-Anstieg passt. Geht man dann aber auf die letzten 1000 Jahre zurück, versagt die Technik.

Fabius Maximus wies im März 2016 auf das Offensichtliche hin: Die Modelle müssen viel schärfer getestet und kalibriert werden, bevor sie für Zukunftsmodellierungen freigegeben werden:

We can end the climate policy wars: demand a test of the models
[...] The policy debate turns on the reliability of the predictions of climate models. These can be tested to give “good enough” answers for policy decision-makers so that they can either proceed or require more research. I proposed one way to do this in Climate scientists can restart the climate change debate & win: test the models!— with includes a long list of cites (with links) to the literature about this topic. This post shows that such a test is in accord with both the norms of science and the work of climate scientists. [...] Models should be tested vs. out of sample observations to prevent “tuning” the model to match known data (even inadvertently), for the same reason that scientists run double-blind experiments). The future is the ideal out of sample data, since model designers cannot tune their models to it. Unfortunately…

“…if we had observations of the future, we obviously would trust them more than models, but unfortunately observations of the future are not available at this time.”
— Thomas R. Knutson and Robert E. Tuleya, note in Journal of Climate, December 2005.

There is a solution. The models from the first four IPCC assessment reports can be run with observations made after their design (from their future, our past) — a special kind of hindcast.

Ein anderer großer Kritikpunkt an den Kimamodellen ist das sogenannte Tuning. Hier werden die Klimamodelle so justiert, das sie möglichst nah an das gewünschte Ergebnis herankommen. Dies geschieht meist hinter verschlossenen Türen im dunklen Kämmerlein und leidet unter fehlender Transparenz. Hourdin et al. 2016 haben das Problem in einem Übersichtspaper ausführlich beschrieben. Judith Curry empfiehlt die Abhandlung wärmstens.

Two years ago, I did a post on Climate model tuning,  excerpts: “Arguably the most poorly documented aspect of climate models is how they are calibrated, or ‘tuned.’ I have raised a number of concerns in my Uncertainty Monster paper and also in previous blog posts.The existence of this paper highlights the failure of climate modeling groups to adequately document their tuning/calibration and to adequately confront the issues of introducing subjective bias into the models through the tuning process.”

Think about it for a minute. Every climate model manages to accurately reproduce the 20th century global warming, in spite of the fact that that the climate sensitivity to CO2 among these models varies by a factor of two. How is this accomplished? Does model tuning have anything to do with this?

Ganzen Beitrag auf Climate Etc. lesen.

Im November 2016 beschrieb Paul Voosen im angesehenen Fachblatt Science die Notwendigkeit, die Geheimniskrämerei zu beenden und die Black Boxes im Sinne der Transparenz für die Öffentlichkeit zu öffnen:

Climate scientists open up their black boxes to scrutiny
Climate models render as much as they can by applying the laws of physics to imaginary boxes tens of kilometers a side. But some processes, like cloud formation, are too fine-grained for that, and so modelers use “parameterizations”: equations meant to approximate their effects. For years, climate scientists have tuned their parameterizations so that the model overall matches climate records. But fearing criticism by climate skeptics, they have largely kept quiet about how they tune their models, and by how much. That is now changing. By writing up tuning strategies and making them publicly available for the first time, groups hope to learn how to make their predictions more reliable—and more transparent.

 

Sonne macht Klima: Spanien und Portugal

Beeinflusst die Sonne das Klima? Im heutigen Beitrag wollen wir neue Studien aus Spanien und Portugal vorstellen, die hier Licht ins Dunkel bringen. Im Februar 2017 erschien in Climate of the Past eine Baumring-Studie einer Gruppe um Ernesto Tejedor, in der eine Temperaturrekonstruktion für die Iberische Halbinsel für die vergangenen 400 Jahre vorgestellt wird. Die Autoren heben hervor, dass die Temperaturschwankungen recht gut mit den Schwankungen der Sonnenaktivität zusammenpassen. Warme Phasen gehen dabei mit Zeiten erhöhter Sonnenaktivität einher. Insgesamt hat sich das Untersuchungsgebiet in diesen 400 Jahren um fast 3°C erwärmt, was den Übergang von der Kleinen Eiszeit zur Modernen Wärmeperiode widerspiegelt (Abb.). Allerdings gab es bereits um 1625 und 1800 Phasen, als die Temperaturen für kurze Zeit das heutige Niveau erreichten.

Abbildung: Temperaturentwicklung im Gebirgszug Nordspanien während der letzten 400 Jahre und Vergleich mit der Sonnenaktivität. Quelle: Tejedor et al. 2017.

 

Hier der Abstract der Studie:

Temperature variability in the Iberian Range since 1602 inferred from tree-ring records
Tree rings are an important proxy to understand the natural drivers of climate variability in the Mediterranean Basin and hence to improve future climate scenarios in a vulnerable region. Here, we compile 316 tree-ring width series from 11 conifer sites in the western Iberian Range. We apply a new standardization method based on the trunk basal area instead of the tree cambial age to develop a regional chronology which preserves high- to low-frequency variability. A new reconstruction for the 1602–2012 period correlates at −0.78 with observational September temperatures with a cumulative mean of the 21 previous months over the 1945–2012 calibration period. The new IR2Tmax reconstruction is spatially representative for the Iberian Peninsula and captures the full range of past Iberian Range temperature variability. Reconstructed long-term temperature variations match reasonably well with solar irradiance changes since warm and cold phases correspond with high and low solar activity, respectively. In addition, some annual temperature downturns coincide with volcanic eruptions with a 3-year lag.

Weiter gehts in Portugal. Anna Morozova und Tatiana Barlyaeva analysierten den Temperaturverlauf der letzten 100 Jahre in Lissabon, Coimbra und Porto. Dabei stießen sie auf ein schwaches aber statistisch gut abgesichertes Signal der 11- und 22-jährigen Sonnenzyklen in den Temperaturdaten. Im Haupttext ihrer Arbeit heißt es dazu:

Weak but statistically significant (bi-)decadal signals in the temperature series that can be associated with the solar and geomagnetic activity variations were found. These signals are stronger during the spring and autumn seasons. The multiple regression models which include the sunspot numbers or the geomagnetic indices among other regressors have higher predictionquality. The wavelet coherence analysis shows that there are time lags between the temperature variations and the solar activity cycles. These lags are about 1–2 years in case of the 11-yr solar cycle as well as in case of the 22-yr solar magnetic cycle (relatively to the solar polar magnetic field observations). These lags are confirmed by the correlation analysis. The results obtained by these methods as well as comparison to results of other studies allow us to conclude that the found (bi-)decadal temperature variability modes can be associated, at least partly, with the effect of the solar forcing.

Bleiben wir in Portugal, gehen aber auf den weiten Atlantischen Ozean hinaus. Die Inselgruppe der Azoren spielt eine wichtige Rolle im westeuropäsichen Westtergeschehen. Im November 2016 ging eine Gruppe um Roy et al. im Journal of Atmospheric and Solar-Terrestrial Physics der Frage nach, ob bei der Ausprägung des berühmten Azoren-Hoch vielleicht die Sonnenaktivität eine Rolle spielen könnte. Ein solarer Einfluss auf diese wichtige Wettermaschine wäre bedeutsam. Und in der Tat stellten die Autoren eine signifikante Kopplung des Azorenhochs an die Sonnenaktivität fest. Sichtbar wird der Zusammenhang vor allem, wenn man die verschiedenen solaren Akivitätskennziffern berücksichtigt, nicht nur die meist verwendeten Sonnenflecken. Es wird immer klarer, dass das solare Magnetfeld eine mindestens ebenso wichtige Rolle spielt, was auch im Fall der Azoren den Durchbruch brachte. Zudem müssen zeitliche Verzögerungseffekte von 1-2 Jahren eingerechnet werden. Das Klimasystem ist träge und springt nicht gleich über jedes Stöckchen das man ihm hinhält. Manchmal dauert es ein wenig, bis sich das System an den externen Signalgeber orientiert und anpasst. Hier der Abstract der spannenden Studie:

Comparing the influence of sunspot activity and geomagnetic activity on winter surface climate
We compare here the effect of geomagnetic activity (using the aa index) and sunspot activity on surface climate using sea level pressure dataset from Hadley centre during northern winter. Previous studies using the multiple linear regression method have been limited to using sunspots as a solar activity predictor. Sunspots and total solar irradiance indicate a robust positive influence around the Aleutian Low. This is valid up to a lag of one year. However, geomagnetic activity yields a positive NAM pattern at high to polar latitudes and a positive signal around Azores High pressure region. Interestingly, while there is a positive signal around Azores High for a 2-year lag in sunspots, the strongest signal in this region is found for aa index at 1-year lag. There is also a weak but significant negative signature present around central Pacific for both sunspots and aa index. The combined influence of geomagnetic activity and Quasi Biannual Oscillation (QBO 30 hPa) produces a particularly strong response at mid to polar latitudes, much stronger than the combined influence of sunspots and QBO, which was mostly studied in previous studies so far. This signal is robust and insensitive to the selected time period during the last century. Our results provide a useful way for improving the prediction of winter weather at middle to high latitudes of the northern hemisphere.

 

Sonne macht Klima: Elfjähriger Sonnenzyklus beeinflusst das Wetter in Mitteleuropa

Immer wieder heißt es: Die Sonne kann nichts, sie wäre klimatisch nahezu wirkungslos, ein zahnloser Tiger. Diese Behauptung des IPCC steht im krassen Gegensatz zur Mehrheit der Forscher, die dieses Feld beackern. In hunderten von Publikationen und Fallstudien haben sie die Klimawirkung der Sonne eindrucksvoll belegt und stoßen bei den IPCC-Managern auf taube Ohren. Im heutigen Beitrag wollen wir uns neue Studien aus Europa vornehmen.

Im Januar 2017 erschien in Geology ein Artikel von Ludwig Luthardt und Ronny Rößler. Sie untersuchten Baumringe an einem fossilen Stumpf aus der Perm-Zeit (290 Millionen Jahre vor unserer Zeit) in einem Wald bei Chemnitz und fanden ein bemerkenswertes Muster: Die Dicke der Ringe pulsierte im 11-Jahrestakt. Dieser Rhythmus ist allen Paläoklimatologen bestens bekannt. Es ist der Schwabe-Zyklus, der kürzeste aller Sonnenzyklen. Sonne macht Klima! Hier der Abstract der Arbeit:

Fossil forest reveals sunspot activity in the early Permian
Modern-day periodic climate pattern variations related to solar activity are well known. High-resolution records such as varves, ice cores, and tree-ring sequences are commonly used for reconstructing climatic variations in the younger geological history. For the first time we apply dendrochronological methods to Paleozoic trees in order to recognize annual variations. Large woody tree trunks from the early Permian Fossil Forest of Chemnitz, southeast Germany, show a regular cyclicity in tree-ring formation. The mean ring curve reveals a 10.62 yr cyclicity, the duration of which is almost identical to the modern 11 yr solar cycle. Therefore, we speculate and further discuss that, like today, sunspot activity caused fluctuations of cosmic radiation input to the atmosphere, affecting cloud formation and annual rates of precipitation, which are reflected in the tree-ring archive. This is the earliest record of sunspot cyclicity and simultaneously demonstrates its long-term stable periodicity for at least 300 m.y.

Nun könnte man sagen, naja, das war vor 290 Millionen Jahren. Die klimabeeinflussende Fähigkeit hat die Sonne doch mittlerweile sicher verloren. Eine neue Arbeit von Mikhaël Schwander und Kollegen zeigt, dass diese Annahme grundsätzlich falsch ist. Der 11 jährige Sonnenzyklus hat auch in den letzten 250 Jahren das mitteleuropäische Wettergeschehen nachdrücklich mitgeprägt, wie die Auswertung von historischen Wetteraufzeichnungen zeigt. Während solarer Schwächephasen werden Westwinde über Mitteleuropa typischerweise seltener, und es treten vermehrt Winde aus nördlichen und östlichen Richtungen auf. Gleichzeitig gibt es mehr blockierte Wetterlagen im Bereich von Island und Skandinavien. Insgesamt läßt eine schwache Sonne die spätwinterlichen Temperaturen in Europa absinken. Die Autoren verglichen die von ihnen identifizierten Zusammenhänge mit den Ergebnissen von Klimamodellen und stellten fest, dass die Modell die Realität und empirisch belegten klimatischen Einfluss der Sonnenzyklik nicht nachvollziehen können. Die bemerkenswerte Studie erschien im Januar 2017 in Climate of the Past Discussions. Hier der Abstract:

Influence of solar variability on the occurrence of Central European weather types from 1763 to 2009
The impact of solar variability on weather and climate in Central Europe is still not well understood. In this paper we use a new time series of daily weather types to analyse the influence of the 11-year solar cycle on the tropospheric weather of Central Europe. We employ a novel, daily weather type classification over the period 1763–2009 and investigate the occurrence frequency of weather types under low, moderate and high solar activity level. Results show a tendency towards fewer days with westerly and west south-westerly flow over Central Europe under low solar activity. In parallel, the occurrence of northerly and easterly types increases. Changes are consistent across different sub-periods. For the 1958–2009 period, a more detailed view can be gained from reanalysis data. Mean sea level pressure composites under low solar activity also show a reduced zonal flow, with an increase of the mean blocking frequency between Iceland and Scandinavia. Weather types and reanalysis data show that the 11-year solar cycle influences the late winter atmospheric circulation over Central Europe with colder (warmer) conditions under low (high) solar activity. Model simulations used for a comparison do not reproduce the imprint of the 11-year solar cycle found in the reanalyses data.

Einen Monat zuvor war im Dezember 2016 in Climate of the Pasteine weitere Studie zum Thema erschienen. Ein 32-köpfiges Mammutteam um Chantal Camenisch hat die kalten 1430er Jahre in Nordwest- und Mitteleuropa näher analysiert. Die Kältephase ist gut dokumentiert und fällt interessanterweise in eine solare Schwächephase, nämlich das Spörer Minimum. Ob hier vielleicht ein Zusammenhang bestehen könnte? Die Forscher bestätigten zunächst die Kältephase eindrucksvoll mit einem ganzen Strauß an Rekonstruktionsmethoden. Dann jedoch beschritten sie einen Argumentationspfad, der wenig Sinn macht. Sie gaben ihre Daten in Klimamodelle ein und konnten keinen ursächlichen Zusammenhang zwischen Abkühlung und Sonnenabschwächung feststellen. Kunststück, denn die Klimamodelle sind ja genau so programmiert, dass kein Zusammenhang herauskommt. Der Strahlungsantrieb von solaren Schwankungen ist in den Modellen so niedrig angesetzt, dass hier niemals ein Bezug gefunden werden könnte. Damit handelt es sich um einen Pseudobeweis gegen die Sonne, der keinen Wert hat.

Aber eine Erklärung für die Kälte der 1430er Jahre brauchte die Gruppe trotzdem. Man spielte den Joker und behauptete einfach, es wäre eine Laune der Natur, eine kaum vorhersagbare klimasysteminterne Schwankung. Ein schwaches Resultat, das vermutlich ein Kompromiss des riesengroßen Autorenkollektiv war und nicht unbedingt die Meinung jedes einzelnen Teammitglieds widerspiegelt. Ein schönes Beispiel für politisch korrekte Forschung, bei der das Offensichtliche nicht herauskommen darf, weil die Konsequenzen unerwünscht sind. Das wirkliche Resultat: Bei den Klimamodellen ist etwas faul. Albert Einstein: „Das, wobei unsere Berechnungen versagen, nennen wir Zufall“. Hier der Abstract:

The 1430s: a cold period of extraordinary internal climate variability during the early Spörer Minimum with social and economic impacts in north-western and central Europe

Changes in climate affected human societies throughout the last millennium. While European cold periods in the 17th and 18th century have been assessed in detail, earlier cold periods received much less attention due to sparse information available. New evidence from proxy archives, historical documentary sources and climate model simulations permit us to provide an interdisciplinary, systematic assessment of an exceptionally cold period in the 15th century. Our assessment includes the role of internal, unforced climate variability and external forcing in shaping extreme climatic conditions and the impacts on and responses of the medieval society in north-western and central Europe.

Climate reconstructions from a multitude of natural and anthropogenic archives indicate that the 1430s were the coldest decade in north-western and central Europe in the 15th century. This decade is characterised by cold winters and average to warm summers resulting in a strong seasonal cycle in temperature. Results from comprehensive climate models indicate consistently that these conditions occurred by chance due to the partly chaotic internal variability within the climate system. External forcing like volcanic eruptions tends to reduce simulated temperature seasonality and cannot explain the reconstructions. The strong seasonal cycle in temperature reduced food production and led to increasing food prices, a subsistence crisis and a famine in parts of Europe. Societies were not prepared to cope with failing markets and interrupted trade routes. In response to the crisis, authorities implemented numerous measures of supply policy and adaptation such as the installation of grain storage capacities to be prepared for future food production shortfalls.

 

Winterliche Schneebedeckung der Nordhalbkugel hat sich in den letzten 50 Jahren erhöht

Am 10. Februar 2017 erschien im Traunsteiner Tagblatt (TT) ein erfrischendes Interview, in dem sich Günther Aigner gegen die allseits verbreitete Schnee-Endzeit-Stimmung ausspricht:

»Der Klimawandel bedroht den Wintersport derzeit nicht«
Es gibt vielmehr über die Jahrzehnte gesehen ein ständiges Auf und Ab von kälteren und wärmeren Perioden – ohne erkennbare Tendenz. »Der Klimawandel bedroht den Wintersport derzeit nicht«, sagt Günther Aigner, der in Innsbruck Sport und Wirtschaft studiert hat. Niemand könne allerdings voraussagen, wie es in Zukunft aussehe. Prognosen hält er für unseriös.

TT: Wieso haben Sie sich die Mühe gemacht und über Monate Tausende Daten ausgewertet?

Günther Aigner: Mich hat es fasziniert, dass sich alle einig sind, dass der Skisport wegen des Klimas keine Zukunft hat. Also habe ich begonnen, Wintertemperatur- und Schneedaten aus den Alpen auszuwerten. Diese Arbeit war so spannend, dass ich sie nun hauptberuflich mache.

TT: Ihre Untersuchungen haben ergeben, dass die Winter auf den Bergen der Ostalpen sogar kälter wurden, nicht wärmer. Wie kann das sein? Das Abschmelzen der Gletscher ist schließlich eine Tatsache…

Günther Aigner: Die Winter sind auf den Bergen innerhalb der letzten 30 Jahre kälter geworden, weil wir nicht mehr so häufige milde West- und Südwetterlagen wie noch Anfang der 1990er Jahre haben. Es liegt also an der Häufigkeitsverteilung der Großwetterlagen, und nicht am globalen Temperaturregime. Die Gletscher schmelzen, weil die Sommer in den Alpen in den letzten 30 Jahren viel sonniger und heißer wurden. Die Sommerschneefälle auf den Bergen haben sich drastisch reduziert.

TT: Jedes Jahr wieder gibt es die Diskussion um weiße Weihnachten. Ist es nicht ganz normal, dass im Dezember kein oder nur wenig Schnee liegt?

Günther Aigner: Doch, genau so ist es. Es ist normal, dass der Winter rund um Weihnachten erst beginnt. Eine tief verschneite weihnachtliche Landschaft ist somit die absolute Ausnahme und nicht die Regel. Unsere Gesellschaft bewertet den Winter allerdings daran, ob es zu Weihnachten kalt ist und Schnee hat. Das ist absurd.

Weiterlesen im Traunsteiner Tagblatt

Aigners hochinformative Auswertungen können Sie auf der Webplattform Zukunft Skisport finden. Hier geht es direkt zu den Klimadaten. Bereits im Oktober 2016 hatten sich die Betreiber von Seilbahnen gegen die Schnee-Panikmache gewehrt. Beitrag auf ORF Salzburg:

Klimawandel: Seilbahnmanager weiter optimistisch
Milde Winter seien noch über Jahrzehnte kein Problem für den Skitourismus, sagen Pinzgauer Seilbahnmanager. Sie widersprechen damit jüngsten Untersuchungen, wonach Schneesaisonen in den Alpen künftig bis zu 40 Tage kürzer sein könnten.

Wir nutzen die Gelegenheit und schauen in die offiziellen Schneedaten der Rutgers University. Wie hat sich die Schneebedeckung in den letzten Jahrzehnten wirklich verändert? Wir beginnen mit den Winter-Schneetrends für die Nordhalbkugel für die vergangenen 50 Jahre (Abbildung 1). Eine Riesenüberraschung: Die winterliche Schneebedeckung hat sich im letzten halben Jahrhundert erhöht!

Abbildung 1: Schneeausdehnung im Winter auf der Nordhalbkugel während der letzten 50 Jahre. Quelle: Rutgers University

 

Auf der gleichen Webseite kann man auch andere Jahreszeiten wählen. Der Herbstschnee hat ebenfalls zugenommen. Nur im Frühling ist die Schneebedeckung geschrumpft.

Verkleinern wir nun das Betrachtungsgebiet auf Europa und Asien (“Eurasien”). Zunächst wieder der Winterschneetrend (Abbildung 2). Das gleiche Ergebnis wie zuvor: Auch in Eurasien hat sich die winterliche Schneebedeckung in den letzten 50 Jahren erhöht.

Abbildung 2: Schneeausdehnung im Winter in Europa und Asien während der letzten 50 Jahre. Quelle: Rutgers University.

 

Die eurasischen Schneetrends für Herbst und Frühling entsprechen denjenigen der Nordhalbkugel. Auf der selben Webseite gibt es auch die nordamerikanischen Trends, die wiederum den bereits vorgestellten Entwicklungen entsprechen. Auf einer NOAA-Webseite kann man sich die Schneedaten sogar aufgeschlüsselt nach Monaten plotten lassen. In den Monaten September bis Januar ist der Schnee im letzten halben Jahrhundert auf der Nordhalbkugel häufiger, von Februar bis August ist er seltener geworden. Vielleicht sollten die Skifahrer ihren Skiurlaub einfach ein paar Monate vorziehen, anstatt sich im Frühling über Schneemangel zu beschweren?

Nun sind die nördliche Halbkugel und Eurasien riesige Regionen. Aus individueller Sicht interessiert sich jeder für sein eigenes Skigebiet, und dabei können lokale Trends natürlich von den (halb-) globalen Trends abweichen. Beispiel Bayerische Alpen in Deutschland, für die der Bayerische Rundfunk eine Schneestatistik mit sieben Stationen seit 1961 anbietet. Fünf Stationen (Oberstorf, Garmisch-Partenkirchen, Wendelstein, Reit im Winkel, Bad Reichenhall) zeigen einen statistisch signifikanten Rückgang der Schneetage im Winterhalbjahr (hier ist der halbe Herbst und Frühling enthalten) während der vergangenen 55 Jahre. Nur Mittenwald und Zugspitze sind einigermaßen stabil.

Zu beachten ist, dass der Startpunkt der Statistik in den 1960er Jahren in einer natürlichen Kältedelle in der Temperaturkurve liegt. Zwischen 1935 und 1952 lagen die Deutschlandtemperaturen jedoch deutlich über dem Durchschnitt der 1960er und frühen 70er Jahre (Abbildung 3), was vermutlich zu weniger Schneefall führte. Es wäre daher begrüßenswert, wenn die Schneestatistik weiter in die Vergangenheit ausgebaut werden könnte, um ein kompletteres Bild der Trends unnd ihrer natürlichen Schwankungsbreite zu bekommen.

Abb. 3: Temperaturentwicklung in Deutschland während der vergangenen 135 Jahre. Quelle: Quelle: Kaspar, F., H. Mächel (2017): Beobachtung von Klima und Klimawandel in Mitteleuropa und Deutschland, in: Brasseur, G.P., D. Jacob, S. Schuck-Zöller (Hrsg.; 2017): Klimawandel in Deutschland, Entwicklung, Folgen, Risiken und Perspektiven, Berlin Heidelberg, 17-26. Via Wiki Bildungsserver Klimawandel.


                    

Temperaturdaten-Stabilitätspakt dringend benötigt: NASA kühlt die 1930er Jahre nachträglich um zwei ganze Zehntelgrad ab

Mehrere Leser baten uns, die bunte Welt der Temperaturdatensätze und ihre Stolperfallen noch einmal vorzustellen. Die Anregung nehmen wir gerne auf, da es zu Jahresbeginn wieder zu Verwirrung gekommen ist: Während einige Datenlieferanten Stagnation meldeten, überboten sch andere mit neuen Rekorden. Was steckt hinter dieser Konfusion?

Es ist ein bisschen wie beim Boxen: Es gibt nicht nur einen Weltverband der Temperaturstatistik, sondern gleich eine ganze handvoll. Zu unterscheiden sind zwei Gruppen: Temperaturmessungen am Erdboden und Messungen per Satellit. Die drei wichtigsten Bodentemperaturdatensätze stammen von der NASA (GISS), vom britischen Hadley Centre (HadCRUT) sowie von der US-amerikanischen NOAA (NCDC). Bei den Satellitendaten gibt es RSS (Remote Sensing Systems) und UAH (University of Huntsville in Alabama). Die Bodendaten gehen mehr als 100 Jahre zurück, während die Satelliten erst Ende der 1970er Jahre den Betrieb aufnahmen. Zwar zeigen alle Datensätze die Erwärmung der letzten Jahrzehnte, aber Unterschiede gibt es.

Wer ein bisschen mit den Temperaturdaten selber experimentieren möchte, dem sei die benutzerfreundliche Webseite Wood for Trees empfohlen, wo man mit ein paar Klicks tolle Kurven generieren kann. Zu beachten ist, dass alle Datensätze unterschiedliche Referenzperioden haben, daher ist der absolute Temperaturvergleich erst nach einer Korrektur (“Offset”) und Angleichung der Baselines möglich.

Generell ist es so, dass die Satellitendaten weniger Erwärmung zeigen, als die Bodendaten. Weshalb ist das so? Die Bodendaten werden aus einer Vielzahl von Stationen generiert, wobei gewisse Anpassungen zur Vergleichbarkeit notwendig sind. Dies wird in der Fachwelt “Korrekturen” genannt. Fiktives Beispiel: Wenn in der Vergangenheit zum Beispiel Temperaturen in einer schwarzen Hütte gemessen wurde und heute in einer weißen, dann müssen die schwarzen Werte auf weiß umgerechnet werden. Das ist soweit in Ordnung. Trotzdem steckt hier auch das Problem, denn es wurden in der Vergangenheit soviele “Korrekturen” durchgeführt, dass einem fast schwindelig werden konnte. Im Jahresrhythmus wurden vor allem die neueren Temperaturen angehoben, während die älteren Temperaturen abgesenkt wurden. Schwupps, war am Computer eine künstliche Erwärmung herbeigezaubert. Der Kreis derjenigen, die diese nichttransparente Datenverbiegung nachvollziehen und bewerten kann, ist äußerst klein. Für subjektive Entscheidungen stehen Tür und Tor offen, ohne dass es aus dem kleinen Zirkel nach außen dringt.

Schauen wir uns das Beispiel GISS an. Seit vielen Jahren stehen diesem New Yorker NASA-Institut bekennende Klimaaktivisten vor, erst James Hansen, jetzt Gavin Schmidt. Keine gute Ausgangslage für die Betreuung einer als neutral gedachten Temperaturdatenbank. Es wundert daher kaum, dass GISS zu den Datensätze mit der stärksten Erwärmung zählt. Das Wort ‘Betrug’ ist hier sicher falsch, aber man kann sich leicht vorstellen, dass es bei den vielen Entscheidungsmöglichkeiten im Workflow stets zugunsten einer verstärkten Erwärmung geht.

Immer wieder haben Kritiker Aufklärung gefordert und eine Untersuchung der nicht endenwollenden Korrekturwelle des GISS angemahnt. Im März 2015 berichtete der Focus über eine solche Initiative, mit dem offensichtlichen Ziel, die Aktion als Tat von wirren Verschwörungstheoretikern abzutun:

Neuer Klimaskandal: Nasa soll bei Erderwärmung Daten gefälscht haben
[...] Das Nasa Goddard Institute for Space Studies (GISS) habe widersprüchliche Daten veröffentlicht, heißt es dort. Und tatsächlich: Die Daten, die die Nasa veröffentlichte, unterscheiden sich deutlich von den ursprünglich gemessenen Temperaturen. Bedeutet das jetzt, dass der Klimawandel eine Lüge ist? Nein. Der Klimawandel ist echt. Das Wetter wird extremer, die Erde heizt sich auf. Zu dem eindeutigen Ergebnis kommen Experten im Gespräch mit der „Bild“-Zeitung. Diese Experten erklären auch, warum es Abweichungen in den Daten der Nasa gibt. Demnach sei es eine ganz normale wissenschaftliche Methode, die Daten nachträglich anzupassen. Das sei aufgrund einiger Faktoren nötig, die die Messungen ungenau machen. So gibt es zum Beispiel Lücken bei den Messdaten, etwa wegen eines Ausfalls von Beobachtern. Auch kam es zu Stationsverlegungen und zu Zeitunterschieden bei den Messungen (das heißt, einmal wird mittags, dann wieder morgens gemessen), heißt es im Bericht der “Bild”-Zeitung weiter. Beides führt zu Abweichungen bei den Daten. Auch das Ersetzen veralteter durch moderne Technik führte zu veränderten Klimadaten. Dass den Klimaforschern heute oft nur „unsaubere“ Daten vorliegen liege auch daran, dass die Leute früher nicht davon ausgingen, dass ihre Ergebnisse für Langzeit-Analysen zum Klimawandel benutzt werden sollten. Mit verschiedenen Methoden werden die Daten deshalb nachträglich kalibriert. Die Experten sind sich einig, wie die “Bild”-Zeitung berichtet: Der Klimawandel existiert. Kein Grund für Verschwörungstheorien also.

Experten beruhigen: Alles gut. Hier gibt es nichts zu sehen. Gehen Sie bitte zügig weiter. Das würden wir gerne glauben, wollen aber doch nicht ganz auf Belege verzichten. Wir vergleichen eine ältere Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve):

Abbildung: Vergleich einer älteren Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve). Daten GISS, Graphik: Climate4You.

 

Sehen Sie es auch? In diesem letzten Update, wurden die Temperaturen für die letzten 35 Jahre in aller Stille um ein halbes Zehntelgrad angehoben. Prinzip Salamitaktik: Immer ein bisschen mehr. Wie Sie wissen, geht es bei der Klimaerwärmung insgesamt “lediglich” um acht Zehntelgrad, da macht ein halbes Zehntel schon etwas aus, insbesondere wenn es vorher schon weitere Korrekturen gegeben hat.

Vielleicht auf Druck von außen bietet die NASA nun einen Online-Vergleich der verschiedenen GISS-Versionen an. Machen wir also die Probe aufs Exempel. Wie sieht der Vergleich mit der vorletzten Korrektur aus? Die schwarze Kurve zeigt die aktuelle Version von 2016 an. Die hellgrüne Kurve ist die Version von 2013 (entspricht vermutlich der roten 2015er Kurve der vorherigen Abbildung). Und die violette Kurve ist die Version von 2012. Ganz genau: Salamitaktik, wieder ein halbes Zehntel. Immer schön unter dem Radar fliegen.

 

Abbildung: Vergleich der GISS-Temperaturversionen von 2012, 2013 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Weiterhin sieht man, wie die Temperaturen zwischen 1920 und 1970 künstlich abgekühlt wurden. Das sieht man noch besser, wenn man die Datenversionen von 1987 und 2016 vergleicht:

Abbildung: Vergleich der GISS-Temperaturversionen von 1987 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Ziemlich unglaublich: Die globalen Temperaturdaten wurden in den 1930er Jahren um zwei ganze Zehntelgrad künstlich heruntergekühlt. Oder anders ausgedrückt: Die Originalmeswerte der Messstationen waren um genau diese zwei Zehntelgrad (immerhin ein Viertel der globalen Gesamterwärmung in den letzten 150 Jahren) wärmer als von GISS heute dargestellt. Um Gründe für die Korrekturen sind die Datenhüter natürlich nicht verlegen. Aber sind sie glaubhaft?

Auch hier: Spielen Sie doch einmal selber mit dem GISS-Versions-Vergleichstool. Es gibt viel zu entdecken!