News und Termine

Wolken entpuppen sich als Erwärmungsbremse: Möglicher weiterer Hinweis auf eine niedrigere CO2-Erwärmungswirkung

Die Wolken sind die großen Unbekannten im Klimawandel. Ist es purer Zufall, dass die tropische Wolkenbedeckung in den letzten 30 Jahren deutlich abgenommen hat? Inwieweit verstärken die Wolken den Klimawandel, oder sind sie sogar indirekter Auslöser? Erwärmung durch weniger Wolken oder weniger Wolken durch Erwärmung? IPCC-Modelle gehen davon aus, dass die Wolken den CO2-Effekt verstärken. Vereinfacht ausgedrückt würde eine Erwärmung die niedrigen Wolken reduzieren, was die Erwärmung weiter verstärkt. Allerdings gibt es aus der Wolkenforschung starke Hinweise auf den gegenteiligen Effekt, also ein “negativer Feedback”, was die CO2-Erwärmung dämpfen und nicht verstärken würde (siehe z.B. Lambert et al. 2015, Pyrina et al. 2015, Dolinar et al. 2015).

Am 4. Mai 2017 erschien in den Geophysical Research Letters eine weitere Arbeit die ein negatives Feedback durch Wolken dokumentiert. Ein Forscherteam um Joachim Fallmann simulierte in einem Klimamodell eine Temperaturerhöhung in der Nordsee. Im Modell erhöhten sich daraufhin die niedrigen Wolken, was wiederum abkühlend wirkte. Durch diese negative Rückkopplung wurde die ursprüngliche Temperaturerhöhung letztendlich abgeschwächt, und nicht etwa verstärkt. Fallstudien wie diese werden dringend benötigt, um die IPCC-Modellannahmen zu überprüfen. Hier der Abstract der Arbeit von Fallmann und Kollegen:

Impact of sea surface temperature on stratiform cloud formation over the North Sea
This study presents a numerical simulation assessing the effect of dynamical ocean–atmosphere coupling on the structure of the marine atmospheric boundary layer over the southern North Sea. Using a high-resolution regional coupled ocean-atmosphere prediction system, with a coupling frequency of 1 h, a diurnal variation of sea surface temperature simulated by the ocean model is applied to the atmosphere component. This results in a surface warming in the coupled compared to an atmosphere-only run. Shallow convection initiated by heating of the lower atmosphere by a relatively warmer ocean surface leads local formation of low level clouds between 1300 h and 1700 h in the coupled run. The impact of these clouds in reflecting incoming solar radiation is demonstrated through a relative cooling of the sea surface temperature in the coupled simulation compared to an ocean-only run forced by an atmosphere-only run without representation of ocean-atmosphere interactions.

Der vormal pauschal vom IPCC angenommene Wolken-Verstärker entpuppt sich immer mehr zum Bremsklotz für die Erwärmung. Ein Wissenschaftlerteam um Chen Zhou vermutet sogar, dass hier einer der Gründe für den Erwärmungshiatus der letzten knapp zwei Jahrzehnte zu suchen ist. In Nature Geoscience stellten sie eine Zunahme der Wolkenbedeckung in den Tropen in den 1980er-2000er Jahren fest, trotz globaler Erwärmung. Ein klassischer negativer Feedback. Hier der Abstract der Arbeit, die am 31. Oktober 2016 erschien:

Impact of decadal cloud variations on the Earth’s energy budget
Feedbacks of clouds on climate change strongly influence the magnitude of global warming1, 2, 3. Cloud feedbacks, in turn, depend on the spatial patterns of surface warming4, 5, 6, 7, 8, 9, which vary on decadal timescales. Therefore, the magnitude of the decadal cloud feedback could deviate from the long-term cloud feedback4. Here we present climate model simulations to show that the global mean cloud feedback in response to decadal temperature fluctuations varies dramatically due to time variations in the spatial pattern of sea surface temperature. We find that cloud anomalies associated with these patterns significantly modify the Earth’s energy budget. Specifically, the decadal cloud feedback between the 1980s and 2000s is substantially more negative than the long-term cloud feedback. This is a result of cooling in tropical regions where air descends, relative to warming in tropical ascent regions, which strengthens low-level atmospheric stability. Under these conditions, low-level cloud cover and its reflection of solar radiation increase, despite an increase in global mean surface temperature. These results suggest that sea surface temperature pattern-induced low cloud anomalies could have contributed to the period of reduced warming between 1998 and 2013, and offer a physical explanation of why climate sensitivities estimated from recently observed trends are probably biased low4.

Thorsten Mauritsen vom Hamburger Max-Planck Institut für Meteorologie erläuterte in einem Begleitartikel in Nature Geoscience die Bedeutung des negativen Wolkenfeedbacks. Hier könnte durchaus ein weiterer Hinweis darauf zu finden sein, dass die CO2-Klimasensitivität in Wirklichkeit geringer ist als lange vom IPCC angenommen. Auszüge:

Climate scientists broadly agree that Earth’s equilibrium climate sensitivity — the global warming that occurs a long time after the atmospheric carbon dioxide has been doubled — is likely to be between 1.5 and 4.5 K. Estimates based on climate models often favour the upper end of the range1,2, whereas estimates based on instrumental-record warming tend to arrive at the lower end3,4. This apparent discrepancy is currently the subject of intense research efforts and a number of explanations have been proposed. Writing in Nature Geoscience, Zhou and colleagues5 show that the cloud response to a peculiar pattern of sea surface temperature warming could be the cause of the difference. [...] Thanks to the studies by Zhou and colleagues5 and Gregory and colleagues6, we are now right at the verge of a breakthrough in understanding past warming. In a few years from now we will probably have cracked the problem of deciphering the cause-and-effect relationships between sea surface warming patterns, cloud feedbacks and climate sensitivity. Key to achieving this will be grasping the interaction between deep and shallow tropical clouds through the atmospheric circulation11.

 

Klimamodelle überschätzen Kühleffekt durch Wüstenstaub

Gängige Klimamodelle gehen von einer starken Erwärmungswirkung durch CO2 aus. Die daraus resultierende Erwärmung übersteigt jedoch die in der Realität gemessenen Temperaturen. Die Klimamodellierer stört dies jedoch wenig, denn sie haben genügend kühlende Effekte in die Modelle eingebaut, die sie nahezu nach Belieben skalieren können. So kommt am Ende immer das Wunschergebnis heraus. Kleine Schwebteilchen in der Atmosphäre, die sogenannten Aerosole, spielen hier eine wichtige Rolle. Die Aerosol-Joker-Herangehensweise hat viele Jahre lang gut funktioniert, bis es eines Tages den Aerosol-Fachleuten zu bunt wurde. Sie waren es leid, als Ausputzer missbraucht zu werden. Der letzte große Paukenschlag kam vor zwei Jahren aus Hamburg (siehe unseren Blogartikel “Direktor des Hamburger Max-Planck-Instituts für Meteorologie: Aerosole kühlen weniger stark als vormals angenommen“).

Am 13. März 2017 meldete sich nun eine internationale Forschergruppe mit einem Paper in Nature Geoscience zu Wort, die die von den Modellierern vermutete Kühlungwirkung von Wüstenstaub anhand von Messungen und Experimenten zu quantifizieren suchte. Die Überraschung war groß als sie etwas komplett anderes herausbekamen, als in den Modellen angesetzt. Der durchschnittliche Wüstenstaub war viel gröber als gedacht. Das hat eine wichtige Konsequenz: Während feinkörniger Staub kühlend wirkt, ist für den in Wirklichkeit viel gröberen Staub mit einer Erwärmungswirkung zu rechnen. Der damit rechnerisch verlorengegangene Kühleffekt kann in den Modellen also viel weniger überschüssige CO2-Wärme ausgleichen. Ein weiterer Hinweis auf eine deutlich geringere CO2-Klimasensitivität.

Hier der Abstract der wichtigen Studie von Jasper Kok und Kollegen:

Smaller desert dust cooling effect estimated from analysis of dust size and abundance
Desert dust aerosols affect Earth’s global energy balance through direct interactions with radiation, and through indirect interactions with clouds and ecosystems. But the magnitudes of these effects are so uncertain that it remains unclear whether atmospheric dust has a net warming or cooling effect on global climate. Consequently, it is still uncertain whether large changes in atmospheric dust loading over the past century have slowed or accelerated anthropogenic climate change, or what the effects of potential future changes in dust loading will be. Here we present an analysis of the size and abundance of dust aerosols to constrain the direct radiative effect of dust. Using observational data on dust abundance, in situ measurements of dust optical properties and size distribution, and climate and atmospheric chemical transport model simulations of dust lifetime, we find that the dust found in the atmosphere is substantially coarser than represented in current global climate models. As coarse dust warms the climate, the global dust direct radiative effect is likely to be less cooling than the ~−0.4 W m−2 estimated by models in a current global aerosol model ensemble. Instead, we constrain the dust direct radiative effect to a range between −0.48 and +0.20 W m−2, which includes the possibility that dust causes a net warming of the planet.

 

Mojib Latif: Klimamodelle bekommen tropischen Pazifik nicht in den Griff. Bisher kein anthropogener Einfluss erkennbar

Mojib Latif ist ein von Veranstaltungen und Medien viel gebuchter Klimaredner, der keine Gelegenheit auslässt, vor der drohenden Klimakatastrophe zu warnen. In seinem Tagesjob ist er allerdings auch noch Wissenschaftler. Und da publiziert er regelmäßig als Mitglied von Projektteams neueste Forschungsergebnisse. Bereits mehrfach fiel auf, dass er abseits des Rampenlichts in den wissenschaftlichen Arbeiten viel ausgewogener und weniger dramatisierend formuliert als auf der Medien-Bühne. Einige Beispiele:

Am 5. April 2017 konnte man in den Geophysical Research Letters einen neuen Fall bestaunen. Latif untersuchte zusammen mit Kollegen den tropischen Pazifik. Im Osten und Zentralteil haben sich die Temperaturen in den letzten zwei Jahrzehnten abgekühlt. Klimamodelle tun sich schwer, diese Entwicklung nachzubilden. Die Latif-Gruppe hat sich den Fall angeschaut und nimmt an, dass die natürliche Klimavariabilität dahintersteckt. Einen anthropogenen Einfluss bei der Temperaturentwicklung können sie in diesem Gebiet nicht erkennen. Sie schlussfolgern, dass die Klimamodelle zu unsicher wären, um für diese Region und für die hier wirkende Zirkulation Vorhersagen zu machen.

Wäre es nicht schön, wenn Latif all dies einmal bei einem seiner nächsten Talkshowauftritte sagen würde? Vernutlich können wir aber lange darauf lange warten. Die zwei Gesichter des Mojib Latif. Es ist unklar, wie er die zwei Sprechweisen für sich selbst wissenschaftsethisch rechtfertigt. Anbei der Abstract und die Highlights Arbeit:

Role of Internal Variability in Recent Decadal to Multidecadal Tropical Pacific Climate Changes

Mohammad Hadi Bordbar, Thomas Martin, Mojib Latif and Wonsun Park

While the Earth’s surface has considerably warmed over the past two decades, the tropical Pacific has featured a cooling of sea surface temperatures (SSTs) in its eastern and central part, which went along with an unprecedented strengthening of the equatorial Trade Winds, the surface component of the Pacific Walker Circulation (PWC). Previous studies show that this decadal trend in the Trade Winds is generally beyond the range of decadal trends simulated by climate models when forced by historical radiative forcing. There is still a debate on the origin of and the potential role that internal variability may have played in the recent decadal surface wind trend. Using a number of long control (unforced) integrations of global climate models and several observational datasets, we address the question as to whether the recent decadal to multidecadal trends are robustly classified as an unusual event or the persistent response to external forcing. The observed trends in the tropical Pacific surface climate are still within the range of the long-term internal variability spanned by the models but represent an extreme realization of this variability. Thus, the recent observed decadal trends in the tropical Pacific, though highly unusual, could be of natural origin. We note that the long-term trends in the selected PWC indices exhibit a large observational uncertainty, even hindering definitive statements about the sign of the trends.

Highlights:

  • Pacific Walker Circulation strongly varies internally
  • Anthropogenic signals in the tropical Pacific sector are hard to detect
  • There is large model uncertainty about the future of the Pacific Walker Circulation

 

Verschandeln bald Windrad-Müllberge den Osten?

Die Energiewende ist ein großes Experiment. Die Grundidee ist gut, die Vorstellungen jedoch waren naiv, die Planung und Durchführung mangelhaft. Während man anfangs im Ausland über den deutschen Wagemut staunte, ernten wir mittlerweile nur noch ein mildes Lächeln. Die Zahlen sprechen eine deutliche Sprache: Die erhoffte beschleunigte Dekarbonisierung ist ausgeblieben. Die Energiewende hat enttäuscht. Auf WUWT kommentierte Alberto Comendador am 2. Mai 2017 (eine deutsche Übersetzung gibt es bei EIKE):

Numbers don’t lie: Germany’s Energiewende has had zero impact on emissions – at best

[...] We’re now 1/3 through the [Energiewende] plan, so if it’s having any effect one should see:

a) That the decarbonization rate in Germany is higher than in the previous period

b) That this rate is higher than in other countries, which presumably don’t care so much about climate action. Compared with the US the difference should be massive.

Here we can see US decarbonization since 1966, as emissions data starts only in 1965. We can see the same for Germany since 1971, as that’s when the country’s GDP data starts – at least in the World Bank’s website.

Ooops: now only is Germany’s rate about the same as the US’s, it’s also lower than it was before! In fact, to be more precise, the 2000-2015 average is 2.06% for Germany and 2.26% for the US. Over 1971-1999, Germany’s average is 3.13%. But this figure is inflated by the very high increases of 1989-1992, when the formerly communist economy of East Germany shut down most of the CO2-intensive industries (with little effect on GDP). Excluding those four years, Germany’s pre-Energiewende average is still 2.58%, or a bit higher than since 2000 – though one must mention the figures for the 70s are ‘helped’ by high oil prices.

I guess the best one could say is that Germany’s decarbonization rate is about the same as before. Just to be clear: a higher rate of decarbonization is the minimum one could ask of a climate policy. It’s necessary, but not sufficient, because it’s still possible for that policy to cost so much as to make the reduction in emissions not worth it. One shouldn’t automatically consider a higher rate of decarbonization better than a lower one. In other words, one has to consider cost-effectiveness – as with every other thing we spend money on. In Germany’s case there is no point debating the cost-effectiveness of climate policies, because their effectiveness is at best zero. Advocates of emission cuts are entitled to their own opinions, not to their own facts.

Ganzen Artikel auf WUWT lesen.

Natürlich hat man auch in Deutschland bereits gemerkt, dass man sich hier wohl verzockt hat. Ein schönes Beispiel konnte man kürzlich auf der Nordsee-Insel Pellworm bestaunen. Welt am Sonntag am 16. April 2017:

Nordsee-Experiment: Einmal Energiewende und zurück
Pellworm sollte zum Modell für ganz Deutschland werden: E.on wollte auf der Nordseeinsel beweisen, dass sich eine ganze Region selbst mit Energie versorgen kann – dank Strom aus Windkraft und Sonne. Jetzt zieht der Energiekonzern unverrichteter Dinge wieder ab.

Weiterlesen in der Welt am Sonntag

Naiv war man wohl auch bei der Einschätzung der grünen Folgeschäden. Badisches.de zeigte am 15. April 2017 in einem Video die unterschätzten Gefahren auf:

Wenn grüne Energie krank macht

zum Video.

Allerdings sind die Tage der schlimmsten äolischen Krachmacher offenbar gezählt. Für alte Windkraftanlagen läuft demnächst die Förderung aus, so dass hier eine Flurbereinigung zu erwarten ist. Supper illu am 6. April 2017 (pdf):

Verschandeln bald Windrad-Müllberge den Osten?
Langsam drehen sich die Windräder auf den Feldern um Neubrandenburg herum. Sauberer Strom, ökologisch erzeugt. Doch die vermeintliche Idylle könnte bald Risse bekommen. Zwar sind saubere Energiequellen derzeit deutschlandweit auf dem Vormarsch, und die Zahlen beeindrucken: 2016 erzeugten 27270 Anlagen 45911 Megawatt Strom. “Windkraft macht rund 13 Prozent der gesamten deutschen Stromproduktion aus”, sagt Wolfram Axthelm vom Bundesverband Windenergie. Und das Geschäft mit dem Ökostrom ist nach wie vor lukrativ, denn das Erneuerbare-Energien-Gesetz (EEG) sichert allen vor dem Jahr 2000 errichteten Anlagen eine Einspeisevergütung zu. Doch damit ist Ende 2020 Schluss.

Weiterlesen in der Supper illu (pdf).

Indien und China freuen sich schon auf die vereinbarten Klimaschadensausgleichszahlungen. Da kommt ein dicker Batzen Kohle zusammen. Apropos Kohle. Was macht Indien eigentlich mit dem ganzen Klimaschutzgeld? Die University of California in Irvine hat es herausgefunden. Das Land plant den Bau von 370 Kohlekraftwerken. Hier die Pressemitteilung der Universität vom 25. April 2017:

India’s outsized coal plans would wipe out Paris climate goals

India will not be able to meet its Paris climate agreement commitments in the coming years if it carries through with plans to construct nearly 370 coal-fired power plants, according to University of California, Irvine and CoalSwarm researchers.

“India is facing a dilemma of its own making,” said UCI associate professor of Earth system science Steven Davis, co-author of a study published today in the American Geophysical Union journal Earth’s Future. “The country has vowed to curtail its use of fossil fuels in electricity generation, but it has also put itself on a path to building hundreds of coal-burning power plants to feed its growing industrial economy.” Further, by developing all of the planned coal-fired capacity, India would boost the share of fossil fuels in its energy budget by 123 percent. If the nation also met its goal to produce at least 40 percent of its power from nonfossil sources by 2030, the total power being generated would greatly exceed its own projected future electricity demand.

India has pledged to the international community to reduce the amount of carbon dioxide released per unit of gross domestic product by as much as 35 percent from 2005 levels by 2030 and to increase renewable energy in its power grids. The construction of 65 gigawatts’ worth of coal-burning generation facilities with an additional 178 gigawatts in the planning stages would make it nearly impossible for India to fulfill those climate promises, the researchers said. “In looking closely at all of India’s active coal plant proposals, we found they are already incompatible with the country’s international climate commitments and are simply unneeded,” said the study’s lead author, Christine Shearer, a senior researcher with CoalSwarm. “These plants therefore risk either locking out the country’s renewable electricity goals or becoming stranded assets operating well below optimal rates and leading to financial losses.”

Davis added: “We’ve done calculations to figure out that India’s Paris pledges might be met if it built these plants and only ran them 40 percent of the time, but that’d be a colossal waste of money, and once built, there’d be huge incentives to run the plants more despite the nation’s contrary climate goals.” India relies heavily on coal; 70 percent of the country’s power comes from plants burning the fuel. Because of its historically low cost and accessibility (India has large domestic coal reserves), it’s seen as furthering India’s quest to become a manufacturing and economic powerhouse and as a way to provide electricity to the roughly 300 million people in the nation who don’t have it. But the UCI and CoalSwarm researchers stressed that there are significant downsides to the fossil fuel habit. In addition to spewing harmful soot and other types of air pollution coal-burning power plants are the largest source of carbon dioxide on Earth, accounting for 41 percent of all CO2 emissions in 2015. Choices that individual countries make in regard to their energy mix have planetwide consequences. “India’s proposed coal plants will almost single-handedly jeopardize the internationally agreed-upon climate target of avoiding more than 1.5 degrees Celsius of mean global warming,” Davis said.

Abschließend noch eine gute Nachricht. Forscher arbeiten derzeit an einem Konzept, Energie aus Abfallwärme zurückzugewinnen. Pressemitteilung der Optical Society vom 13. April 2017:

New Infrared-Emitting Device Could Allow Energy Harvesting from Waste Heat

Researchers create first MEMS metamaterial device that displays infrared patterns that can be quickly changed

A new reconfigurable device that emits patterns of thermal infrared light in a fully controllable manner could one day make it possible to collect waste heat at infrared wavelengths and turn it into usable energy. The new technology could be used to improve thermophotovoltaics, a type of solar cell that uses infrared light, or heat, rather than the visible light absorbed by traditional solar cells. Scientists have been working to create thermophotovoltaics that are practical enough to harvest the heat energy found in hot areas, such as around furnaces and kilns used by the glass industry. They could also be used to turn heat coming from vehicle engines into energy to charge a car battery, for example. “Because the infrared energy emission, or intensity, is controllable, this new infrared emitter could provide a tailored way to collect and use energy from heat,” said Willie J. Padilla of Duke University, North Carolina. “There is a great deal of interest in utilizing waste heat, and our technology could improve this process.”

The new device is based on metamaterials, synthetic materials that exhibit exotic properties not available from natural materials. Padilla and doctoral student Xinyu Liu used a metamaterial engineered to absorb and emit infrared wavelengths with very high efficiency. By combining it with the electronically controlled movement available from microelectromechanical systems (MEMS), the researchers created the first metamaterial device with infrared emission properties that can be quickly changed on a pixel-by-pixel basis.  As reported in The Optical Society’s journal for high impact research, Optica, the new infrared-emitting device consists of an 8 × 8 array of individually controllable pixels, each measuring 120 X 120 microns. They demonstrated the MEMS metamaterial device by creating a “D” that is visible with an infrared camera. The researchers report that their infrared emitter can achieve a range of infrared intensities and can display patterns at speeds of up to 110 kHz, or more than 100,000 times per second. Scaling up the technology could allow it to be used to create dynamic infrared patterns for friend or foe identification during combat.

No heat involved
In contrast to methods typically used to achieve variable infrared emission, the new technology emits tunable infrared energies without any change in temperature. Since the material is neither heated nor cooled, the device can be used at room temperature while other methods require high operating temperatures. Although experiments with natural materials have been successful at room-temperature, they are limited to narrow infrared spectral ranges. “In addition to allowing room-temperature operation, using metamaterials makes it simple to scale throughout the infrared wavelength range and into the visible or lower frequencies,” said Padilla. “This is because the device’s properties are achieved by the geometry, not by the chemical nature of the constituent materials that we’re using.” The new reconfigurable infrared emitter consists of a movable top layer of patterned metallic metamaterial and a bottom metallic layer that remains stationary. The device absorbs infrared photons and emits them with high efficiency when the two layers are touching but emits less infrared energy when the two layers are apart. An applied voltage controls the movement of the top layer, and the amount of infrared energy emitted depends on the exact voltage applied.

Dynamic infrared emission
Using an infrared camera, the researchers demonstrated that they could dynamically modify the number of infrared photons coming off the surface of the MEMS metamaterial over a range of intensities equivalent to a temperature change of nearly 20 degrees Celsius. The researchers say that they could modify the metamaterial patterns used in the top layer to create different colored infrared pixels that would be each be tunable in intensity. This could allow the creation of infrared pixels that are similar to the RGB pixels used in a TV. They are now working to scale up the technology by making a device with more pixels — as many as 128 X 128 — and increasing the size of the pixels. “In principle, an approach similar to ours could be used to create many kinds of dynamic effects from reconfigurable metamaterials,” said Padilla. “This could be used to achieve a dynamic infrared optical cloak or a negative refractive index in the infrared, for example.”  

Paper: X. Liu, W.J. Padilla, “Reconfigurable room temperature metamaterial infrared emitter,” Optica, Volume 4, Issue 4, 430-433 (2017). DOI: 10.1364/optica.4.000430

 

Deutschlandfunk löscht: Mehr Aufmerksamkeit für Klima-Skeptiker gefordert

Am 17. April 2017 überraschte der Deutschlandfunk mit einer ungewohnt ausgewogenen Schlagzeile:

Mehr Aufmerksamkeit für Klima-Skeptiker gefordert

Der Ethnologe Werner Krauß hat den Umgang mit Klimaskeptikern in Deutschland kritisiert.

Es sei falsch, die Kritik am Klimawandel und an der Energiewende bloß als Exotenmeinung abzutun, sagte er im Deutschlandfunk. Der Klimawandel sei zwar ein wissenschaftlicher Fakt, doch der Umgang damit brauche eine kontroverse Diskussion. Die gebe es in der Öffentlichkeit in Deutschland aber kaum. Die AfD sei die erste Partei, die ein klimaskeptisches Programm habe. In allen anderen Parteien von der CSU bis zur Linken bestehe Konsens, betonte Krauß. Dadurch sei man in der Bundesrepublik in eine Situation gekommen, in der Klimawissenschaftler mehr oder weniger gezwungen würden, politische Entscheidungen zu legitimieren: wie man die Energiewende mache, ob man die Kohle fördere, ob es sinnvoll sei, massenhaft Windräder aufzustellen und sich vegetarisch zu ernähren. Das alles seien aber sehr komplizierte Fragen, die kontrovers diskutiert werden müssten.

Die ursprüngliche DLF-Seite, auf der diese Nachricht erschien existiert jedoch offenbar nicht mehr. Unter http://www.deutschlandfunk.de/umweltpolitik-mehr-aufmerksamkeit-fuer-klima-skeptiker.1939.de.html?drn:news_id=734311 gelangt man heute nur noch zur DLF-Startseite. Aus politischen Gründen gelöscht? Die WaybackMachine hat die Seite leider nicht gespeichert. Zum Glück hat das Brights-Blog und Vernunftkraft den Anfang der Meldung erhalten.

Eine stark abgeschwächte Variante des Artikel gibt es noch auf dieser DLF-Seite. Dort heißt es in der Überschrift jetzt plötzlich:

“Der Klimawandel ist ein wissenschaftlicher Fakt”

Wer hat es hier mit der Angst bekommen? Das DLF-Leitungsgremium? Krauß selber? Eine Anordnung zur Löschung aus der Politik? Alles denkbar. Auf jeden Fall hochmysteriös. Das Krauß-Interview können Sie als Podcast hier hören.

———————-

Lust auf ein bisschen Ärgern? Dann auf jeden Fall die Phoenix-Runde vom 30. März 2017 it Latif Kemfert & Co. anschauen. 45 garantiert haarsträubende Minuten.

———————-

Einfach genial:

Climate Change Coloring Book: Der Klimawandel zum Ausmalen
Auf Kickstarter gibt es jetzt ein Malbuch, das nachdenklich macht: Das „Climate Change Coloring Book“ verdeutlicht die Folgen des Klimawandels.

Weitere Infos bei Computerbild. Hoffentlich ist keine Sonne dabei. Das wäre ketzerisch.

———————-

Der ORF berichtet in seiner Nachrichtensendung ZiB 1 am 20. April 2017 davon, dass die Winterreifenpflicht verlängert bzw. zeitlich ausgedehnt werden soll (derzeit gilt sie vom 1. November bis zum 15. April). NÖN.at konkretisiert: Die Winterreifenpflicht soll für LKW um einen Monat (bis 15. Mai) verlängert werden.

Wintereinbruch: Leichtfried will längere Winterreifenpflicht für Lkw
Der heftige Wintereinbruch hat seit Mittwoch insbesondere auf der Wiener Außenring- (A21) und Westautobahn (A1) zu Sperren und zahlreichen Behinderungen geführt. Immer wieder blieben Lkw, die bereits mit Sommerreifen unterwegs waren, liegen. Verkehrsminister Jörg Leichtfried (SPÖ) will daher die Winterreifepflicht für Lkw über 3,5 Tonnen um einen Monat bis 15. Mai verlängern.

Weiterlesen bei NÖN.at

Es ist schon äußerst auffällig, dass man sich nun urplötzlich genötigt sieht, die Winterreifenpflicht trotz angeblich rasch voranschreitender Erderwärmung zu verlängern. Sollte nicht eher eine Verkürzung sinnvoll sein, wenn die Erwärmungstheorie stimmt? Und einzig und alleine am derzeitigen Wintereinbruch wird die angestrebte Verlängerung wohl auch nicht festgemacht werden können, sondern eher an einer Reihe ähnlicher Vorkommnisse in den letzten Jahren.

———————-

Die Versicherungen können es nicht lassen und betreiben weiter Werbung in Sachen Extremwettergefahr. Lokalinfo.ch meldete am 18. Aoril 2017:

Zurich-Versicherung sponsert Wetter-Lehrmittel
Zurich Schweiz stellt das erste neue Lehrmittel zur Verfügung, das im Einklang mit der neuen Charta zum Bildungssponsoring durch Firmen entstanden ist. Das Bildungsmodul »Wetterfroscher» sensibilisiert Primarschülerinnen und -schüler für die Themen Klima und Naturgefahren.
Die neue Charta des Dachverbands Lehrerinnen und Lehrer Schweiz (LCH) verändert das Sponsoring von Schulen und Unterrichtsmaterial durch Firmen. Neu verpflichten sich Unternehmen, weder für Produkte zu werben noch ihr Logo aufdringlich auf dem Deckblatt von Lehrmitteln zu platzieren. Die kommerzielle Verwendung von Personendaten, welche die Firmen an den Schulen sammeln, ist untersagt.

Sehr putzig, liebe Eltern. Eine Versicherung sponsort Lehrmaterial, das den Kleinen Angst vor dem Klimawandel machen soll. Die kommen dann Hause, erzählen davon, woraufhin der besorgte Vater sogleich neue Hagel-, Sturm-, und Überschwemmungsversicherung abschließt. Die neue Charta ist hier ziemlich wirklungslos, der Lobyyismus in der Schule greift knallhart durch.

Siehe auch Beitrag auf Moneycab.

 

Klimamodelle können Ozeanzyklen nur mit Schummelei nachbilden

Ozeanzyklen sind klimasysteminterne Klimaschwankungen, die das Klimageschehen mit einem 60-Jahres-Zyklus pulsieren lassen. Das wird schnell klar, wenn man sich den Verlauf von Temperaturen, Hurrikanen und anderen Klimaparametern anschaut. Klimamodelle können die Ozeanzyklen nicht reproduzieren, ein klassischer Fall von Modellversagen. Dadurch entstanden stark überzogene Vorstellungen zu Erwärmungsprognosen und zur CO2-Erwärmungswirkung. Nun hat man die Ozeanzyklen jedoch offenbar langsam akzeptiert. Umso wichtiger ist es nun, die Ozeanzyklen endlich in die Modelle einzubauen. Das geschieht momentan jedoch mit der Brechstange. Anstatt sie sauber physikalisch mit Formeln zu beschreiben und vom Computer berechnen zu lassen, gibt man sie einfach basierend auf den Beobachtungsdaten von außen vor (“forced”). Eine Forschergruppe um Lisa Murphy schaute nun nach, ob die Modelle die Ozeanzyklen vielleicht auch ohne die Schummelei hinbekommen könnten. Das Ergebis war ernüchternd: Nein, die Modelle schaffen es nicht. Die Studie erschien am 11. März 2017 in den Geophysical Research Letters:

The role of historical forcings in simulating the observed Atlantic multidecadal oscillation
We analyze the Atlantic multidecadal oscillation (AMO) in the preindustrial (PI) and historical (HIST) simulations from the Coupled Model Intercomparison Project Phase 5 (CMIP5) to assess the drivers of the observed AMO from 1865 to 2005. We draw 141 year samples from the 41 CMIP5 model’s PI runs and compare the correlation and variance between the observed AMO and the simulated PI and HIST AMO. The correlation coefficients in 38 forced (HIST) models are above the 90% confidence level and explain up to 56% of the observed variance. The probability that any of the unforced (PI) models do as well is less than 3% in 31 models. Multidecadal variability is larger in 39 CMIP5 HIST simulations and in all HIST members of the Community Earth System Model Large Ensemble than their corresponding PI. We conclude that there is an essential role for external forcing in driving the observed AMO.

Hier die Highlights:

  • The chance of an unforced PI run correlating as well with the observed AMO as the historical run is less than 3% in 31 out of 41 models
  • The unforced PI models simulate less AMO variance than their forced historical simulations
  • Models need external forcing to explain the magnitude, timing, and multidecadal frequency of the observed twentieth century AMO

Ein Armutszeugnis für die Klimamodelle, auf deren Grundlage momentan die große gesellschaftliche Transformation und Deindustralisierung geplant wird. Kleiner Tipp: Wenn die Ozeanzyklen partout nicht selbstschwingend in den Griff zu bekommen sind, könnte hier auch die Sonne mitspielen, wie einige Arbeiten bereits vermutet haben:

 

Rätsel gelöst: Mangel an Hydroxyl-Radikalen in der Atmosphäre lässt Methangehalt stark ansteigen, obwohl Emissionen zurückgegangen sind

Methan ist ein wichtiges Treibhausgas. Zwischen 1983-2000 stieg die Konzentration stark an. Dann verharrte die Kurve für einige Jahre auf einem konstanten Plateau und setzte ihren Anstieg erst 2007 wieder fort (Abb. 1). Eine seltsame Entwicklung, ganz anders als das stetig steigende CO2.

Abb. 1: Verlauf der atmosphärischen Methankonzentration während der letzten 35 Jahre. Quelle: NOAA

 

Was steckt hinter diesem Schlangenlinien-Verlauf? Sind es wieder die bösen fossilen Brennstoffe? Oder ist der Schwarze Peter bei den Blähungen der Kühe zu finden? Löcher in Gaspipelines? Eine Studie der University of Bristol ist dem Mysterium nachgegangen. Eine Forscherguppe um Matt Rigby vermutet, dass die Methanemissionen in den letzten Jahren gar nicht abrupt angestiegen sind, sondern einfach Hydroxyl-Radikal fehlen, die das Methan normalerweise abbauen. Hier die Pressemitteilung: vom 17. April 2017:

Banned industrial solvent sheds new light on methane mystery

Since 2007, scientists have been searching to find the cause of a sudden and unexpected global rise in atmospheric methane, a potent greenhouse gas, following almost a decade in which concentrations had stayed relatively constant.

Recent studies have explored a range of possible causes. Suggestions have included a rise in oil and natural gas extraction, increased emissions from tropical wetlands or increases in emissions from growing East Asian economies. However, a new paper by an international team of scientists in the Proceedings of the National Academy of Sciences (PNAS) investigates an alternative possibility: a rise and fall in the concentration of the substance that destroys methane in the atmosphere, the hydroxyl radical. Lead author, Dr Matt Rigby from the University of Bristol’s School of Chemistry and Cabot Institute, said: “A change in the hydroxyl radical concentration would be a neat explanation for the changes in methane that we’ve seen. “It would mean that emissions may not have increased suddenly in 2007, but rather, risen more gradually over the last couple of decades.”

Since the global concentration of the hydroxyl radical cannot be measured directly, the team’s findings were made by studying the rate at which the solvent methyl chloroform, which is also destroyed by hydroxyl, was removed from the atmosphere. Professor Ron Prinn from the Massachusetts Institute of Technology, who co-authored the paper and leads the Advanced Global Atmospheric Gases Experiment (AGAGE), an international project that measures greenhouse gas concentrations, said: “We have been monitoring trends in the methyl chloroform for nearly 40 years because of its role in depleting stratospheric ozone. “Because methyl chloroform is now banned under the Montreal Protocol for the Protection of the Stratospheric Ozone Layer, we’ve seen its concentration drop very rapidly. “We can examine how this rate of decline changes from one year to the next to infer the hydroxyl radical concentration.”

Dr Steve Montzka from the National Oceanic and Atmospheric Administration (NOAA), who also co-authored the paper, and operates an independent measurement network for methylchloroform, added: “This paper re-examines some of the assumptions that had previously been made in studies of hydroxyl radical and methyl chloroform and shows how they influence our understanding of methane’s atmospheric sink. “To me, one of the main findings is that our objective analyses of two sets of observations tells essentially the same story, even as it becomes more and more difficult to measure methyl chloroform given that its concentration is approaching zero.” Dr Rigby added that there was still uncertainty remaining. He explained: “Whilst there are strong hints in our study that hydroxyl radical changes could be playing a significant role in the fluctuations in methane growth, our uncertainties are very large. “In future, we need to think about new ways to reduce this uncertainty, if we are to truly understand changes in atmospheric methane.”

The study also lead to a more certain, but unexpected finding: that emissions of methyl chloroform had not dropped to zero. Dr Rigby said: “Because its production is now banned globally, we were expecting to see no emissions of this substance at all. However, we have very strong evidence that emissions are continuing.” The team are preparing a follow-up study that would determine where these emissions are originating. Meanwhile, they are continuing to monitor methane in the atmosphere, and are waiting to see whether its current rate of increase will continue.

Paper: ‘The role of atmospheric oxidation in recent methane growth’ by M. Rigby et al in Proceedings of the National Academy of Sciences

Am selben Tag erschien auch eine Pressemitteilung des California Institute of Technology zum selben Thema:

‘Detergent’ Molecules May Be Driving Fluctuations in Atmospheric Methane Concentrations

New study suggests hydroxyl radicals may be behind unexplained recent increase in methane levels

During the early 2000s, environmental scientists studying methane emissions noticed something unexpected: the global concentrations of atmospheric methane (CH4)—which had increased for decades, driven by methane emissions from fossil fuels and agriculture—inexplicably leveled off. The methane levels remained stable for a few years, then started rising again in 2007. Previous studies have suggested a variety of potential culprits behind the renewed rise: increasing emissions from high-latitude wetlands, increasing fossil fuel emissions, or the growth of agriculture in Asia.

However, new modeling by researchers at Caltech and Harvard University suggests that methane emissions might not have increased dramatically in 2007 after all. Instead, the most likely explanation has less to do with methane emissions and more to do with changes in the availability of the hydroxyl (OH) radical, which breaks down methane in the atmosphere. As such, the amount of hydroxyl in the atmosphere governs the amount of methane. If global levels of hydroxyl decrease, global methane concentrations will increase—even if methane emissions remain constant, the researchers say.

Methane is the second most prevalent greenhouse gas, after carbon dioxide. However, the colorless, odorless gas can be difficult to track and derives from a wide range of sources, from decomposing biological material to leaks in natural gas pipelines. When atmospheric concentrations of methane increase, it may not be correct to chalk it up solely to an increase in methane emissions, says Caltech’s Christian Frankenberg, co-corresponding author of a study on the decadal trends of methane concentrations that was published the week of April 17 in the early online edition of the Proceedings of the National Academy of Sciences. Frankenberg is an associate professor of environmental science and engineering at Caltech and a research scientist at the Jet Propulsion Laboratory, which is administered by Caltech for NASA. His collaborators on the paper are Paul Wennberg, the R. Stanton Avery Professor of Atmospheric Chemistry and Environmental Science and Engineering at Caltech, and Alexander Turner and Daniel Jacob of Harvard. “Think of the atmosphere like a kitchen sink with the faucet running,” Frankenberg explains. “When the water level inside the sink rises, that can mean that you’ve opened up the faucet more. Or it can mean that the drain is blocking up. You have to look at both.”

In this analogy, hydroxyl represents part of the draining mechanism in the sink. Hydroxyl is the neutral form of the negatively charged hydroxide molecule (OH). It is described as a “radical” because it is highly reactive and, as such, acts like a detergent in the atmosphere, breaking down methane into oxygen and water vapor.  Tracking decadal trends in both methane and hydroxyl, Frankenberg and his colleagues noted that fluctuations in hydroxyl concentrations correlated strongly with fluctuations in methane. However, the authors do not yet have a mechanistic explanation for the last decade’s global changes in hydroxyl concentrations. Future studies are needed to investigate this further, Frankenberg says. The researchers also would like to see the trends they detected verified with a more detailed study of both methane sources and sinks. “The tropics are the tricky part,” Frankenberg says. “They’re very complex in terms of methane emissions and destruction.” Methane has the shortest lifetime in the tropics due to the large amounts of water vapor and radiation there. But because tropical areas are often remote and cloud-covered (thwarting satellite observation), they remain understudied, Frankenberg says. The PNAS study is titled “Ambiguity in the causes for decadal trends in atmospheric methane and hydroxyl.” Alexander Turner, graduate student at Harvard University, is the lead author. The co-authors are Christian Frankenberg and Paul Wennberg from Caltech, and Daniel Jacob from Harvard. This research was funded by the Department of Energy and a NASA Carbon Monitoring System grant.

Von den deutschen Medien berichteten Scinexx und WetterOnline über die Entdeckung.

 

Überschwemmungsentwicklung in den USA uneinheitlich: Zunahme in Norden, Abnahme im Süden

Die USA sind ein großes und bevölkerungsreiches Land. Wetterextreme sind hier keine Seltenheit. Immer wieder ereignen sich schlimme Überschwemmungen, oft ausgelöst durch Starkregen. Es ist gute Tradition, dass das klimaalarmistische Lager nach einem Flutereignis öffentlich den Klimawandel als Schuldigen hinstellt. Es ist ebenso guter Brauch, dass Klimaskeptiker dies vehement abstreiten. Harte wissenschaftliche Daten fehlen bei diesen Spontanaktionen meist. Wir nehmen uns daher die Zeit, einmal die wissenschaftlich erhobenen Trends anzuschauen. Dies könnte der nächsten Runde im Blame-Game dann ein wenig mehr Substanz verleihen. Beginnen möchten wir mit einer Graphik, die von der NOAA bereitsgestellt wird. Sie zeigt die Entwicklung der Starkniederschläge für die letzten 100 Jahre in den kontinentalen USA (Abb. 1). Zu erkennen ist ein Anstieg, der etwa 1990 einsetzte.

 

Abb. 1: Entwicklung der Starkniederschläge für die letzten 100 Jahre in den kontinentalen USA. Quelle: NOAA.

 

Ob der Klimawandel hinter diesem Anstieg steckt? Was sagen andere Studien zu dieser Frage? Im Oktober 2014 veröffentlichten McCabe und Wolock in den Geophysical Research Letters eine Arbeit zu Abflussraten von US-Flüssen. Einen Langzeittrend in der maximalen Abflussrate konnten die Forscher nicht entdecken. Der Vergleich mit Standard-Klimaparametern verlief ebenfalls ergebnislos. Vorhersagen können daher keine abgegeben werden, erläutern die Wissenschaftler. Abstract:

Spatial and temporal patterns in conterminous United States streamflow characteristics
Spatial and temporal patterns in annual and seasonal minimum, mean, and maximum daily streamflow values were examined for a set of 516 reference stream gauges located throughout the conterminous United States for the period 1951–2009. Cluster analysis was used to classify the stream gauges into 14 groups based on similarity in their temporal patterns of streamflow. The results indicated that the temporal patterns in flow metrics (1) have strong spatial coherence within each region, (2) are similar among the three annual flow metrics and the four seasonal flow metrics within each region, (3) indicate some small magnitude trends over time, and (4) are only weakly associated with well-known climate indices. We conclude that most of the temporal variability in flow is unpredictable in terms of relations to climate indices and infer that, for the most part, future changes in flow characteristics cannot be predicted by these indices.

Einige Monate später, im Februar 2015, erschien in Nature Climate Change eine Studie von Iman Mallakpour und Gabriele Villarini zur Flutgeschichte der zentralen USA. Die Forscher konnte für das 20. und 21. Jahrhundert keine Veränderung der Stärke der Überschwemmungen feststellen, fanden jedoch Hinweise auf eine Steigerung der Flut-Häufigkeit. Abstract:

The changing nature of flooding across the central United States
In the twentieth and twenty-first centuries, flooding has taken a devastating societal and economic toll on the central United States, contributing to dozens of fatalities and causing billions of dollars in damage1, 2. As a warmer atmosphere can hold more moisture (the Clausius–Clapeyron relation), a pronounced increase in intense rainfall events is included in models of future climate3. Therefore, it is crucial to examine whether the magnitude and/or frequency of flood events is remaining constant or has been changing over recent decades. If either or both of these attributes have changed over time, it is imperative that we understand the underlying mechanisms that are responsible. Here, we show that while observational records (774 stream gauge stations) from the central United States present limited evidence of significant changes in the magnitude of floodpeaks, strong evidence points to an increasing frequency of flooding. These changes in flood hydrology result from changes in both seasonal rainfall and temperature across this region.

Ein weiteres Jahr später, im April 2016, eine Untersuchung von Hoerling et al. im Journal of Climate. Sie beschrieben eine Zunahme der Extremregenfälle im Norden und eine Abnahme im Süden während der vergangenen knapp 40 Jahre. Es ist also nicht so, dass die gesamten USA unter mehr Extremregen zu leiden hätten. Weiterhin fanden Hoerling und Kollegen, dass wohl die Ozeanzyklik hinter den Änderungen steckt. Eindeutige Hinweise auf eine anthropogene Beeinflussung gäbe es nicht. Abstract:

Characterizing Recent Trends in U.S. Heavy Precipitation
Time series of U.S. daily heavy precipitation (95th percentile) are analyzed to determine factors responsible for regionality and seasonality in their 1979–2013 trends. For annual conditions, contiguous U.S. trends have been characterized by increases in precipitation associated with heavy daily events across the northern United States and decreases across the southern United States. Diagnosis of climate simulations (CCSM4 and CAM4) reveals that the evolution of observed sea surface temperatures (SSTs) was a more important factor influencing these trends than boundary condition changes linked to external radiative forcing alone. Since 1979, the latter induces widespread, but mostly weak, increases in precipitation associated with heavy daily events. The former induces a meridional pattern of northern U.S. increases and southern U.S. decreases as observed, the magnitude of which closely aligns with observed changes, especially over the south and far west. Analysis of model ensemble spread reveals that appreciable 35-yr trends in heavy daily precipitation can occur in the absence of forcing, thereby limiting detection of the weak anthropogenic influence at regional scales. Analysis of the seasonality in heavy daily precipitation trends supports physical arguments that their changes during 1979–2013 have been intimately linked to internal decadal ocean variability and less so to human-induced climate change. Most of the southern U.S. decrease has occurred during the cold season that has been dynamically driven by an atmospheric circulation reminiscent of teleconnections linked to cold tropical eastern Pacific SSTs. Most of the northeastern U.S. increase has been a warm season phenomenon, the immediate cause for which remains unresolved.

Im November 2016 publizierten van der Wiel und Kollegen im Journal of Climate eine Modellierungstudie. Ganz am Ende des Abstracts das Hauptergebnis: Wie bereits Hoerling und Kollegen können auch van der Wiel et al. keine anthopogene Beeinflussung des bisherigen Extremregengeschehens in den USA finden.

The Resolution Dependence of Contiguous U.S. Precipitation Extremes in Response to CO2 Forcing
Precipitation extremes have a widespread impact on societies and ecosystems; it is therefore important to understand current and future patterns of extreme precipitation. Here, a set of new global coupled climate models with varying atmospheric resolution has been used to investigate the ability of these models to reproduce observed patterns of precipitation extremes and to investigate changes in these extremes in response to increased atmospheric CO2 concentrations. The atmospheric resolution was increased from 2° × 2° grid cells (typical resolution in the CMIP5 archive) to 0.25° × 0.25° (tropical cyclone permitting). Analysis has been confined to the contiguous United States (CONUS). It is shown that, for these models, integrating at higher atmospheric resolution improves all aspects of simulated extreme precipitation: spatial patterns, intensities, and seasonal timing. In response to 2 × CO2 concentrations, all models show a mean intensification of precipitation rates during extreme events of approximately 3%–4% K−1. However, projected regional patterns of changes in extremes are dependent on model resolution. For example, the highest-resolution models show increased precipitation rates during extreme events in the hurricane season in the U.S. Southeast; this increase is not found in the low-resolution model. These results emphasize that, for the study of extreme precipitation there is a minimum model resolution that is needed to capture the weather phenomena generating the extremes. Finally, the observed record and historical model experiments were used to investigate changes in the recent past. In part because of large intrinsic variability, no evidence was found for changes in extreme precipitation attributable to climate change in the available observed record.

Schließlich dann Slater & Villarini im Dezember 2016 in den Geophysical Research Letters. In der dazugehörigen Pressemitteilung der University of Iowa steht die Hauptnachricht gleich im Untertitel. Das Flutrisiko steigt im Norden und sinkt im Süden der USA. Das wussten wir aber schon aus der Hoerling-Studie. Hier die Pressemitteilung:

Flood threats changing across US

University of Iowa study finds flood risk growing in the North, declining in the South

A University of Iowa study has found that the risk of flooding is changing in the United States, and the changes vary regionally. The threat of moderate flooding is generally increasing in the northern U.S. (red areas) and decreasing in the southern U.S. (blue areas), while some regions remain mostly unchanged (gray areas). The findings come from comparing river heights at 2,042 locations with NASA satellite information showing the amount of water stored in the ground. The study was published in the journal “Geophysical Research Letters.” Image courtesy of the American Geophysical Union.

 

The risk of flooding in the United States is changing regionally, and the reasons could be shifting rainfall patterns and the amount of water in the ground. In a new study, University of Iowa engineers determined that, in general, the threat of flooding is growing in the northern half of the U.S. and declining in the southern half. The American Southwest and West, meanwhile, are experiencing decreasing flood risk. UI engineers Gabriele Villarini and Louise Slater compiled water-height information between 1985 and 2015 from 2,042 stream gauges operated by the U.S. Geological Survey. They then compared the data to satellite information gathered over more than a dozen years by NASA’s Gravity Recovery and Climate Experiment (GRACE) mission showing “basin wetness,” or the amount of water stored in the ground.

What they found was the northern sections of the country, generally, have an increased amount of water stored in the ground, and thus are at greater risk for minor and moderate flooding, two flood categories used by the National Weather Service. Meanwhile, minor to moderate flood risk was decreasing in the southern portions of the U.S., where stored water has declined. (See the above map.) Not surprisingly, the NASA data showed decreased stored water—and reduced flood risk—in the Southwest and western U.S., in large part due to the prolonged drought gripping those regions. “It’s almost like a separation where generally flood risk is increasing in the upper half of the U.S. and decreasing in the lower half,” says Villarini, associate professor in civil and environmental engineering and an author on the paper, published in the journal Geophysical Research Letters. “It’s not a uniform pattern, and we want to understand why we see this difference.”

Some of the regional variation can be attributed to changes in rainfall; a study led by Villarini published last year showed the Midwest and Plains states have experienced more frequent heavy rains in the past half-century. More rainfall leads to more groundwater, a “higher water base line,” Villarini explains. “The river basins have a memory,” adds Slater, a post-doctoral researcher and the paper’s corresponding author. “So, if a river basin is getting wetter, in the Midwest for example, your flood risk is also probably increasing because there’s more water in the system.” Why some sections of the nation are getting more, or less, rainfall is not entirely clear. The researchers say some causes could be the rains are being redistributed as regional climate changes.

The researchers hope that their findings could revise how changing flood patterns are communicated. In the past, flood risk trends have typically been discussed using stream flow, or the amount of water flowing per unit time. The UI study views flood risk through the lens of how it may affect people and property and aligns the results with National Weather Service terminology understood by the general public. “The concept is simple,” says Villarini, whose primary appointment is in IIHR–Hydroscience, a branch of the College of Engineering. “We’re measuring what people really care about.”

 

Chinesische Akademie der Wissenschaften findet signifikante Klimabeeinflussung durch solare Aktivitätsschwankungen

In einer Pressemitteilung vom 24. April 2017 gab das Institute of Atmospheric Physics der Chinese Academy of Sciences bekannt, dass es im Rahmen eines umfangreichen Forschungsprogrammes eine signifikante Klimabeeinflussung durch solare Aktivitätsschwankungen gefunden hat (via EurekAltert!):

Interdisciplinary studies reveal relationship between solar activity and climate change

The solar flux is considered the fundamental energy source of earth’s climate system on long time scales. In recent decades, some studies have noted that the tiny variations in solar activity could be amplified by the nonlinear process in climate system. Therefore, the astronomy factors, such as solar activity, present intriguing and cutting-edge questions to better understand climate change.

Due to the interdisciplinary nature of this subject, studies in this field were insufficient in China. In 2012, China’s National Basic Research Program examined the impacts of astronomy and earth motion factors on climate change. Led by Prof. Ziniu XIAO (Institute of Atmospheric Physics, Chinese Academy of Sciences), this five-year research program that involved scientists in different research fields has greatly advanced understanding of this topic.

One of the major achievements by the multidisciplinary team is that a robust relationship between solar wind speed and North Atlantic Oscillation was found not only on a day-to-day time scale but also from the perspective of year-to-year variation, suggesting a much faster mechanism of solar influence on atmospheric system compared to the ozone destruction. Moreover, the team improved the collision and parameterization scheme and qualitatively evaluated the effects of solar energetic particle flux on cloud charge. Hence the team proposed that the solar wind and electric-microphysical effect was the key mechanism of solar activity on climate.

With the help of observations and model simulations, the team also found that the solar signal is more significant and detectable on an interdecadal time scale in some more sensitive regions, especially the tropical Pacific (eg. lagged dipolar convection pattern in tropical western Pacific; lagged El Nino Modoki-like pattern on tropical ocean surface) and monsoon regions (eg. rainband during the Mei-Yu season; north boundary of East Asian summer monsoon). Then a physical model is developed by the team to depict the interdecadal response of the air-sea system to solar activity.

The results above have been published in Atmospheric and Oceanic Science Letters, Journal of Applied Meteorology and Climatology, Journal of Geophysical Research, Journal of Meteorological Research, Journal of the Meteorological Society of Japan, Journal of Climate, and Advances in Space Research.

The follow-up research by the team is currently in progress and focuses on two main aspects: one is the effects of solar radiative forcing and solar energetic particles on climate in middle-high latitudes through modulating polar stratospheric-troposphere coupling, and the other is the response of a tropical Pacific air-sea system to interdecadal variation in solar activity and how this response propagates into middle latitudes through East Asian monsoon activity.

A program report is recently published in Atmospheric and Oceanic Science Letters.

 

10.000 Jahre Nordatlantische Oszillation

Pressemitteilung der Johannes Gutenberg-Universität Mainz vom 2. Februar 2017:

Stalagmiten liefern Paläo-Klimadaten

Stalagmiten aus Tropfsteinhöhlen zeigen veränderten Einfluss der Nordatlantischen Oszillation auf Wetterregimes in Mitteleuropa und Marokko

Die Nordatlantische Oszillation (NAO) ist der vorherrschende Luftdruckmodus über dem Nordatlantik, der vor allem das Winterklima in Europa wesentlich beeinflusst. Je nach Ausprägung der NAO kann es zu milden oder sehr kalten Wintern, aber auch zu starken Stürmen kommen. Geowissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) versuchen, den Verlauf der NAO während der letzten 10.000 Jahre zu rekonstruieren, um damit auch künftige Entwicklungen abzuschätzen. Sie nutzen dazu Tropfsteine aus unterirdischen Höhlen als Klimaarchiv und entwickeln Methoden, um die gespeicherten Klimaindikatoren möglichst genau auszuwerten. Erste Ergebnisse deuten darauf hin, dass die Nordatlantische Oszillation auf ein Abschmelzen der Eisschilde in der Zukunft wahrscheinlich sehr sensibel reagieren würde – mit den entsprechenden Auswirkungen auf das Klima und ökologischen und ökonomischen Folgen.

Dr. Jasper Wassenburg arbeitet hauptsächlich mit Stalagmiten aus Höhlen des Mittleren Atlas, einer Gebirgskette in Nordwest-Marokko. Stalagmiten sind Tropfsteine, die vom Boden nach oben wachsen. Die Kalkablagerungen bestehen hauptsächlich aus Kalzit, teilweise auch aus dem verwandten Kalziumkarbonat Aragonit. “Aragonit lässt sich, wenn er gut erhalten ist, hervorragend datieren. Daher bevorzugen wir Stalagmiten aus Aragonit gegenüber solchen aus Kalzit”, erklärt Wassenburg, Mitarbeiter in der Forschungsgruppe von Prof. Dr. Denis Scholz am Institut für Geowissenschaften der JGU.

Die Einlagerung von chemischen Elementen in Speläotheme, so der wissenschaftliche Überbegriff für die sekundären Mineralablagerungen in Höhlen, steht häufig im Zusammenhang mit Umweltveränderungen. Die Elemente werden als Proxies bezeichnet, also als Klima-Stellvertreter. In einer Studie mit sieben Tropfstein-Proben aus Marokko, Indien, Frankreich, Spanien und der Hüttenbläserschachthöhle im Sauerland hat Wassenburg erstmals detailliert untersucht, in welcher Konzentration Spurenelemente in Aragonit eingebaut werden. “So konnten wir in dieser Untersuchung zeigen, dass die Konzentration von Uran in Aragonit-Stalagmiten als sehr effektiver Maßstab für Paläo-Niederschläge dienen kann”, so Wassenburg. Stalagmiten können also beispielsweise verraten, wie stark es vor 200.000 Jahren geregnet hat.

Rekonstruktion der Nordatlantischen Oszillation bis zum Beginn der Warmzeit

Uran- und Strontiumkonzentrationen sowie Sauerstoffisotopenverhältnisse dienten auch als Niederschlagssignale in einer weiteren Studie, die sich mit der Nordatlantischen Oszillation beschäftigt. Der NAO-Index gibt Unterschiede im Luftdruck zwischen dem Islandtief im Norden und dem Azorenhoch im Süden wieder. Ein Phänomen ist dabei besonders interessant: Bringt die NAO für Europa trockenes Wetter, dann wird es in Marokko feucht – und umgekehrt. Besonders der nordwestliche Teil Marokkos reagiert äußerst sensitiv auf Veränderungen des NAO-Zustands. Wassenburgs Untersuchungsproben stammen aus einer relativ kleinen Höhle mit Dolomit als Wirtsgestein. Die “Grotte de Piste” liegt im Atlasgebirge auf etwa 1.250 Meter Höhe, ist 70 bis 80 Meter lang und 15 bis 20 Meter hoch.

Die Untersuchungsergebnisse der nordwestmarokkanischen Tropfsteinhöhle wurden mit Niederschlagsrekonstruktionen anhand von Höhlensintern aus der Bunkerhöhle, ebenfalls im Sauerland gelegen, verglichen. Dabei konnten die Klimaforscher erstmals die Nordatlantische Oszillation über 11.000 Jahre zurückverfolgen, also bis zum Beginn der jetzigen Warmzeit. Der längste Rückblick ging bisher nur über 5.200 Jahre. “Im frühen Holozän vor 11.000 Jahren sehen wir erstaunlicherweise eine ganz andere Situation als heute. Die Wetterlagen in Europa und Marokko verliefen parallel, also feuchtes Wetter in Europa bedeutete auch stärkere Niederschläge in Marokko”, so Wassenburg. Diese “positive Korrelation” muss sich im Lauf der Jahrtausende vom frühen bis zum mittleren Holozän verändert haben.

Die Forscher vermuten einen Zusammenhang mit dem starken Rückgang des Schmelzwasserzuflusses von dem Laurentischen Eisschild, der bis zum Beginn der Warmzeit einen großen Teil Nordamerikas bedeckte. “Das Muster der Nordatlantischen Oszillation ist nicht so stabil, wie wir gedacht haben”, erklärt Prof. Dr. Denis Scholz zu den Ergebnissen mit einem Hinweis darauf, dass ein Abschmelzen des Grönlandeises wahrscheinlich nicht ohne Einfluss auf die NAO bliebe und damit auch nicht auf die Atmosphäre, die Ozeane und die biologischen Prozesse einschließlich Landwirtschaft und Fischerei. Die Gruppe wird in weiteren Untersuchungen rekonstruieren, wie sich die NAO in den letzten 10.000 Jahren verändert hat.

 

Prozentrechnung müsste man können: Das en(t)liche CO2-Budget

Von Uli Weber

Auf dem Internetblog „Klimalounge“ war am 11. April 2017 ein Artikel mit dem Titel „Können wir die globale Erwärmung rechtzeitig stoppen?“ erschienen. Mit der Aussage, ein befürchteter Temperaturanstieg von  1,5 bis 2 Grad erlaube nur noch ein globales CO2-Budget von 150 bis 1050 Gigatonnen (Gt), wird dann über Ausstiegszenarien aus den kohlenstoff-basierten fossilen Energieträgern schwadroniert. Dort wird behauptet, das Temperaturniveau, auf dem die globale Erwärmung später zum Halten käme, wäre in guter Näherung proportional zu den kumulativen CO2-Emissionen und um die globale Erwärmung zu stoppen, müssten noch vor 2050 globale Nullemissionen für CO2 erreicht werden.

Aber selbst dann, wenn man an einen menschengemachten Klimawandel durch die Nutzung fossiler Energien glaubt, sollte man sich nicht gleich ins Bockshorn jagen lassen. Denn es schadet vom wissenschaftlichen Standpunkt her sicherlich nicht, die der dortigen Argumentation zugrunde liegende und nachfolgend abgebildete IPCC-Grafik einmal näher zu betrachten und mit zusätzlichen Fakten abzugleichen:
Die Klimawirksamkeit von CO2 wird üblicherweise als „Klimasensitivität“ in Grad pro Verdoppelung angegeben. Das IPCC gibt dafür eine Spanne von 1,5 bis 4,5 [° / 2xCO2] an. Der ursprüngliche vorindustrielle atmosphärische CO2-Gehalt soll 280 ppm betragen haben. Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1400 Gt CO2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht. Hier die IPCC-Abbildung aus dem Klimalounge-Artikel vom 11. April 2017:

 

Der dortige Text zu dieser Abbildung, Zitat:Zusammenhang von kumulativen CO2-Emissionen und globaler Erwärmung. Die Zahlen an den „Blasen“ geben die in den verschiedenen Szenarien erreichte CO2-Konzentration in der Atmosphäre an. Die auf der vertikalen Achse angegebene Temperatur gilt zu dem Zeitpunkt, an dem die auf der horizontalen Achse angegebene Emissionsmenge erreicht wird. Das heißt: die noch folgende weitere Erwärmung allein aufgrund der thermischen Trägheit im System ist hier noch nicht einkalkuliert. Quelle: IPCC Synthesebericht (2014).

 

Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 dT °C). Vergleichen wir diese Werte einmal mit den oben aufgeführten zusätzlichen Fakten:

Der vorindustrielle CO2–Gehalt in unserer Atmosphäre soll 280 ppm oder 0,028% betragen haben. Für den Zeitraum zwischen 1900 und 2015 summiert sich der anthropogene CO2-Eintrag auf insgesamt etwa 1400 Gigatonnen (Gt) und hatte zu einer Erhöhung des atmosphärischen CO2-Gehaltes um 0,012% auf 0,040% oder 400 ppm geführt. Zwischen dem anthropogenen CO2-Ausstoß und dem atmosphärischen CO2-Gehalt ergibt sich also folgender Zusammenhang:

(1)                         X Gt CO2 = 280 ppm       mit X = „natürliche“ atmosphärische CO2-Menge [Gt CO2]

(2)                         X Gt CO2 + 1.400 Gt CO2 = 400 ppm

(3) = (2) – (1)        1.400 Gt CO2 = 120 ppm

Die ursprüngliche atmosphärische CO2-Gesamtmenge „X [Gt CO2]“ ergibt sich dann aus den Zeilen (1) und (3) mit einem einfachen Dreisatz zu:

X Gt CO2 = 280 ppm x 1.400 Gt CO2 / 120 ppm = 3.200 Gt CO2

 

Wir können aus dem IPCC-Blasenwert mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 DT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge  ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.

Nach der hier durchgeführten Abschätzung würde eine Erhöhung des vorindustriellen atmosphärischen CO2-Gehaltes auf 510 ppm also weitere 1.400 Gt CO2 (=2.800 Gt CO2– 1.400 Gt CO2) erfordern, um nach der oben abgebildeten IPCC-Grafik schließlich eine atmosphärische Temperaturerhöhung von insgesamt etwa 1,75-2,0 °C auszulösen. Bei einem weltweiten jährlichen CO2-Ausstoß von konstant 30 Gigatonnen würde es ab dem Jahre 2015 dann noch etwa 45 Jahre bis zu einem angeblich anthropogen verursachten Temperaturanstieg von insgesamt knapp 2 Grad Celsius dauern, also etwa bis zum Jahre 2060.

Die Aussage über eine kumulative Wirkung von CO2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Klimalounge-Artikel ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Das anthropogene CO2 hat in unserer Atmosphäre nämlich eine Verweildauer von nur etwa 120 Jahren (hier unter dem Stichwort „Kohlendioxid“).

Das globale CO2-Budget ist also gar nicht kumulativ, sondern fortlaufend „erneuerbar“! Mit dieser Verweildauer von etwa 120 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß also etwa 2.800 Gt CO2 pro 120 Jahre. Damit dürfte dann ein vorgeblich menschengemachter Temperaturanstieg sicher unter 2 Grad bleiben. Wir haben also eigentlich bis zum Jahre 2060 Zeit, um den anthropogenen CO2-Ausstoß auf jährlich 23 Gigatonnen (=2.800 Gt CO2 / 120 Jahre) zu begrenzen und damit das ominöse 2-Grad Ziel dauerhaft zu abzusichern. Von Null-Emissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben will.

Ein globales CO2-Budget von jährlich etwa 23 Gigatonnen CO2 würde vielmehr die befürchtete menschengemachte Klimaerwärmung dauerhaft unter 2 Grad halten. Die Dekarbonisierung der Welt erweist sich damit zum wiederholten Male als eine völlig unnötige Selbstkasteiung der Menschheit. Und aufgrund dieser religiös anmutenden Agenda will die westliche Welt jetzt freiwillig ihre kohlenstoff-basierte Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Offen bleibt nur, ob das zustimmende Schweigen einer gesellschaftlichen Mehrheit in den von einer globalen Dekarbonisierung bedrohten westlichen Industrienationen auf einem übersättigten Desinteresse, einer verkümmerten individuellen Kritikfähigkeit oder auf mangelhaften Kenntnissen in der Prozentrechnung beruht…

 

Die gerne verdrängten Korallenkiller: Sonnenmilch, Mückenspray & Co.

Immer wieder lesen wir von schlimmen Korallenbleichen, wobei der Schuldige schnell ausgemacht ist: Der Klimawandel. Oft unerwähnt bleibt dabei, dass es eine ganze Reihe von anderen Gefahren für Korallen gibt. Der Lieblingstäter CO2 muss also nicht an allem und jedem Schuld sein.

Fallender Meeresspiegel

Sie haben richtig gelesen. Der Meeresspiegel ist keine Einbahnstrasse. Insgesamt auf globalem Maßstab steigt er, aber regional gibt es auch mehrmonatige und -jährige Phasen, in denen der Meeresspiegel sinkt. Das mögen die Korallen natürlich überhaupt nicht, denn dann liegen die obersten Teile trocken und sterben ab. Nachzulesen zum Beispiel in einer Arbeit von Eghbert Elvan Ampou und Kollegen, die am 24. Februar 2017 in Biogeosciences erschien:

Coral mortality induced by the 2015–2016 El-Niño in Indonesia: the effect of rapid sea level fall
The 2015–2016 El-Niño and related ocean warming has generated significant coral bleaching and mortality worldwide. In Indonesia, the first signs of bleaching were reported in April 2016. However, this El Niño has impacted Indonesian coral reefs since 2015 through a different process than temperature-induced bleaching. In September 2015, altimetry data show that sea level was at its lowest in the past 12 years, affecting corals living in the bathymetric range exposed to unusual emersion. In March 2016, Bunaken Island (North Sulawesi) displayed up to 85 % mortality on reef flats dominated by Porites, Heliopora and Goniastrea corals with differential mortality rates by coral genus. Almost all reef flats showed evidence of mortality, representing 30 % of Bunaken reefs. For reef flat communities which were living at a depth close to the pre-El Niño mean low sea level, the fall induced substantial mortality likely by higher daily aerial exposure, at least during low tide periods. Altimetry data were used to map sea level fall throughout Indonesia, suggesting that similar mortality could be widespread for shallow reef flat communities, which accounts for a vast percent of the total extent of coral reefs in Indonesia. The altimetry historical records also suggest that such an event was not unique in the past two decades, therefore rapid sea level fall could be more important in the dynamics and resilience of Indonesian reef flat communities than previously thought. The clear link between mortality and sea level fall also calls for a refinement of the hierarchy of El Niño impacts and their consequences on coral reefs.

Siehe auch Beitrag von Jim Steele hierzu auf WUWT.

 

Pestizide

Die University of North Florida beschrieb in einer Pressemitteilung vom 20. Januar 2015 einen weiteren Korallenkiller: Pestizide. Die Forscher fanden lediglich eine mittlere Resistenz gegen die untersuchten Mückenpestizide. Oder anders ausgedrückt: Unter gewissen Umständen können diese Pestizide Korallenlarven abtöten.

Pioneer Study Examines Declining Coral Reef Health Due to Pesticides/Sea Surface Temperatures

The declining health of coral reefs is intensifying worldwide at an alarming rate, due to the combined effects of land-based sources of pollution and climate change. Despite the persistent use of mosquito-control pesticides in populated coastal areas, studies examining the survival and physiological impacts on the early life stages of foundation species, like corals, are limited. In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Dr. Cliff Ross, an associate professor of biology at the University of North Florida, along with scientists from Mote Marine Laboratory, exposed larvae from the coral, Porites astreoides, to selected concentrations of pesticides and temperatures.

In this pioneer study, recently published in Ecotoxicology, Ross and his colleagues—Kevin Olsen, Michael Henry and Dr. Richard Pierce—uncovered that this particular coral larvae were shown to have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature.

“The significance of this work is that coral reefs across the globe are declining at an alarming rate due to climate change (warming ocean temperatures) and pollution. If baby corals don’t survive exposure to these stressors, then you won’t have adults, which are needed to reproduce and maintain the populations,” said Ross, who is focusing his current research at UNF on understanding the effects of climate change and environmental stressors on marine organisms, such as corals and sea grasses.

One big issue in the Florida Keys and many other coastal environments, Ross noted, is the use of mosquito-control pesticides. The Florida Keys relies heavily upon tourism. Unfortunately, the same beautiful habitat is conducive towards mosquito growth. According to Ross, the Florida Keys Mosquito Control district does an excellent job controlling mosquito populations by applying pesticides. Unfortunately, he said, some of these pesticides can inadvertently end up in the ocean and have a negative effect on marine life.

What kind of possible negative effects? In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Ross collected and exposed coral larvae to selected concentrations of two major mosquito pesticide ingredients, naled and permethrin, and seawater elevated to +3.5 degrees Celsius. After 18 to 20 hours of exposure, larvae subjected to high naled concentrations had significantly reduced survivorship compared to controls. These effects weren’t detected in the presence of permethrin or elevated temperature.

Additionally, larval settlement, post-settlement survival and bleaching weren’t impacted by any treatment. To evaluate the sub-lethal stress response of larvae, several cellular and molecular assays were run. These assays determine if the larvae are stressed, much like a human blood test. The molecular responses to pesticide exposure were variable and contingent upon pesticide type, as well as the specific biomarker being employed.

In some cases, such as with the protein carbonylation and catalase gene expression, the effects of naled exposure and temperature were interactive. In other cases, pesticide exposure failed to induce any sub-lethal stress response.

Overall, these results demonstrate that Porites astreoides larvae have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature. However, Ross notes much more work is needed on this topic, since there are many different types of environmental stressors that can interact with pesticides to cause damage to corals.

“With the onset of increasing stress to coral reefs, via direct human activities, or indirectly through effects associated with climate change, a more complete understanding of how stress impacts corals is essential,” said Ross. “In particular, as the use of pesticides increases in coastal communities there is a need to investigate the negative effects on early life stages of foundation species like corals.”

The full study, to be published in the February 2015 issue, can be found at http://link.springer.com/article/10.1007/s10646-014-1402-8.

 

Sonnencreme

Sogar Sonnencreme von badenden Strandgästen kann den Korallen gefährlich werden wie National Geographic bereits 2008 meldete:

Swimmer’s sunscreen killing off coral
The sunscreen that you dutifully slather on before a swim on the beach may be protecting your body—but a new study finds that the chemicals are also killing coral reefs worldwide. Four commonly found sunscreen ingredients can awaken dormant viruses in the symbiotic algae called zooxanthellae that live inside reef-building coral species.

Weiterlesen in National Geographic

Die Universität Tel Aviv gab 2015 im Rahmen einer Pressemitteilung weitere Forschungsergebnisse zur Problematik bekannt:

Sunscreen is proven toxic to coral reefs

Tel Aviv University researchers discover chemical found in most sunscreen lotions poses an existential threat to young corals

The daily use of sunscreen bearing an SPF of 15 or higher is widely acknowledged as essential to skin cancer prevention, not to mention skin damage associated with aging. Though this sunscreen may be very good for us, it may be very bad for the environment, a new Tel Aviv University study finds.

New research published in Archives of Environmental Contamination and Toxicology finds that a common chemical in sunscreen lotions and other cosmetic products poses an existential threat — even in miniscule concentrations — to the planet’s corals and coral reefs. “The chemical, oxybenzone (benzophenone-3), is found in more than 3,500 sunscreen products worldwide. It pollutes coral reefs via swimmers who wear sunscreen or wastewater discharges from municipal sewage outfalls and coastal septic systems,” said Dr. Omri Bronstein of TAU’s Department of Zoology, one of the principal researchers.

The study was conducted by a team of marine scientists from TAU, including Prof. Yossi Loya, also of the Department of Zoology, the Haereticus Environmental Laboratory in Virginia, the National Aquarium (US), the US. National Oceanic & Atmospheric Administration, Ben Gurion University of the Negev, and other labs in the US.

A deadly day at the beach

A person spending the day at the beach might use between two to four ounces of sunblock if reapplied every two hours after swimming, towelling off, or sweating a significant amount. Multiply this by the number of swimmers in the water, and a serious risk to the environment emerges.

“Oxybenzone pollution predominantly occurs in swimming areas, but it also occurs on reefs 5-20 miles from the coastline as a result of submarine freshwater seeps that can be contaminated with sewage,” said Dr. Bronstein, who conducted exposure experiments on coral embryos at the Inter University Institute in Eilat together with Dr. Craig Downs of the Heretics Environmental Laboratories. “The chemical is highly toxic to juvenile corals. We found four major forms of toxicity associated with exposure of baby corals to this chemical.”

Forms of toxicity include coral bleaching, a phenomenon associated with high sea-surface temperature events like El Niño — and with global mass mortalities of coral reefs. The researchers found oxybenzone made the corals more susceptible to this bleaching at lower temperatures, rendering them less resilient to climate change. They also found that oxybenzone damaged the DNA of the corals, neutering their ability to reproduce and setting off a widespread decline in coral populations.

The study also pointed to oxybenzone as an “endocrine disruptor,” causing young coral to encase itself in its own skeleton, causing death. Lastly, the researchers saw evidence of gross deformities caused by oxybenzone — i.e., coral mouths that expand to five times their healthy, normal size.

It only takes a drop

“We found the lowest concentration to see a toxicity effect was 62 parts per trillion — equivalent to a drop of water in six and a half Olympic-sized swimming pools,” said Dr. Bronstein. The researchers found concentrations of oxybenzone in the US Virgin Islands to be 23 times higher than the minimum considered toxic to corals.

“Current concentrations of oxybenzone in these coral reef areas pose a significant ecological threat,” said Dr. Bronstein. “Although the use of sunscreen is recognized as important for protection from the harmful effects of sunlight, there are alternatives — including other chemical sunscreens, as well as wearing sun clothing on the beach and in the water.”

The researchers hope their study will draw awareness of the dangers posed by sunscreen to the marine environment and promote the alternative use of sun-protective swimwear.

 

Fischerei

Die Fischerei bedroht wichtige Fischarten in den Korallenriffen, so dass die Artenvielfalt hier stark gefährdet ist. Siehe Meldungen der University of Queensland und des ARC Centre of Excellence in Coral Reef Studies. Die Wildlife Conservation Society schlug 2015 sogar vor, bestimmte Fischarten gezielt in beschädigten Korallenriffen auszusetzen, die dann bei der Reparatur des Ökosystems und der Korallen mithelfen.

 

Seesterne

Böse Buben sind auch die Seesterne, wie die Augsburger Allgemeine am 17. Dezember 2015 berichtete:

Great Barrier Reef in Gefahr: Killer-Seesterne fressen Korallen
Für seine in allen Farben schillernde Unterwasserwelt ist das Great Barrier Reef vor der Küste Australiens weltbekannt. Doch ihm droht Gefahr durch einen Killer-Seestern.

Weiterlesen in der Augsburger Allgemeinen

 

Sauerstoffarmut

Das Smithsonian Tropical Research Institute wies am 21. März 2017 auf einen viel zu wenig berücksichtigten Korallenkiller hin: Sauerstoffarme Zonen im Meer, sogenannte Dead Zones. Etliche Korallenbleichen die man vormals der Ozeanerwärmung und Ozeanversauerung zugeordnet hatte, sind wohl in Wahrheit eher eine Folge von Sauerstoffarmut. Dabei wird der Sauerstoffgehalt nicht einmal routinemäßig von allen Ozeanmonitorstationen erfasst. Eine große Forschungslücke.

Dead zones may threaten coral reefs worldwide

Dead zones affect dozens of coral reefs around the world and threaten hundreds more according to a new study by Smithsonian scientists published in Proceedings of the National Academy of Sciences. Watching a massive coral reef die-off on the Caribbean coast of Panama, they suspected it was caused by a dead zone — a low-oxygen area that snuffs out marine life — rather than by ocean warming or acidification.

“Ocean warming and acidification are recognized global threats to reefs and require large-scale solutions, whereas the newly recognized threats to coral reefs caused by dead zones are more localized, said Andrew Altieri, staff scientist at the Smithsonian Tropical Research Institute and first author of the study. Fortunately dead zones can be reduced by controlling sewage and agricultural runoff into the ocean.” In September, 2010, coral reefs in Almirante Bay, Bocas del Toro Province, showed severe signs of stress. In addition to corals turning white and dying, which is typical during coral bleaching associated with warming events, there were other clues suggesting that more was involved than high temperatures. Many unusual observations pointed to something else as the culprit. There were thick mats of bacterial slime, and the dead bodies of crabs, sea urchins and sponges lay scattered on the ocean floor. Even more odd, there was a clear depth line above which the reefs looked OK, and below which, something had gone terribly wrong. Even single colonies of corals that straddled the line were fine above and dying below.

Scientists went to work, measuring several aspects of water quality. One set of measurements came back as a shock. Extremely low oxygen levels in deeper waters contrasted with high oxygen levels in shallow waters where corals were still healthy. This is the hallmark of a dead zone. The team thinks that such dead zones may be common in the tropics but have gone largely unreported, simply because scientists never looked. “The number of dead zones currently on our map of the world is 10 times higher in temperate areas than it is in the tropics, but many marine biologists work out of universities in Europe and North America and are more likely to find dead zones close to home,” Altieri said. “We were lucky that there was already a reef monitoring program in place at STRI’s Bocas del Toro Research Station as part of the Smithsonian’s Marine Global Earth Observatory Network,” said Rachel Collin, station director.

“Based on our analyses, we think dead zones may be underreported by an order of magnitude.” said Nancy Knowlton, coauthor and Sant Chair for Marine Science at the Smithsonian’s National Museum of Natural History. “For every one dead zone in the tropics, there are probably 10 — nine of which have yet to be identified.” The researchers found 20 instances when dead zones were implicated in the mass mortality of coral reefs worldwide. “Hypoxia (low oxygen) isn’t even mentioned in several of the most important academic reviews of threats to coral reefs and is rarely discussed at scientific meetings,” Altieri said, “Even worse, many coral-reef monitoring efforts do not include measurement of oxygen levels, making it nearly impossible to identify low oxygen as the cause of mass coral mortality after the fact.” For example, the cause of a 2016 mass mortality at the Flower Garden Reefs in the Gulf of Mexico remains unclear, but some of the photographs look strikingly similar to what was observed in Panama.

The authors argue that building capacity to monitor oxygen on reefs will help people to improve coral reef health and understand how dead zones might interact with other forces such as global warming in a one-two punch, which put reefs in even greater danger.

 

 Die Korallenkillerbande

Die Oregon State University fasste am 7. Juni 2016 die vielfältigen Gefahren für die Korallenriffe in einer Pressemitteilung zusammen:

Coral reefs fall victim to overfishing, pollution aggravated by ocean warming (weiterlesen …)

Obere Atlantikschichten widersetzen sich hartnäckig dem Aufwärmbefehl

Wir wollen uns heute die ozeanische Wärme im Atlantik vornehmen. Aus dem neuesten Climate4You Newsletter (pdf hier) besorgen wir uns die Wärmeinhalts-Kurve für die letzten 60 Jahre, die für die obersten 100 m der atlantischen Wassermassen gilt:

Abb. 1: Atlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 100 m der atlantischen Wassermassen). Graphik: Climate4You.

 

Schön zu sehen: In den letzten 13 Jahren hat sich der Atlantik nicht weiter aufgeheizt. Die Graphik zeigt eine große Treppenstufe: Plateau 1955-1985, dann Anstieg, dann ab 2004 wieder ein Plateau. Die aktuell fehlende Erwärmung der atlantischen Oberflächenwässer war auch Thema einer Arbeit von Somavilla und Kollegen, die im März 2016 in den Geophysical Research Letters erschien. Sie erklären, die Hitze hätte sich einfach von den oberen Stockwerken des Atlantiks in die Tiefenschichten verlagert:

Mid-2000s North Atlantic shift: Heat budget and circulation changes
Prior to the 2000s, the North Atlantic was the basin showing the greatest warming. However, since the mid-2000s during the so-called global warming hiatus, large amounts of heat were transferred in this basin from upper to deeper levels while the dominance in terms of atmospheric heat capture moved into the Indo-Pacific. Here we show that a large transformation of modal waters in the eastern North Atlantic (ENA) played a crucial role in such contrasting behavior. First, strong winter mixing in 2005 transformed ENA modal waters into a much saltier, warmer, and denser variety, transferring upper ocean heat and salt gained slowly over time to deeper layers. The new denser waters also altered the zonal dynamic height gradient reversing the southward regional flow and enhancing the access of saltier southern waters to higher latitudes. Then, the excess salinity in northern regions favored additional heat injection through deep convection events in later years.

Wenn man sich dann aber die Temperaturanomaliekarten im Supplement der Arbeit (Fig. S1) anschaut, erkennt man, wie heterogen diese Trends eigentlich wirklich sind. Müssen wir also weiter im Auge behalten. Die Wärmeumverteilung war bereits Thema eines Papers von Desbruyères und Kollegen 2014 in den Geophysical Research Letters:

Full-depth temperature trends in the northeastern Atlantic through the early 21st century
The vertical structure of temperature trends in the northeastern Atlantic (NEA) is investigated using a blend of Argo and hydrography data. The representativeness of sparse hydrography sampling in the basin mean is assessed using a numerical model. Between 2003 and 2013, the NEA underwent a strong surface cooling (0–450 m) and a significant warming at intermediate and deep levels (1000 m to 3000 m) that followed a strong cooling trend observed between 1988 and 2003. During 2003–2013, gyre-specific changes are found in the upper 1000 m (warming and cooling of the subtropical and subpolar gyres, respectively), while the intermediate and deep warming primarily occurred in the subpolar gyre, with important contributions from isopycnal heave and water mass property changes. The full-depth temperature change requires a local downward heat flux of 0.53 ± 0.06 W m−2 through the sea surface, and its vertical distribution highlights the likely important role of the NEA in the recent global warming hiatus.

Die erwähnte Abkühlung im Nordatlantik wollen wir uns wieder in einer aktuellen Graphik von Climate4You anschauen:

Abb. 2: Nordatlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 700 m der nordatlantischen Wassermassen). Graphik: Climate4You.

 

PIK verweigert Filmemacher Interview: Die Unsicherheit wächst

Bereits mehrfach haben wir an dieser Stelle auf den neuen Dokumentarfilm “The uncertainty has settled” hingewiesen. Der Film von Marijn Poels wurde bereits auf etlichen Filmfestivals mit Preisen ausgezeichnet, eine Hase und Schildkröte Production. Den Trailer haben Sie vielleicht schon auf Youtube gesehen. Es war also nur eine Frage der Zeit, endlich einmal den ganzen Film anzuschauen. Die Kalte-Sonne-Redaktion hatte nun – ausgestattet mit Kaltgetränk und Popcorn – die Gelegenheit, den Film in ganzer Spielfilm-Länge von 90 Minuten zu inspizieren. Um es vorweg zu nehmen: Es hat sich gelohnt!

Zunächst einmal zum Titel. Für das deutsche Publikum wäre hier sicher eine landessprachliche Version sicher nützlich gewesen. “The uncertainty has settled”, was bedeutet das? Man muss den Film erst sehen, um den Sinn des Titels zu erahnen. In der Klimadebatte hieß es lange “The Science is settled”, bei den Klimawissenschaften ist alles fertigeforscht, alles im Griff. Das sollte auch bedeuten, dass man bitte mit dem nervigen Gefrage aufhört. Wenn ein Klimawissenschaftler etwas sagt, hat man das bitteschön ohne zu Murren anzuerkennen. Zurückmaueln unerwünscht. Naja, bis dann wirklich große Klopper ans Licht kamen, wie z.B. Klimamodelle, die nur die letzten 400 Jahre modellieren können, für die Zeit davor aber nichts Hinbekommen. Das kennen Sie ja. Der Titel ist also vermutlich ein Wortspiel: Statt der Wissenschaft ist nun die wissenschaftliche Unsicherheit bestätigt. Das stimmt.

Der Film ist als Roadmovie aufgebaut. Der Journalist (Marijn Poels) reist mit seinem Kameramann Volker Schmidt durch Europa und Nordamerika, um mit Landwirten und Wissenschaftlern über Biotreibstoffe und den Klimawandel zu sprechen. Poelsist lange Kare durch die schwierigen Länder und Krisenherde der Welt gereist, um von dort als Filmer und unabhängiger Medienmann zu berichten. Da war diese Reise durch den “zivilisierten” Westen sicher eine nette Abwechslung. Poels ist Holländer und sieht aus wie ein struppeliger Greenpeace-Kämpfer, wirkt dabei sehr sympathisch. Er ist Sohn eines linken Teilzeitmissionars, ein echter  Europäer – seine Frau stammt ursprünglich aus einem Dorf in Sachsen-Anhalt, in dem auch ein Teil des Films spielt.

Einen Erzähler aus dem Off gibt es nicht. Geredet wird nur vor der Kamera, auf deutsch, englisch und holländisch. Deutsche Untertitel machen es einfach, das Geschehen bequem über den ganzen Film hinweg zu verstehen. Poels konzipierte die Doku in einem langsamen unaufgeregten Erzählstil. Wilde Zusammenschnitte von Naturkatastrophen sucht man in dem Streifen zum Glück vergeblich. Der Protagonist stellt die Fragen, will selber lernen und vermeidet es, seine eigene Ansicht auszubreiten. Durch die Auswahl der Interviewpartner erkennt man aber schnell, dass Poels ernsthaft an einer Diskussion des Themas Energiewende und Klimawandel liegt. Die Öffnung zum Dialog ist ein wichtiger erster Schritt, den nur wenige gehen.

Im Heimatdorf seiner Frau in Sachsen-Anhalt trifft Poels zufällig einen holländischen Landsmann. Frits besaß mehrere große Betriebe in der Stadt, die er aber mittlerweile an seine Kinder weitergegeben hat. Das erlaubt ihm nun im Wohlstand auf dem Lande zu leben. Er ist kein Stadtmensch, sagt er. Zudem ist er Klimaskeptiker. Poels hört aufmerksam zu, sammelt Informationen. In der Entfernung dreht sich eine ganze Batterie Windkraftanlangen. Frits würde gerne eine Baumreihe davor pflanzen, damit er sie nicht mehr sehen muss. Ein Bauer aus der Region bedauert sehr, dass das Windmühlenland nicht ihm gehören würde. Denn ansonsten könte er es bequem an die Windmüller verpachten und müsste nie mehr arbeiten. Andere Bauerskollegen schnitten besser ab und müssen jetzt nur noch Geld zählen, anstatt Kartoffeln zu ernten.

Überhaupt scheint sich die deutsche Landwirtschaft vor allem um Biogas zu kümmern. Mittlerweile gibt es 8000 Biogasanlagen in Deutschland,wobei eine Snage etwa 260 Hektar Land verbraucht. Genau dieses Land fehlt jetzt für die Nahrunsgmittelherstellung. Im Zuge des globalen Nahrungsmittelmarktes wird dadurch perverserweise and Orten wie dem südmaerikanischen Regenwald neues Land gerodet, um dieses Anbaudefizit wieder auszugleichen. Die Biogaserzeugung ist stark subventioniert, lohnt sich nur, weil sie politisch gewollt ist. Marijn Poels trifft den Kieler Agrar- und Nährstoff-Exoerten Prof. Friedhelm Taube Uni Kiel. Im Interview verrät er, wie es dazu kam, dass die Biogas-Subventionen derart überdimnensioniert wurden. Die Subventionen wurden Anfang der 2000er Jahre mehrfach nachgebessert, um die Landwirte endlich ins Biogas zu bekommen. Die zögerten zunächst. Deshalb erhöhte man. Zu einem gewissen Zeitpunkt stieg dann aber der Weizen-Weltmarktpreis so stark an, dass die Politik befürchtete, die Landwirte könnten nun wieder auf Weizenanbau zurückwechseln. Also schüttete man sie so mit Subventionsgeldern zu, dass sie sich auf jeden Fall für das Biogas entschieden. Kurz nach einer neuen Steigerung der Subventionen rauschte dann der Weltmarktpreis für Weizen in den Keller. Blöd gelaufen.

Der Experte bemängelt die ökonomische Ineffizienz der Biogaserzeugung. Was könnte man mit dem vielen Geld nicht alles Gutes tun. In Ländern wie Tunesien könnte die Lndwirtschaft nachhaltig verbessert werden und Migrationsgrpnde beseitigt werden. Lieber setzt man weiter stur auf Biogas, um einen Gesichtsverlust zu vermeiden. 40% der Maisanbaufläche in Deutschland werden heute für Biogas verbraucht. Eine Tonne CO2-Vermeidung über Biogas kostet den Steuerzahler und Stromkunden 300-400 Euro. Eine Tonne CO2-Vermeidung über Wärmedämmung kostet jedoch nur 20 Euro also ein Fünzehntel. Wer kein Biogas macht, ist einfach blöd. Milchbauern machen derzeit pro Kuh 1000 Euro Verlust pro Jahr, ein kostspieliges Hobby. Will man so die Methanemissionen der Kühe senken?

Wir wollen Ihnen hier nicht den ganzen Film verraten. Im Laufe seiner Reise trifft Marijn Poels auch auf Hans von Storch, dem man gerne zuhört, da er seine Worte gut wählt und beim Klimwandel relativ ausgewogen positioniert ist. Er ist sich nicht sicher, ob der Klimawandel das wichtigste aktuelle Problem der Menschheit ist. Auf jeden Fall solle man seine Energie auch auf eine ganze Reihe anderer Herausforderungen lenken. Recht hat der Mann. Weitere Interviewpartner sind Freeman Dyson, stolze 93 Jahre alt, von der Princeton University. Er erklärt, dass die Computermodellierer zu früh zu viel Geld bekommen haben. Dann hätten sie sich verrannt und konnten dann aus der Kiste nicht mehr ohne Gesichtsverlust heraus. Es würde ihnen schwer fallen, objektiv zu bleiben.Es wäre aber klar, dass die Modelle gescheitert sind. Beobachtungen und Simulationen stimmen einfach nicht überein. Und ohne Klimaalarm gibt es kein Geld von der Regierung. Dyson kritisiert die Herdenmentalität der Wissenschaftler. Zuviel Loyalität, zu wenig eigenes Mitdenken.

Poels hatte auch beim Potsdam-Institut für Klimafolgenforschung um ein Interview gebeten. Das wurde ihm allerdings verweigert. Weshalb? Kritisches Mitdenken und Fragenstellen unerwünscht. Im Laufe des Films wird sich Poels darüber klar, dass er als Laie keine Chance hat, die Wahrheit zum Klimawandel zu erfahren. Es steht Aussage gegen Aussage. Wem soll man glauben, wer erzählt Mist? Freeman Dyson gibt Poels einen guten Rat mit auf den Weg. Er solle den Beobachtungen vertrauen, nicht theoretischen Modellen. Ein gutes Konzept.

Gegen Ende verrennt sich der Filmemacher etwas und bringt auch noch einen russischen Vertreter der abiogenen Kohlenwasserstoffe. Dies wird die meisten Zuseher zu sehr verwirren. Natürlich gibt es nicht-biologische Kohlenwasserstoffe. Aus vielen Vulkanen strömt Methan aus, Planeten haben Methanatmosphären und so weiter. In Russland glaubt man sogar, einige abiogene Ölfelder zu haben, z.B. im Kaukasus. Trotzdem ist es schon etwas ärgerlich, wenn Vladimir Kutcherov im Interview erzählen darf, man müsse nur 50 Jahre warten und die bereits leergeförderten Ölfelder wären dann alle wieder voll. Quatsch hoch drei. Das Öl und Gas der meisten entdeckten Felder stammt aus ehemaligen Tier- und Pflanzenresten. Da kann man auch 500 Jahre warten, und es füllt sich kaum etwas nach. Magengrummeln gibt es auch bei einigen Statements von Piers Corbyn, der zu ausführlich im Film zu Wort kommt und z.B. den aktuellen CO2-Anstieg als zeitverzögerten Effekt der Mittelalterlichen Wärmeperiode deutet. Höchst abenteuerlich.

Poels endet seinen Film mit einer Abwandlung des Goethezitats ‘Da steh ich nun, ich armer Tor, und bin so klug als wie zuvor’. Der Film hilft auf jeden Fall, das Interesse am Thema zu wecken. Eine systematische Behandlung der wichtigsten Klimafragen gehörte nicht zum Konzept. Das ist aber auch nicht so schlimm, denn man kann diese Themen auch in unserem Buch und Blog nachlesen. Wir möchten Ihnen den Film wärmstens empfehlen. Demnächst auch in einem Kino in Ihrer Nähe. Hier die aktuellen Vorführungstermine (2017), an denen auch der Filmemacher persönlich teilnehmen wird:

Beeinflussungsgrad der deutschen Jahresmitteltemperatur durch städtische Wärmeinseln erstmals flächendeckend quantifiziert

Eines der wichtigen Streitthemen in der Klimadebatte ist der städtische Wärmeinseleffekt (WI-Effekt). Bebauung und Wärmeerzeugung treiben die Temperaturen in den Ballungszentren zusätzlich zum weltweiten Klimawandel nach oben. Das Phänomen fungiert im Englischen auch unter ‘urban heat island’ (UHI) und ist in der Fachwelt allseits anerkannt. Eine berechtigte aber leider noch weitgehend ungeklärte Frage ist nun, inwieweit der UHI die Langzeittemperaturmessungen bereits beeinflusst hat. Wiewiel UHI steckt wirklich in den Temperaturkurven des Deutschen Wetterdienstes (DWD)?

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017

 

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

 Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

 

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

 

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

 

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Identifying anthropogenic anomalies in air, surface and groundwater temperatures in Germany
Human activity directly influences ambient air, surface and groundwater temperatures. The most prominent phenomenon is the urban heat island effect, which has been investigated particularly in large and densely populated cities. This study explores the anthropogenic impact on the thermal regime not only in selected urban areas, but on a countrywide scale for mean annual temperature datasets in Germany in three different compartments: measured surface air temperature, measured groundwater temperature, and satellite-derived land surface temperature. Taking nighttime lights as an indicator of rural areas, the anthropogenic heat intensity is introduced. It is applicable to each data set and provides the difference between measured local temperature and median rural background temperature. This concept is analogous to the well-established urban heat island intensity, but applicable to each measurement point or pixel of a large, even global, study area. For all three analyzed temperature datasets, anthropogenic heat intensity grows with increasing nighttime lights and declines with increasing vegetation, whereas population density has only minor effects. While surface anthropogenic heat intensity cannot be linked to specific land cover types in the studied resolution (1 km × 1 km) and classification system, both air and groundwater show increased heat intensities for artificial surfaces. Overall, groundwater temperature appears most vulnerable to human activity, albeit the different compartments are partially influenced through unrelated processes; unlike land surface temperature and surface air temperature, groundwater temperatures are elevated in cultivated areas as well. At the surface of Germany, the highest anthropogenic heat intensity with 4.5 K is found at an open-pit lignite mine near Jülich, followed by three large cities (Munich, Düsseldorf and Nuremberg) with annual mean anthropogenic heat intensities > 4 K. Overall, surface anthropogenic heat intensities > 0 K and therefore urban heat islands are observed in communities down to a population of 5000.

 

Mehr zum UHI-Effekt hier.

Besonnenheit statt Panik: Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe

Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe. Das ist beruhigend zu wissen. Neben US-Präsident Donald Trump hält auch der Russische Präsident Putin nichts von klimatischer Panikmache, wie Die Welt am 30. März 2017 meldete:

Putin hält Klimawandel nicht für menschengemacht

Einst hatte Putin den Klimawandel begrüßt, nun legt der russische Präsident nach: Dieser sei nicht menschengemacht – und daher auch nicht zu stoppen. Zur „Großmacht“ USA strebt er „sehr gute Beziehungen“ an.

Nach Einschätzung des russischen Präsidenten Wladimir Putin ist der Klimawandel nicht durch den Menschen verursacht und deshalb auch nicht aufzuhalten. Beim Arktisforum in der nordrussischen Stadt Archangelsk sagte Putin, die Schmelze der Eisberge dauere bereits seit Jahrzehnten an. Die Klimaerwärmung habe in den 30er-Jahren des vorigen Jahrhunderts begonnen, als es noch gar keine Treibhausgase gegeben habe. Den Klimawandel zu stoppen sei „unmöglich“. Er hänge zusammen mit „globalen Zyklen auf der Erde oder sogar von planetarischer Bedeutung“. Es komme darauf an, sich der Klimaerwärmung „anzupassen“. Putin, der am Vortag die Inselgruppe Franz-Josef-Land im Nordpolarmeer aufgesucht hatte, erläuterte seine Position mit einem Beispiel.

Weiterlesen auf welt.de

Die Argumentation ist bei beiden sicher noch zu verfeinern. Zudem wäre auch eine quantitative Diskussion der CO2-Klimasensitivität wichtig, ansonsten erscheinen die Statements doch etwas zu schwarz und weiß. Trotzdem gibt es Hoffnung, dass die beiden Präsidenten ein Gegengewicht zum ungebremsten Klimaalarmismus bilden. Wie so oft, liegt die Wahrheit wohl irgendwo in der Mitte.

——-

Heute halten wir das Blog etwas knapper. Morgen soll es dafür in aller Ausführlichkeit um den städtischen Wärmeinseleffekt (urban heat island, UHI) in Deutschland gehen. Hier hat es kürzlich unbemerkt von den Medien einen kleinen Durchbruch gegeben, den wir Ihnen präsentieren wollen. In diesem Zusammenhang wollen wir dann auch einen Weg aufzeigen, wie eine Temperaturkurve für Deutschland berechnet werden kann, aus der die gröbsten UHI-Verunreinigungen entfernt sind. Schalten Sie daher unbedingt morgen wieder das Kalte-Sonne-Blog ein, es lohnt sich.

 

Macht der Klimawandel verrückt?

Die American Psychological Association (APA) biss am 29. März 2017 ein Stück vom profitablen Klimawandelforschungskuchen ab. Sie ging in einer Pressemitteilung der Frage nach, ob der Klimawandel verrrückt macht. Wenig überraschend lautete die Antwort ‘ja’.

Climate Change’s Toll on Mental Health

New report outlines psychological effects on individuals and communities, vulnerable populations

When people think about climate change, they probably think first about its effects on the environment, and possibly on their physical health. But climate change also takes a significant toll on mental health, according to a new report released by the American Psychological Association and ecoAmerica entitled Mental Health and Our Changing Climate: Impacts, Implications, and Guidance.

Climate change-induced severe weather and other natural disasters have the most immediate effects on mental health in the form of the trauma and shock due to personal injuries, loss of a loved one, damage to or loss of personal property or even the loss of livelihood, according to the report. Terror, anger, shock and other intense negative emotions that can dominate people’s initial response may eventually subside, only to be replaced by post-traumatic stress disorder.

As an example of the impacts natural disasters can have, among a sample of people living in areas affected by Hurricane Katrina in 2005, suicide and suicidal ideation more than doubled, one in six people met the diagnostic criteria for PTSD and 49 percent developed an anxiety or mood disorder such as depression, said the report.

The impacts of climate on mental health are not relegated to disasters alone. There are also significant mental health impacts from longer-term climate change. Changes in climate affect agriculture, infrastructure and livability, which in turn affect occupations and quality of life and can force people to migrate. These effects may lead to loss of personal and professional identity, loss of social support structures, loss of a sense of control and autonomy and other mental health impacts such as feelings of helplessness, fear and fatalism. High levels of stress and anxiety are also linked to physical health effects, such as a weakened immune system. Worry about actual or potential impacts of climate change can lead to stress that can build over time and eventually lead to stress-related problems, such as substance abuse, anxiety disorders and depression, according to research reviewed in the report.

Climate change is likewise having mental health impacts at the community level. Both acute and long-term changes have been shown to elevate hostility and interpersonal and intergroup aggression, and contribute to the loss of social identity and cohesion, said the report. Certain disadvantaged communities, such as indigenous communities, children and communities dependent on the natural environment can experience disproportionate mental health impacts.

The key to combating the potential negative psychological effects of climate change, according to the report, is building resilience. It includes a section dedicated to offering guidance to aid professionals in supporting and promoting the mental health of individuals and communities and helping them build psychological resilience. One recommendation is to guide people to support and maintain their social networks.

“Individuals’ personal capacity to withstand trauma is increased when they are connected to their networks off- and online,” said the report. “Researchers have found that higher levels of social support during and in the aftermath of a disaster are associated with lower rates of psychological distress.”

The report also emphasized that adopting environmentally friendly policies and lifestyle choices can have a positive effect on mental health. For example, choosing to bike or walk to work has been associated with decreased stress levels. If walking or biking to work is impractical or unsafe, use of public transportation has been associated with an increase in community cohesion and a reduction in symptoms of depression and stress, according to the report. Also, increased accessibility to parks and other green spaces could benefit mental health as spending more time in nature has been shown to lower stress levels and reduce stress-related illness, regardless of socioeconomic status, age or gender.

The report, which was produced in collaboration with psychologists Susan Clayton, PhD, of the College of Wooster, and Christie Manning, PhD, of Macalester College, is an update to Beyond Storms and Droughts: The Psychological Impacts of Climate Change, a report released by the American Psychological Association and ecoAmerica in 2014. A seminal work on the relationship between climate change and psychology, Beyond Storms and Droughts was cited in the U.S. Global Change Research Program’s scientific assessment, The Impacts of Climate Change on Human Health in the United States. This 2017 update builds on the findings of the first report with new research, expanded emphasis on inequity, deeper guidance for individuals and communities and stories from professionals who are studying and supporting mental health in a changing climate.

A copy of the report can be found online at ecoamerica.org/wp-content/uploads/2017/03/ea_apa_mental_health_report_web.pdf

Ist das nicht verrückt? In eine ähnliche Kategorie fällt eine Meldung auf GIZMODO vom 9. April 2017. Der Klimawandel würde auf Hawaii zu einer Zunahme von Ratten-Lungenwürmern führen, die in das menschliche Gehirn kriechen:

A Brain-Invading Parasite Is Believed To Be Spreading Because Of Climate Change
Health officials in Hawaii have been warning residents not to touch snails or slugs with their bare hands because of an increase in cases of people coming into contact with a rare parasitic infection known as a rat lungworm. Experts are blaming its sudden spread across the United States on climate change and globalisation.

Weiterlesen auf GIZMODO

———————-
Die Initiative Klimakontroverse hält ihr nächstes Treffen am Donnerstag den 27. April 2017 um 19:30 Uhr im Freizeitheim Linden in Hannover ab. Thema: Nordseeinsel – Energiewende und wieder zurück. Weitere Informationen des Veranstalters:

Beim letzten Treffen ging es um folgende Themen:

1. Wie das Normale plötzlich zum Unnormalen wird

Kritik der Ausstellung „WIR ALLE SIND ZEUGEN – MENSCHEN IM KLIMAWANDEL“ v. 08.03.-06.04.,2017 in der VHS in Hannover.

Arbeitsmethode der Ausstellung
Die in der Ausstellung dargestellten Fälle von „schlechtem“ Klimawandel überraschen den versierten Betrachter. Es werden nur Ereignisse der letzten Jahrzehnte dargestellt. Ein Vergleich mit früheren Jahrhunderten findet nicht statt. …

2. Klimawarner und Klimaskeptiker sollten miteinander reden und sachlich auf die jeweils anderen  Argumente eingehen.

Es ist kaum noch zu übersehen. Der Klimaschutz ist in der Krise. Beinahe wie aus dem Nichts haben sich die Kräfteverhältnisse international geändert. Die USA sind dabei aus dem Klimaschutz auszusteigen. … Mehr  >> www.klimakontroverse.de#27.04.2017

Haben Sie Fragen zum Klima oder der Energiewende? Wir antworten gerne. Leichte Verständlichkeit und die offene Diskussion unterschiedlicher Ansichten stehen im Vordergrund und sollen ein Markenzeichen dieser Initiative sein.

Do, 27. April, 19:30, Freizeitheim Linden, Windheimstr. 4, 30451 Hannover
www.KlimaKontroverse.de
Kontakt: Achim Fahnenschild, info@KlimaKontroverse.de

———————-

Der CO2-Gehalt der Atmosphäre steigt. Da CO2 auch das Pflanzenwachstum ankurbelt wundert es kaum, dass auch die Pflanzenphotosynthese in den letzten beiden Jahrzehnten global um ein Drittel zugenommen hat. Dies berichtete jetzt die University of California.

———————-

Amüsanter und lehrreicher Blogbeitrag von Don Alphonso am 5. April 2017 auf “Stützen der Gesellschaft”:

Der Klimawandel als verbindliches Höllenfeuer der Moderne

Der Weise äußert sich vorsichtig, der Narr mit Bestimmtheit über das kommende Wetter.
Wilhelm Busch

Wissen ist tödlich, zumindest, wenn es das falsche Wissen ist. Ich beispielsweise hatte durch einen Zufall Seminare in Paläoethnobotanik. Das sind die Leute, die mit einem Bohrer in Sumpfgebiete gehen, die fernab der Zivilisation zu finden sind, und lange ungestört blieben. Dort versenken sie dann einen langen Bohrer im weichen Grund, und nehmen eine lange, weit hinunter reichende Sumpfprobe. Jedes Jahr werden in so einen Sumpf Pollen eingetragen, die sich dort unter Luftabschluss erhalten und nach unten sinken. Je tiefer die Probe, desto älter die Pollen. Auf diese Art sind Wissenschaftler in der Lage, relativ gut zu erkennen, welche Pollen wann eingetragen wurden, was Rückschlüsse auf die Pflanzenwelt der Vorgeschichte zulässt.

Bisher ist das alles noch harmlos, man bohrt dabei im Sumpf, man wäscht Sumpfmaterial aus, man schaut ins Mikroskop und vergleicht Pollen. Dann wartet man auf die C14-Datierung der jeweiligen Schicht. Paläoethnobotaniker können einem viel über das Auftauchen und Verschwinden von Weiden erzählen, auf die Gräserpollen schliessen lassen, oder über Ackerbau und Baumsorten. Wird beispielsweise der Wald abgeholzt, wie etwa in den Alpen zur Gewinnung von Metallen, Salz und Glas, schlägt sich das im Ausbleiben von Baumpollen auch in den Sümpfen nieder. Machen die Pest oder der Schwede die Menschen nieder, ergreift die Natur wieder Besitz vom besiedelten Raum, und Getreidepollen verschwinden. Auch diese Erkenntnis ist – außer für die früheren Menschen – nicht tödlich.

Tödlich wird es für unsereins erst, wenn man in der Konzertpause zwischen Rameau und Haydn plaudert und ganz beiläufig erwähnt, dass der gelbe Weinstock schon Triebe entwickelt, aber der blaue Weinstock bislang wenig Anstalten macht, sich mit Knospen zu zeigen. Normal ist es anders herum, und man gibt in solchen Momenten leichtfertig der Sorge Ausdruck, der blaue Weinstock könnte im strengen Winter Schaden genommen haben, und durch den Frost zugrunde…. DASKANNGARNICHTSEIN, wird man deutlich verwarnt, und dann kommen von Leuten, die in Biologie, Physik und Chemie nachweislich noch schlechter als ich waren, hochgenaue Auflistungen, dass auch dieser Winter viel zu warm war. Früher redete man über das Wetter, um zu plaudern, heute ist es lebensgefährlich.

Weiterlesen im FAZ-Blog.

 

Künstlich kleingeredet: Kleine Eiszeit ist und bleibt kälteste Phase der letzten 10.000 Jahre

Die britische Royal Astronomical Society hat es offenbar mit der Angst zu tun bekommen. Eigentlich sollte sich die RAS doch für eine ausgewogene Darstellung der Sonnenaktivität und ihrer klimatischen Wirkung einsetzen. Am 4. April 2017 jedoch tat man das genaue Gegenteil und redete die Sonne klein: Die Kleine Eiszeit sei gar nicht so extrem gewesen und die Sonne ist auch nur ein Faktor unter vielen. Großer Applaus aus der IPCC-Hardliner-Ecke, Stirnrunzeln bei den Paläoklimatologen. Denn eines ist klar: Die Kleine Eiszeit war extrem und stellt die kälteste Phase der vergangenen 10.000 Jahre dar. Die kältesten Episoden fallen exakt in die solaren Minima. Eigentlich ist der Fall klar. Musste die RAS diesen Schritt gehen, um politisch zu punkten? Zunächst hier die fragwürdige Pressemitteilung der RAS:

Paintings, sunspots and frost fairs: rethinking the Little Ice Age

The whole concept of the ‘Little Ice Age’ is ‘misleading’, as the changes were small-scale, seasonal and insignificant compared with present-day global warming, a group of solar and climate scientists argue.

Explanations for the cooling to Earth’s climate, thought to have occurred between the 16th and 19th centuries, include low solar activity, volcanic eruptions, human changes to land use and natural climatological change. But in a new paper in Astronomy & Geophysics, the house journal of the Royal Astronomical Society, Professor Mike Lockwood, of the University of Reading, and his collaborators, note that the temperature shift was smaller than that seen in recent decades resulting from the emission of greenhouse gases, and that although low solar activity may have been one driving factor, it certainly was not the only one.

Professor Lockwood said: “Commentators frequently refer to the Little Ice Age in discussions on climate change. We wanted to carry out a comprehensive study to see just how reliable the evidence is for a cooler climate, how big an impact it really had and how strong the evidence for a solar cause really was. “On the whole the Little Ice Age was a manageable downturn in climate concentrated in particular regions, even though places like the UK had a larger fraction of cold winters. Our research suggests that there is no single explanation for this, that warm summers continued much as they do today and that not all winters were cold.”

Researchers scrutinised historical records, such as the accounts of ‘frost fairs’ when the River Thames froze solid, and looked at the paintings from the era, such as the landscapes of Pieter Bruegel the Elder, with ‘Hunters in the Snow’ depicting a cold winter scene. Both of these are cited in support of the Little Ice Age concept. From around 1650-1710, and to a lesser extent from 1790-1825, periods respectively known as the Maunder and Dalton Minima, sunspot numbers were unusually low, an indication that the surface of the Sun was slightly cooler. This external influence is often suggested as an explanation for the colder conditions. The Reading-led team looked at the various pieces of evidence in more detail. They compared direct temperature records and proxy data such as ice records, with the years when the Thames was frozen over (whether or not a frost fair took place), and with the indications of solar activity.

Historical climate change is assessed through a variety of means. The Central England Temperature (CET) dataset tracks temperature from 1659, making it the oldest and longest running meteorological instrumental data sequence in the world. This direct record is supplemented by studies of biological proxies such as tree rings, corals, insect numbers and molluscs, all sensitive to climate change. The authors draw comparisons with the ice ages proper. Cores taken from Antarctic ice allow global temperatures to be inferred, by measuring the proportions of deuterium (2H), a heavier atom of hydrogen, and of the heavier oxygen atom 18O, compared with their lighter ‘normal’ counterparts. It takes more energy to evaporate water with a higher proportion of these atoms, and they are more easily lost from rainfall, before they are deposited in ice found nearer the poles. The changing proportion of these atoms then allows researchers to assess how the temperature has changed over millions of years.

From these comparisons, the scientists argue that the description of the period as an Ice Age is misleading, as temperatures in that period fell far less than in a glaciation. During the Little Ice Age (LIA), the average temperature in the northern hemisphere fell by around 0.5 degrees. In contrast, in the most recent major glaciation that came to an end around 12,000 years ago, global temperatures were typically 8 degrees Celsius colder than today. Frost fairs also seem to be a poor indication of overall climate, as they often did not take place despite the Thames freezing, partly for many reasons including puritanical authorities or safety as lives were lost when the ice melted. The ending of the frost fairs had nothing to do with climate change or solar activity, instead being due to the increased river flow when the original London Bridge was demolished in 1825, and the first Victoria embankment opened in 1870. Both of these prevented the river from freezing completely, despite many subsequent cold winters.

Selective use of art historical evidence appears to reinforce the illusion of a prolonged cold spell. Yet ‘Hunters in the Snow’, depicting a January scene, is part of a series by Bruegel known as ‘The Twelve Months’. Seven of these paintings may have been lost, but ‘The Gloomy Day’ (February), ‘Haymaking’ (July), and ‘The Return of the Herd’ (November) all give no indication of unusually cold conditions. Consistent with this, Lockwood and his team note that even at the height of the LIA period, colder European winters were still accompanied by many warm summers. For example, 1701 is close to the lowest point of the Little Ice Age, yet in both Paris and London the summer was reported as being unbearably hot and the CET for July that year is the 10th hottest on record, with average temperatures for the month reaching 18.3°C. The year 1676 is the second hottest June on record at 18.0°C, yet it too was in the middle of a run of cold winters. Such high summer temperatures do not fit at all with the name “Little Ice Age.”

Much more dramatic variations can result from large volcanic eruptions. Samalas, a volcano which erupted in 1257 in what is now Indonesia, ejected large amounts of dust into the atmosphere, causing a temporary cooling effect. The years between 1570 and 1730, corresponding to the coldest part of the LIA, also saw continuous lower level volcanic activity that may have suppressed temperatures. Volcanic eruptions undoubtedly cause both cold winters and cold summers. One of the clearest examples was the Tambora eruption of July 1815, which caused the next year to be called “the year without a summer.” Professor Lockwood said: “This study provides little solace for the future, as we face the challenge of global warming. Solar activity appears to be declining at present, but any cooling effect that results will be more than offset by the effect of rising carbon dioxide emissions, and provides us with no excuse for inaction.”

Eine Gleichsetzung der Kälte der Kleinen Eiszeit mit derjenigen einer richtigen Eiszeit hatte nie irgendjemand behauptet. Insofern bringt der von Lockwood und Kollegen sensationsheischende Fund “die Kleine Eiszeit war wärmer als die Große Eiszeit” nicht wirklich etwas Neues. Die im Paper Lockwood et al. 2017 verglichenen Daten sind lokal, bei den Daten der nördlichen Hemisphäre wurde offenbar ein ansonsten wenig verwendeter Datensatz verwendet. Hunderte anderer Klimakurven wurden ignoriert. Die Sonnenaktivität wurde allein über die Sonnenflecken dargestellt, obwohl es andere verlässliche Daten gibt wie z.B. isotopenbasierte solare Reihen. Insgesamt ein wenig zufriedenstellendes Paper, das eher durch Fotos von Gemälden als durch Datenvielfalt auffällt.

Um diesem Datenmangel entgegenzuwirken, hat das Kalte-Sonne-Team bereits mit Vorbereitungen zu einer eigenen Publikation zur Kleinen Eiszeit und der Auswirkungen der solaren Schwächeepisoden begonnen. Vielleicht können wir Ihnen an dieser Stelle in ein paar Monaten eine ausgewogenere Darstellung ankündigen.

 

Slowdown: Die gebremste Erwärmung der letzten anderthalb Jahrzehnte und ihre Gründe

Stefan Rahmstorf ist gegen den Erwärmungshiatus. Für ihn existiert er nicht. Er lebt lieber in der schönen heilen Rahmstorf-Welt, in der die Erwärmung ungebremst weiter voranschreitet, eine komisch-schaurige Parallelwelt, die nichts mit der Wirklichkeit zu tun hat. Der Rest der Fachwelt sieht die Dinge zum Glück etwas realistischer und publiziert fleißig zu den Gründen des Hiatus bzw. Slowdowns. Das Institut für atmosphärische Physik der Chinesischen Akademie der Wissenschaften gab zum Thema nun sogar eine Pressemitteilung heraus:

New Study Reveals the Atmospheric Footprint of the Global Warming Hiatus

The increasing rate of the global mean surface temperature was reduced from 1998 to 2013, known as the global warming hiatus or pause. Great efforts have been devoted to the understanding of the cause. The proposed mechanisms include the internal variability of the coupled ocean-atmosphere system, the ocean heat uptake and redistribution, among many others. However, the atmospheric footprint of the recent warming hiatus has been less concerned. Both the dynamical and physical processes remain unclear. 

In a recent paper published in Scientific Report, LIU Bo and ZHOU Tianjun from the Institute of Atmospheric Physics, Chinese Academy of Sciences have investigated the atmospheric anomalous features during the global warming hiatus period (1998-2013). They show evidences that the global mean tropospheric temperature also experienced a hiatus or pause (Fig. 1). To understand the physical processes that dominate the warming hiatus, they decomposed the total temperature trends into components due to processes related to surface albedo, water vapor, cloud, surface turbulent fluxes and atmospheric dynamics. The results demonstrated that the hiatus of near surface temperature warming trend is dominated by the decreasing surface latent heat flux compared with the preceding warming period, while the hiatus of upper tropospheric temperature is dominated by the cloud-related processes. Further analysis indicated that atmospheric dynamics are coupled with surface turbulent heat fluxes over lower troposphere and coupled with cloud processes over upper troposphere. 

Figure 1. (a) Global mean temperature anomalies from 1950 to 2015 and (b) linear trends of global mean temperature for near surface (i.e. the lowest atmospheric layer), and the vertical average of the whole (surface to 100hPa), lower (surface to 500hPa), and upper troposphere (500hPa to 100hPa). Red (black) bars are for the warming period. Blue(white) bars are for the hiatus period. (Liu and Zhou, 2017)

As to why the surface latent heat flux, atmospheric dynamics and cloud-related processes showed such large differences between 1983-1998 and 1998-2013, LIU, the first author of the paper, explained, “They are dominated by the Hadley Circulation and Walker Circulation changes associated with the phase transition of Interdecadal Pacific Oscillation (IPO).” According to LIU, the IPO is a robust, recurring pattern of sea surface temperature anomalies at decadal time scale. During a positive phase of IPO, the west Pacific and the mid-latitude North Pacific becomes cooler and the tropical eastern ocean warms, while during a negative phase, the opposite pattern occurs. The IPO has shifted from the positive phase to negative phase since 1998/1999, and this transition has led to the weakening of both Hadley Circulation and Walker Circulation, which served as a hub linking the three processes mentioned above. 

 “Though the heat capacity of the atmosphere is nearly negligible compared with the ocean”, said ZHOU, the corresponding author of the paper, “understanding the atmospheric footprint is essential to gain a full picture of how internal climate variability such as IPO affects the global climate from the surface to the troposphere. The new findings also provide useful observational metrics for gauging climate model experiments that are designed to understand the mechanism of global warming hiatus”.   

Citation: Liu, B. & Zhou, T. Atmospheric footprint of the recent warming slowdown. Sci. Rep. 7, 40947 (2017). http://www.nature.com/articles/srep40947

Mit anderen Worten: Der Hiatus wurde durch die Ozeanzyklen ausgelöst. Konnte man übrigens bereits 2012 in unserem Buch “Die kalte Sonne” nachlesen. Vielleicht kommt die Message demnächst sogar in Potsdam an.

Am 15. April 2017 erschien dann noch ein weiteres Paper zum Thema. Oka und Watanabe erläuterten in den Geophysical Research Letters, dass die gebremste Erwärmung mit der Ozeanzyklik im Pazifik zu tun habe:

The post-2002 global surface warming slowdown caused by the subtropical Southern Ocean heating acceleration
The warming rate of global mean surface temperature slowed down during 1998–2012. Previous studies pointed out role of increasing ocean heat uptake during this global warming slowdown, but its mechanism remains under discussion. Our numerical simulations, in which wind stress anomaly in the equatorial Pacific is imposed from reanalysis data, suggest that subsurface warming in the equatorial Pacific took place during initial phase of the global warming slowdown (1998–2002), as previously reported. It is newly clarified that the Ekman transport from tropics to subtropics is enhanced during the later phase of the slowdown (after 2002) and enhanced subtropical Ekman downwelling causes accelerated heat storage below depth of 700 m in the subtropical Southern Ocean, leading to the post-2002 global warming slowdown. Observational data of ocean temperature also support this scenario. This study provides clear evidence that deeper parts of the Southern Ocean play a critical role in the post-2002 warming slowdown.

———————-

Der Geowissenschaftler Henry Lyatsky veröffentlichte am 7. März 2017 einen lesenswerten Aufsatz zur Logik des Klimawandels:

SCIENTIFIC LOGIC AND CLIMATE CHANGE

This scientific “truth” was drilled into me, a young geology undergrad    in Calgary, by esteemed professors in basic courses at the beginning of the 1980s. In the 1970s the media were abuzz with global-cooling scares. Cooling was supposedly a scientific fact. Thankfully, the old fears of an impending new ice age have so far proved unfounded. But now, global warming has replaced the global-cooling craze. This article is not, by any means, a final word. I am neither a climatolo- gist nor a logician. My purpose is to encourage the readers to explore scientific logic, to always be skeptical, to question the methods and the motives, and to always be ready to wonder and be surprised.

Empiricism

Natural science is empirical. Empiricism says knowledge is derived from what we can sense or observe. Knowledge is gained by passive observation of natural occurrences or by active, preferably controlled, experiments. Epistemology is the study of human knowledge. It deals with how we know things.Much philosophical ink has been spilled on these subjects over the past several millennia. Too much of that ink flowed uselessly, or it is irrelevant to the discussion at hand. Only a few key points are summarized below.Karl Popper (1950, 1968) was probably the past century’s foremost empirical philosopher. He taught that a legitimate scientific hypoth- esis must be falsifiable, i.e., capable of being disproved by subsequent observations or experiments. If a “theory rules out certain possible occurrences, … it will be falsified if these possible occurrences do in fact occur”.

Weiterlesen bei der CAGW

 

Kirchenkult gegen Klimawandel: Bischof segnet Eisbär

Kein anderes Tier wird von Klimaaktivisten so instrumentalisiert wie der Eisbär. Vor einigen Jahrzehnten ging es dem weißen Ursus richtig schlecht, da er im großen Maßstab gejagt wurde. Dann stieg die Population jedoch wieder steil nach oben, da die Jagd stark eingeschränkt wurde. Klimaaktivisten ignorieren diese Entwicklung. Sie behaupten, das schwindende arktische Meereis würde das Aus für den Eisbären bedeuten. Seltsam, denn vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmeperiode gab es bereits schon einmal eine Eisarmut, und der Eisbär hat gut überlebt. Dies hat wohl auch damit zu tun, weil der Eisbär ein vielseitiger Esser ist. Wenn die Robben fehlen, kann er auch bequem auf andere Nahrung ausweichen. Wir haben an dieser Stelle bereits vielfach darüber berichtet.

Nichtsdestotrotz hat der Eisbär bereits religiösen Kultstatus bei den wissenschaftsfernen Aktivistengruppen erreicht. Zum Beipiel bei den Katholiken (Meldungauf kath.ch vom 15. Februar 2017):

Gegen den Klimawandel: Bischof segnet Eisbär
Um öffentlich auf die Folgen des Klimawandels aufmerksam zu machen, will der Freiburger Erzbischof Stephan Burger im Karlsruher Zoo einen Eisbären segnen. Tiere müssten als Mitgeschöpfe geachtet werden; Eisbären litten schon heute stark unter den steigenden Temperaturen.

Weiterlesen auf kath.ch

Als nächstes werden wohl Gletscher und Schneewehen gesegnet.

Eine wissenschafliche Studie von Susan Crockford (University of Victoria, Kanada) untersuchte den behaupteten Zusammenhang von Eisschmelze und Eisbärpopulation. Das Ergebnis: Die Hypothese ist nach statistischer Prüfung der Daten nicht robust. Das hängt vielleicht auch damit zusammen, dass die arktische Eisbärpopulation von 2015 auf 2016 sogar leicht gestiegen ist. Daily Caller vom 16. Februar 2017:

Polar Bear Numbers Still On The Rise, Despite Global Warming
Polar bear populations are still growing despite global warming, according to new research. The new population estimates from the 2016 Scientific Working Group are somewhere between 22,633 to 32,257 bears, which is a net increase from the 2015 number of 22,000 to 31,000. The current population numbers are a sharp increase from 2005’s, which stated only 20,000 to 25,000 bears remained — those numbers were a major increase from estimates that only 8,000 to 10,000 bears remained in the late 1960s. Until the new study, bear subpopulations in the Baffin Bay and Kane Basin (KB) were thought to be in decline due to over-hunting and global warming. The new report indicates this is not the case.

Weiterlesen auf Daily Caller

Polarbearscience.com am 15. Februar 2017:

The 2016 Scientific Working Group report on Baffin Bay and Kane Basin polar bears was released online without fanfare last week, confirming what local Inuit have been saying for years: contrary to the assertions of Polar Bear Specialist Group scientists, Baffin Bay and Kane Basin subpopulations have not been declining but are stable.

 Quelle: Crockford, WUWT.

 

 

Siehe auch Beitrag von Helmut Kuntz “Ein Eisbär wird vom Erzbischof als Märtyrer des Klimawandels gesegnet” auf EIKE vom 24. März 2017.