News und Termine

Kalte Sonne in der Osnabrücker Zeitung

Interessante Geschichte in der FAZ vom 1. Juni 2017:

Und es vererbt sich doch
Neue Experimente zeigen, dass Tiere epigenetisch gespeicherte Umweltanpassungen vererben. Gilt ähnliches auch für den Menschen, werden wir alle umdenken müssen.

Sie gehört zu den umstrittensten Behauptungen der Biologie: die Aussage, dass Tiere mehr vererben als ihre Gene, dass sie also zusammen mit ihren Ei- und Samenzellen auch solche Umweltanpassungen an folgende Generationen weitergeben, die sie im Laufe des Lebens erworben haben. Übertragen auf uns Menschen, würde das zum Beispiel bedeuten, dass die Art, wie wir uns ernähren, oder die Menge an psychischen Belastungen, die wir aushalten mussten, dazu beitragen, was und wie viel unsere Kinder und womöglich sogar unsere Enkel zeitlebens essen und wie anfällig sie für Stresskrankheiten sind.

Weiterlesen in der FAZ

———————-

Die Entwicklung der Frosttage ist offenbar weniger stark an den anthropogenen Klimawandel gekoppelt als gedacht. Pressemitteilung der University of Utah vom 23. Mai 2017:

Weather patterns’ influence on frost timing

Air circulation affects frost more than global warming — for now

Gardeners know the frustration of a false spring. Coaxed outside by warm weather, some people plant their gardens in the spring only to see a sudden late frost strike at the plants with a killer freezer burn. Grumbling green thumbs, along with farmers and water supply managers, would benefit from more accurate predictions of the first and last frosts of the season. Such timing is in flux, however. The frost-free season in North America is approximately 10 days longer now than it was a century ago. In a new study, published today in Nature Communications, researchers from the University of Utah and the U.S. Geological Survey parse the factors contributing to the timing of frost in the United States. Atmospheric circulation patterns, they found, were the dominant influence on frost timing, although the trend of globally warming temperatures played a part as well. “The frost-free season has been lengthening over the past century, and now we understand the changes in atmospheric circulation that are extremely strong in frost timing, even stronger than global warming,” says University of Utah atmospheric sciences professor Court Strong.

Weather and climate are complex systems, with many factors affecting what the particular weather conditions might be in a certain place at a certain time. Previous research, says Gregory McCabe, of the USGS in Denver has focused on the role of large-scale phenomena like El Niño. “I don’t think anyone has broken it down to look at the circulations patterns specific to the timing of frost,” McCabe says. Strong and McCabe set out to investigate the relative contributions of the global warming trend and local atmospheric circulation patterns to the century-long lengthening of the frost-free season.

“If you ask a U.S. forecaster what determines the first fall frost, they’ll say a cold air mass coming down out of Canada, clearly due to circulation,” Strong says. “There’s a role for warming, but on the other hand forecasters will tell you there’s clearly a role for circulation as well.” To more accurately capture regional, relatively small-scale circulation patterns, Strong and McCabe divided the United States into four regions, and examined separately how frost timing patterns varied in each region over 93 years of weather data.

The researchers found that atmospheric circulation patterns accounted for between 25 and 48 percent of the variation in frost timing. To put that in context, Strong says, remember that the frost-free season has lengthened by an average of 10 days over the past century. Three to five of those days can be accounted for by atmospheric circulation, while three days can be chalked up to global warming. Other factors, such as local cloud cover, may account for the remaining two to four days. Although the results show that atmospheric circulation is the primary driver of frost timing, the warming trend exerts an influence over circulation beyond the general trend of warming temperatures. “We also found evidence that these circulation patterns themselves have been altered by global warming, especially in the Western U.S. and the Northwest,” Strong says. “Warming is an important part of this narrative despite this finding that circulation is a stronger driver historically.”

Next, Strong and McCabe will evaluate how well climate models capture the drivers of frost timing and look for ways the models can be improved. Better modeling of atmospheric patterns leads to more accurate forecast of future frost timing. “The year-to year variability in climate is controlled by these changes in atmospheric circulation,” McCabe says. “On top of that you have the warming trend. If you don’t get these patterns right then the simulations are going to have a lot of uncertainty in them.” This study was partially funded by a grant from the National Science Foundation (the iUTAH project; award EPS-1208732).  Find the full study here.

———————-

Wir verstehen uns hier auch als Diskussionplatform. Ein Leser hat einen Essay zum Treibhauseffekt erstellt, den er zur Diskussion stellen möchte. Titel:

The Greenhouse Effect – Does it even exist?

Sie können das pdf hier anschauen.

———————-

Osnabrücker Zeitung am 1. Juni 2017:

Deutsche Klimawandel-Skeptiker springen Trump zur Seite

Im Artikel werden wir dann wie folgt beschrieben:

Als einer der bekanntesten deutschen Klimaskeptiker gilt Fritz Vahrenholt. Der ehemalige RWE-Manager und SPD-Politiker hat 2012 gemeinsam mit dem Geologen Sebastian Lüning das Buch „Die kalte Sonne – Warum die Klimakatastrophe nicht stattfindet“ veröffentlicht. Die Kernthese des Buchs lautet, dass nicht der Mensch und Kohlenstoffdioxid entscheidend zur globalen Erwärmung geführt hätten, sondern vor allem Änderungen der Meeresströmungen und der Sonnenaktivität. In der Beschreibung des Buchinhalts heißt es auf seiner Homepage: „Selbst bei steigenden CO2-Emissionen wird die Erwärmung in diesem Jahrhundert 2 Grad Celsius nicht überschreiten. Die Erwärmungswirkung von CO2 ist überschätzt worden. Neueste Erkenntnisse zeigen, dass Ozeanzyklen und die Sonne, die kürzlich in eine längerfristige strahlungsarme Phase getreten ist, einen größeren Beitrag zum Klimageschehen leisten als bisher angenommen.“

Volontär Yannick Richter hat zwar verstanden, dass wir die natürlichen Klimatreiber Sonne und Ozean zu wenig beachtet finden. Allerdings hat er offenbar übersehen, dass wir dem CO2 eine Erwärmungswirkung zuordnen, die am unteren Rand der offiziell vom IPCC genannten Spanne liegt. Zitat aus unserem Buch, Seite 32:

Wir sind weit davon entfernt, zu behaupten, dass CO2 keinen Einfluss auf das heutige Klimageschehen hätte. Jedoch können wir zeigen, dass mindestens die Hälfte der Erwärmung der letzten vierzig Jahre dem Einfluss der Sonne sowie zyklischen ozeanischen Oszillationen der Weltmeere geschuldet ist. CO2 könnte für die andere Hälfte der Erwärmung verantwortlich sein, möglicherweise ist der Anteil aber sogar noch geringer.

 

Schnell mal im Selbstversuch die Welt retten

Von Uli Weber

Als ich vor mehr als 35 Jahren noch regelmäßig die „Computerwoche“ las, träumten dort alle von „künstlicher Intelligenz“. Heute haben unsere PCs mehr Rechenkapazität als ein damaliger Supercomputer, aber die einzige real existierende künstliche Intelligenz, die einem im Alltag schon mal begegnen kann, sind Wikipedia und die eigenwillige Sprachführung auf irgendeiner telefonischen Kundenhotline… Und jetzt überschlagen sich Automobilindustrie, Politik und Medien in Schwärmereien über eine schönere neue automobile Zukunft mit einem selbstfahrenden und wieder aufladbaren Elektroauto zur Rettung des „Weltklimas“. Wollen tatsächlich alle Verbraucher ein solches Auto? Nein, ganz bestimmt nicht alle, ich will es jedenfalls nicht!

Foto: Uli Weber

 

Ein moderner Diesel-PKW ohne Zuheizer erreicht heute schon fast den Heizungsstandard eines seligen VW Käfers. Beim E-Auto ist da noch beliebig viel Luft nach unten, denn dort konkurrieren im Winter die Heizung (und im Sommer die Klimaanlage) mit dem Elektroantrieb um die spärlichen Batteriekapazitäten. Vielleicht müssen Sie zur Strafe für winterliche Heizungsexzesse dann ja unterwegs mit Ihrem E-Auto doch mal einen ungeplanten Boxenstop an einer Ladestation einlegen, an der schon eine ganze Schlange von Leidensgenossen wartet. Und dort stellt sich dann ganz nebenbei auch noch die Frage, wie es beim winterlichen Warten auf das Aufladen des Akkus mit klimagerechtem EEG-Strom eigentlich mit der Heizung des Innenraums aussieht. Vielleicht bietet sich dafür ja eine benzinbetriebene Standheizung an – oder ein klimakorrektes Windrad als kostenpflichtiges Fahrzeugzubehör. Sollte der Lagevorgang mit EEG-Strom allerdings während einer winterlichen Dunkelflaute erforderlich werden, dann ist Wintercamping an der Ladestation angesagt; hoffentlich sind die Ladestationen dann entsprechend ausgerüstet. Schnell mal irgendwo hinfahren geht dann jedenfalls gar nicht mehr, Überlandfahrten erfordern vielmehr eine ganz präzise Vorplanung

Wer also nicht selber fahren und sich um gar nichts oder sein Smartphone kümmern möchte, der kann ja immer noch den Bus, die Bahn oder das Taxi nehmen. Bus und Bahn fahren allerdings auf festgelegten Linien und halten nur an bestimmten Haltestellen, und das Taxi ist teuer. Und hier setzt dann der Traum vom selbstfahrenden E-Auto an, denn das ist noch viel teurer.

Was heißt nun eigentlich „selbst fahren“? Naja, das Auto fährt dann von selbst und Sie müssen nur noch aufpassen, dass es alles richtig macht. Sie bleiben nämlich voll für Ihr selbstfahrendes Auto verantwortlich; Sie fahren also nicht mehr selbst, sind aber selbst für das Nichtselbstfahren verantwortlich. Dieses Verantwortlichsein können Sie ja mal ausprobieren, beispielsweise in Bus, Bahn oder Taxi. Dann können Sie dort allerdings auch nicht mehr die Zeitung lesen oder auf Ihrem Smartphone herumspielen, denn Sie müssen ja verantwortlich auf das Selbstfahren aufpassen – und schon ist der ganze schöne „Gefahrenwerden“-Effekt im Eimer.

Beim selbstfahrenden Auto sind Situationserkennung, Entscheidungsfindung und Kommunikation lebenswichtig. Wer bei starkem Regen schon mal durch den Spray eines entgegenkommenden Lastwagens gefahren ist weiß, wie schnell man da orientierungslos werden kann. Die entscheidende Frage ist, ob in einem solchen Fall die Entscheidungsfindung des selbstfahrenden Fahrzeugs funktioniert oder es dann die Verantwortung überstürzt an den gerade anderweitig beschäftigten Fahrer zurückdelegiert. Moderne Autos verfügen je nach Ausstattung bereits heute schon über einige wirklich praktische Helferlein, aber intelligent? Vergessen Sie beispielsweise mal den Abstandstempomaten und biegen Sie, hinter einem LKW fahrend, auf die Autobahnausfahrt ab – es wird beim Abbiegen vollautomatisch genau das Gegenteil von dem passieren, was in dieser Situation angebracht wäre. Bevor das „intelligente“ Helferlein beim Abbiegen wieder „freie Fahrt“ erkennt, muss es also vom Fahrer rechtzeitig abgeschaltet werden…

Es ist also zunächst einmal fraglich, ob wir uns in Zukunft tatsächlich auf selbstfahrende Fahrzeuge verlassen können, die in jeder unübersichtlichen Situation intuitiv vorausschauend Bescheid wissen und insbesondere auch selbständig erkennen können, dass eine Situation überhaupt erst unübersichtlich zu werden droht.
Oder soll hier vielleicht der Kunde einer völlig abgehobenen Automobilindustrie helfen, ein ewiges Beta-Produkt im automobilen Selbst(mord?)versuch permanent an die Wirklichkeit des real existierenden Straßenverkehrs anzupassen, nur um das „Weltklima“ zu retten?  Ach ja, da fällt mir ein, dass die Kommunikation mit Automobilherstellern für den Endkunden ja auch nicht immer ganz barrierefrei ist. Offenbar unterhält man sich dort lieber mit Politikern und Medien, die einen ähnlichen Abstand zu den Lebensrealitäten der Bürgerinnen und Bürgern gewonnen haben und in egoistischer Selbstverwirklichung lieber die ganze Welt retten wollen…

Das selbstfahrende Elektroauto wäre also ein Erlebnis wie ein spannender Hollywood-Thriller: Man sitzt in der ersten Reihe, isst Popcorn und fragt sich in Anlehnung an den Abgasskandal ständig, ob das selbstfahrende Fahrzeug und dessen Programmierer wohl auch wirklich an all das gedacht haben mögen, was da so gerade auf einen zukommt. Und in dieser schönen neuen Auto-nomen Zukunft lässt man sich dann beim buchstäblichen „Gefahrenwerden“ von der Chaostheorie überraschen – ein gewisser Dr. Malcolm aus dem „Jurassic Park“ lässt auch ganz herzlich grüßen.

Ein selbstfahrendes Auto ist also todsicher wahnsinnig spannend, aber ohne spezialisierte Fachkräfte würde ein solcher Selbstversuch wohl nicht so gut ausgehen – dazu müsste man dann zur Sicherheit wohl zusätzlich noch einen eigenen Stuntmen engagieren, der auf das „Gefahrenwerden“ aufpasst. So gesehen könnte die alternative Mobilität also auch noch klimaneutrale Arbeitsplätze schaffen.

Und eine Problemlösung mit einem eigenen Chauffeur dürfte am Ende sicherlich auch sehr erfolgreich funktionieren, man nehme zum Beweis einfach mal ein Taxi. Aber damit können Sie natürlich unser Weltklima nicht retten, denn das hat ja einen Dieselmotor…

 

Konfliktforscherin verwehrt sich gegen simplistische Erklärmuster von Klimawandel und Konflikten

Spannender Artikel von Axel Bojanwoski am 14. Mai 2017 bei Spiegel Online:

Das Geheimnis des roten Sonnenflecks
In Europa scheint die Sonne stärker in den vergangenen Jahren – Messungen der Sonnenstrahlung offenbaren eine rote Zone, die bis nach Deutschland reicht. Was geht vor? [...] Sofort ins Auge springt ein knallroter Fleck über Bayern, Österreich, Nordostitalien und Tschechien [wo die Sonnenstrahlung zugenommen hat]. Doch auch der Großteil des übrigen Europa ist orange oder gelb, nur der Nordosten, Nordwesten und Südosten sind blau – dort ist die Sonnenstrahlung schwächer geworden. Veränderte Bewölkung kann nicht die Ursache sein, denn nur Messdaten unter blauem, wolkenlosem Himmel wurden ausgewertet. Und an der Sonne selbst kann es auch nicht liegen, sie scheint gleichmäßig auf die Erde. [...] Die Zunahme der Sonnenstrahlung sei also Folge geringerer Luftverschmutzung, berichtete Blanka Bartók nun auf der Jahrestagung der European Geosciences Union (EGU) in Wien, wo sie ihre Karte präsentierte.

Ganzen Beitrag auf Spiegel Online lesen.

———————-

Eine Konfliktforscherin der University of Sussex verwehrt sich vehement gegen simplistische Modelle, dass eine Klimaerwärmung automatisch eine Zunahme von Konflikten bedeutet. Die GWPF fasste ihren Vortrag zusammen und zitiert Clionadh Raleigh:

There is a cottage industry that has emerged to promote [the climate conflict relationship] and others very similar to it, and those people and institutions …will find evidence or will…I hesitate to use the word “manipulate”…they will provide evidence as they see fit. There’s plenty of evidence that many of these presumed relationships are nonsense, but they are routinely used by the military or development organisations or by government…”

[...]

…the 150 different militia groups that have emerged in Libya or the 1000 that have emerged within Syria are not doing it because it didn’t rain 10 years ago. That’s not why they’re fighting… It did disturb me, the way [climate] caught on as the main lens through which people wanted to understand violence…especially the narrative about Syria is quite disturbing”

[...]

In very recent years, natural scientists have picked up on [the climate conflict] discussion. I would go so far as to say that their arguments are out and out environmental determinism: temperature goes up, violence goes up. It’s horrific…to imply that about people who are leading very difficult lives…to imply that they are somehow naturally violent is appalling.”

———————-

Alina Schadwinkel wollte am 12. Mai 2017 auf Zeit Online der Klimaskepsis mit Fakten den Boden entziehen. Wir schauen in die Argumente hinein:

Mit Fakten gegen jeden Zweifel
Die globale Erwärmung ist größtenteils menschengemacht, der Klimawandel real. Und das lässt sich auch belegen. Sieben Fakten, die selbst Skeptiker überzeugen sollten.

[...]

Nach derzeitigem Wissen ist aber nur etwa ein Zehntel der heutigen Erderwärmung auf die Sonne zurückzuführen, anderslautende Behauptungen halten einer Prüfung nicht stand (siehe etwa Nature Geoscience: Huber & Knutti, 2011 / Journal of Geophysical Research: Benestad & Schmidt, 2009). Stattdessen sprechen alle Auswertungen dafür: Die aktuelle globale Erwärmung ist zum größten Teil menschengemacht.

Fakt ist aber auch, dass die heutigen Klimamodelle die Warmphasen der letzten 10.000 Jahre nicht korrekt nachvollziehen können. Steht übrigens schwarz auf weiß im letzten IPCC-Bericht. Warum wird dies hier nicht erwähnt? Die Modelle halten eine näheren Prüfung also nicht stand. Was nun?

Bei Punkt 2 geht es um den CO2-Anstieg. Der ist unbestritten. Aber wieviel Erwärmung bringt er? Das Stichwort Klimasensitivität fehlt hier.  Bei Punkt 3 geht es um die Attribution. CO2 steigt an, Temperatur steigt an, also ist der Fall klar: CO2 ist der wichtigste Klimatreiber. Unerwähnt bleibt, dass die Sonne in der zweiten Hälfte des 20. Jahrhunderts eine ihrer stärksten Intensitäten der letzten 10.000 Jahre erreicht hat. Nur Zufall? Wenn die Attribution so einfach wäre… Punkt 4: Die Eismassen schmelzen. Stimmt. Aber geschmolzen sind sie immer wieder, z.B. zur Zeit der Mittelalterlichen Wärmeperiode (MWP) vor 1000 Jahren. Weshalb bleibt dies hier unerwähnt? Dann ein bemerkenswerter Absatz:

Fehler und Manipulationen der Vergangenheit haben die Glaubwürdigkeit der Klimaforschung angekratzt. Zwei Fälle haben für besondere Aufmerksamkeit gesorgt. Erstens die “Hockeyschläger-Kurve”. Die Grafik zeigt eine Rekonstruktion von Temperaturen über die letzten ein- bis zweitausend Jahre. In ihrer ersten Fassung von 1998 hatte sie tatsächlich statistische Schwächen. Doch eine überarbeitete Fassung – und viele andere Berechnungen – bestätigen die Grundaussage: Temperaturdaten lassen darauf schließen, dass es niemals in den vergangenen tausend Jahren so warm war wie heute.

Es ist schön, das die Hockeystick-Fehler endlich eingeräumt werden. Das wurde auch Zeit. Allerdings ist die Schlussfolgerung etwas wackelig. Derzeit ist noch unklar, ob die moderne Wärmeperiod oder MWP die Nase vorne hatte… Eines ist jedoch bereits Konsens: Während des holozänen thermischen Maximums vor 6000 Jahren war es schon einmal für längere Zeit wärmer als heute. Hätte man erwähnen können. Gut dann das Ende:

Sicherlich sind noch zahlreiche Detailfragen zu beantworten. Kein Forscher behauptet, die Klimaveränderungen seien vollkommen verstanden. Im Gegenteil: In der Gedankenwelt der Naturwissenschaft ist eine Erkenntnis nie final, sondern immer ein Zustand in einem Prozess.

 

Klimahysterie gefährdet die Freiheit

Uli Webers Buch “Klimahysterie gefährdet die Freiheit” ist jetzt auch im erschwinglichen schwarz-weiß Paperback-Format erhältlich. Preis: Euro 7,99. ISBN-13: 978-3-7448-3560-2

 

 

Inhalt: 

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern grob vereinfachender wissenschaftlicher Modellrechnungen. Solche Berechnungen ergeben aber keine eindeutigen Lösungen, sondern Lösungswolken, deren Größe dramatisch anwächst, je weiter man sie in die Zukunft hochrechnet. Die mediale Darstellung dieser Ergebnisse bleibt dann auf plakative Katastrophenszenarien beschränkt und positive Auswirkungen eines möglichen globalen Temperaturanstiegs, allein schon durch eine Verlängerung der Vegetationszeiten in höheren geographischen Breiten, gehen in der monokausalen Panikmache um unseren anthropogenen CO2-Ausstoß völlig unter.
Die Weltbevölkerung als Ganzes hat riesige Probleme, die sich nicht auf die griffige Formel reduzieren lassen, wenn wir den Ausstoß von CO2 verhindern, wird alles gut! Die CO2-Vermeidung um jeden Preis ist eine Wette unzureichender Computermodelle gegen Mutter Erde. Eine Beschränkung auf unseren CO2-Ausstoß als alleinige Ursache für den Temperaturanstieg seit 1850 lässt die Weltbevölkerung auch in Zukunft völlig ungeschützt gegen alle natürlichen Klimaschwankungen bleiben!

Daher sollten wir das Aufkommen jeglicher Angstgläubigkeit um die vorgebliche Klimakatastrophe vermeiden und unsere begrenzten wirtschaftlichen Mittel in unserer Verantwortung als der besser verdienende Teil der Weltbevölkerung nicht nur ökologisch, sondern auch ökonomisch sinnvoll und vorausschauend zum Nutzen aller Menschen auf dieser Erde einsetzen.

 

Grafisches Nudging: Glauben Sie ja nicht immer das, was Sie gerade sehen

Von Uli Weber

Wenn Sie mit irgendwelchen Grafiken von angeblichen wissenschaftlichen Tatsachen überzeugt werden sollen, dann ist höchste Vorsicht geboten.

Der versteckte Nullpunkt: Achten Sie einmal auf den Nullpunkt der jeweiligen Grafik. Sollte dieser dort nämlich in einer Ausschnittsvergrößerung gar nicht dargestellt worden sein, könnte es sich bereits um den Versuch einer Einflussnahme handeln, weil Ihnen der absolute Bezugspunkt vorenthalten wird. In diesem Fall überlegen Sie einfach einmal, wo der betreffende Nullpunkt liegen müsste und welche Folgerung sich daraus unter Berücksichtigung des jeweiligen Maßstabs für die dort getroffene Aussage ergibt.

Abbildung: Die globale Durchschnittstemperatur. Autoren: Janacek, Gareth: Practical Time Series, London (Arnold 2001). Von Fernuni Hagen.


Der Autor konnte aktuell kaum noch passende Beispiele für diese Problematik finden, auch die Abbildung oben ist schon älteren Datums. Vielmehr ist man in der Klimaforschung offenbar inzwischen dazu übergegangen, solche Temperaturkurven gleich auf einen relativen Nullpunkt ohne absolute Wertangabe zu beziehen und damit den sehr hilfreichen Bezug des Betrachters auf den tatsächlichen Nullpunkt von O Grad Celsius völlig zu unterbinden:


Abbildung: Globaler Temperaturindex Oberflächentemperaturen Land und See 1880–2016 relativ zum Mittelwert von 1951–1980. Gemeinfrei. By NASA Goddard Institute for Space Studies (http://data.giss.nasa.gov/gistemp/graphs/) [Public domain], via Wikimedia Commons

 

Neben einem imaginären Mittelwert als absoluten „0“-Punkt hilft der Argumentation natürlich auch ein eingeschränkter Betrachtungszeitraum. In beiden Abbildungen wird also ganz eindeutig ein „menschengemachter“ Temperaturanstieg zwischen 1880 und 2016 dargestellt. Wenn man jetzt aber den zeitlichen Kontext auf einen größeren Zeitraum ausweitet, dreht sich das Ergebnis plötzlich diametral um. Aus der Presseerklärung der Justus-Liebig-Universität Gießen Nr. 156 vom 9. Juli 2012:

Klima in Nord-Europa während der letzten 2.000 Jahre rekonstruiert: Abkühlungstrend erstmalig präzise berechnet… Berechnungen beeinflussen auch die Beurteilung des aktuellen Klimawandels – Gießener Wissenschaftler an Veröffentlichung in „Nature Climate Change“ beteiligt…“

Abbildung der Universität Gießen. Das rote Quadrat auf der rechten Seite bezeichnet etwa den Zeitraum, den die beiden obigen Abbildungen darstellen

 

Zitate aus dieser Pressemitteilung:

Römerzeit und Mittelalter waren wärmer als bisher angenommen: Unter Beteiligung der Justus-Liebig-Universität Gießen hat ein internationales Forschungsteam jetzt eine 2.000-jährige Klimarekonstruktion für Nord-Europa anhand von Baumjahrringen vorgestellt…

„…Im Prinzip erscheint diese Zahl nicht sonderlich beeindruckend‘, sagte Prof. Luterbacher, ‚allerdings ist sie im Vergleich zur globalen Erwärmung, die bis heute auch weniger als 1°C beträgt, nicht zu vernachlässigen. Wir konnten nun zeigen, dass die großräumigen Klimarekonstruktionen, die auch vom internationalen Klimarat ‚IPCC‘ verwendet werden, den langfristigen Abkühlungstrend über die letzten Jahrtausende unterschätzen.“

Es wird grafisch also immer wärmer, während es langfristig eigentlich immer kälter wird…

 

Vergleich von Differenzen: Noch erfolgreicher ist die zielgerichtete Darstellung von Differenzen. Der IPCC gibt den anthropogenen Anteil an der Klimagenese (Radiative Forcing) (50) mit 1,6 W/m² an, während der Beitrag der Sonneneinstrahlung dort nur 0,12 W/m² beträgt:

 

Abbildung: Die Komponenten des atmosphärischen Strahlungsantriebs. (Global average radiative forcing estimates and ranges in 2005 for anthropogenic greenhouse gases and other important agents and mechanisms) Attribution-ShareAlike 3.0 Unported (CC BY-SA 3.0). Quelle: Arne Nordmann (norro) – Own drawing, based on Image:600px-Radiative-forcings.svg.png by Leland McInnes. Wikipedia.
All data ist from the IPCC Fourth Assessment Report Summary for Policymakers.…

 

Die Argumentation des IPCC zielt dort auf eine Erklärung für den Temperaturanstieg seit 1750 ab. Der Witz ist nun, dass hier der maximal mögliche menschliche Klimabeitrag durch IR-aktive Gase, die ohne eine Primärquelle gar keinen eigenständigen Temperaturbeitrag liefern können, mit dem Differenzbetrag der vorgeblichen Schwankung der Primärquelle Sonne seit 1750 in Beziehung gesetzt wird, was optisch ein überwältigendes Szenario für einen menschengemachten Klimaeinfluss ergibt.

Wenn man nun aber die tatsächlichen Einflussgrößen auf unser Klima betrachten will, dann muss man hier die tatsächliche Sonneneinstrahlung von 1.367 W/m² in Beziehung setzen, um sich die wirkliche Relation für eine mögliche Klimarelevanz des menschlichen Einflusses vor Augen zu führen. Und da liegt dann der maximal befürchtete (sekundäre) Klimaeinfluss des Menschen bei etwa einem Promille der tatsächlichen Sonneneinstrahlung (nebenstehende Abbildung des Autors).

Der Klimaeinfluss des Menschen ist also gegenüber der Sonneneinstrahlung zu vernachlässigen.

 

Darstellung von Prozentwerten: Es ist in Mode gekommen, bei populärwissenschaftlichen Abbildungen aus der Klimaforschung die Werte der betrachteten Elemente in Prozenten anzugeben. Damit ist es nicht nur möglich geworden, Äpfel und Birnen direkt zu vergleichen, sondern auch spontane Plausibilitätsabschätzungen des Betrachters zu unterbinden. Denn selbst mit der Angabe, auf welche Basis sich die Prozentangabe bezieht, werden die tatsächlichen Zahlenwerte verschleiert und erfordern für das tiefere Verständnis eine Umrechnung, die ein fachfremder Betrachter üblicherweise nicht leisten wird.

 

Abbildung: Energiebillanz der Erde. Gemeinfrei aus Wikipedia. By Christoph S. (original image, freely redrawn by Gissi) [Public domain], via Wikimedia Commons

 

Und hier wird noch nicht einmal angegeben, welcher Strahlungswert in [W/m²] durch 100% eigentlich repräsentiert wird, also kann man’s auch gar nicht erst zurückrechnen. Oder wären Sie vielleicht auf Anhieb darauf gekommen, dass es sich hierbei um ein Viertel der Solarkonstante von 1.367 [W/m²] handelt?

 

Klimamodelle überschätzen Zunahme der globalen Niederschläge um fast die Hälfte

So langsam setzt sich das Verständnis durch, dass in der Klimamodellierungswelt nicht alles so rosig aussieht wie lange Jahre behauptet. Ein bisschen ist das wie bei der Tour de France, wo man lange seinen Helden zujubelte, bis dann die Dopingwirklichkeit schließlich herauskam. Stehen wir bei den Klimamodellen kurz vor diesem Umschwung und neuem Realismus? Ein lesenswertes Editorial in Nature vom 3. Mai 2017 lässt aufhorchen. Dort wird der Erwämungshiatus klar eingeräumt, eingeordnet und Kommunikationsfehler auf beiden Seiten der Klimadiskussion ausgemacht:

Increased scrutiny of climate-change models should be welcomed
The apparent slowdown in global warming has provided a spur for better understanding of the underlying processes. [...] Some background: the El Niño weather event in 1997 and 1998 belched a great bolus of heat from the ocean into the atmosphere, a release that was entirely consistent with expectations — as was the heady spike in global mean surface temperature that followed. From the top of the Himalayas, the rest of Earth is downhill. And, in a similar way, the 1998 peak in temperature offered an easily visualized time that climate sceptics could cherry-pick as a starting point for a ‘hiatus’, ‘pause’ or ‘slowdown’ in climate change. It’s true (of course) that the next few years saw a reduced rate of warming, or maybe even a slight cooling. And it’s also true that, soon after, some analyses showed that these observations were beginning to diverge from the suite of projections made by climate models. A few responses emerged. First: yawn — “This is nothing more than the sort of normal variability one should expect in the climate system, and models should not be expected to predict any specific dip or peak.” Second: hysteria — “Climate scientists have no idea what controls the climate system.” Third: interesting  — “Let’s figure this out.” Happily, most of the climate-science community adopted the third option. The result was a flood of publications on the topic, and the only half-joking suggestion that Nature’s publisher should launch a new journal called Nature Hiatus.

Weiterlesen in Nature

Bereits im März 2016 hatte Nature das Thema im Programm:

Where climate models fall short
Climate models tend to overestimate the extent to which climate change contributes to weather events such as extreme heat and rain. Omar Bellprat and Francisco Doblas-Reyes at the Catalan Institute of Climate Sciences in Barcelona, Spain, used an idealized statistical model to compare the frequency of weather extremes in simulations with and without climate warming. Extreme events seemed to be more closely linked to climate change when the model was forced to run at low levels of reliability than when the model error was kept to a minimum. To account for models’ biased representation of climate variability, studies should rely on calibrated model ensembles, which are commonly used by weather forecasters, the authors suggest.

Sympathischer Realismus auch in einer Pressemitteilung des Lawrence Livermore National Laboratory vom 10. Dezember 2015. Klimamodelle überschätzen die Zunahme des Niederschlags systematisch um 40%:

Climate models overestimate rainfall increases

Lawrence Livermore researchers and collaborators have found that most climate models overestimate the increase in global precipitation due to climate change. Specifically, the team looked at 25 models and found they underestimate the increase in absorption of sunlight by water vapor as the atmosphere becomes moister, and therefore overestimate increases in global precipitation. The team found global precipitation increase per degree of global warming at the end of the 21st century may be about 40 percent smaller than what the models, on average, currently predict. The research appears in the Dec. 10 edition of the journal Nature.

Evaluation of model-predicted global precipitation change with actual precipitation observations is difficult due to uncertainties arising from many sources, including insufficient spatial and historical data coverage. As an alternative approach, the team, made up of LLNL scientist Mark Zelinka and colleagues from the University of California, Los Angeles, including lead author Anthony DeAngelis, evaluated model-simulated global precipitation change through consideration of the physical processes that govern it.

The team found that the increase in global precipitation simulated by models is strongly controlled by how much additional sunlight is absorbed by water vapor as the planet warms: Models in which more sunlight is absorbed by water vapor tend to have smaller increases in precipitation. They demonstrated that model-to-model differences in increased absorption of sunlight were not controlled by how much their humidity increased, but by how much additional sunlight was trapped in the atmosphere for a given increase in humidity. Conveniently, this quantity can be measured from space, allowing the team to assess how well the models capture the physics controlling changes in global precipitation.

“This comparison with observations allowed us to see quite clearly that most models underestimate the increased absorption of sunlight as water vapor increases,” Zelinka said. “Because this acts as such a strong lever on global precipitation changes, the models are likely overestimating the increase in global precipitation with global warming.” The intensification of the hydrologic cycle is an important dimension of climate change that can have significant impacts on human and natural systems, perhaps more so than rising temperatures alone, according to Zelinka.

Commonly measured by the increase in globally averaged precipitation per degree of surface warming, hydrologic cycle intensification predictions vary substantially across global climate models. “We sought to understand the sources of this uncertainty and use the best available observations to narrow in on the most likely response,” Zelinka said. “We cannot expect to make useful predictions of local water cycle changes that are most relevant for societal impacts if we do not understand and accurately simulate the change in globally averaged precipitation.” The absorption of sunlight by water vapor is vital to understand future global precipitation changes.

Condensational heating by precipitation, absorption of sunlight by water vapor and fluxes from the Earth’s surface all combine to heat the atmosphere, keeping it in energy balance with cooling due to thermal emission up to space and down to the Earth’s surface. As the planet warms and the atmosphere emits more thermal radiation, the heating components also must increase to maintain atmospheric energy balance, and the two that matter most are absorption of sunlight and precipitation. The more heating provided by absorption of sunlight as the planet warms, the less heating is required by precipitation increases. The study notes that more reliable predictions of future precipitation change can be made by improving the representation of how radiation is transmitted through the atmosphere in global climate models. The models that have more sophisticated representations better agree with observations.

Paper: Anthony M. DeAngelis, Xin Qu, Mark D. Zelinka, Alex Hall. An observational radiative constraint on hydrologic cycle intensification. Nature, 2015; 528 (7581): 249 DOI: 10.1038/nature15770

Modellversagen auch bei der Simulation von Lebensräumen. Die Tiere der letzten Eiszeit setzten sich stur über die Vorgaben des Computersimulators hinweg und zeigten in der Realität eine Verbreitung, die gänzlich unerwartet war. Pressemitteilung der University of Oregon aus dem November 2014:

Fossils cast doubt on climate-change projections on habitats

Mammals didn’t play by the rules of modeling on where they migrated to survive last ice age, says UO researcher

Leave it to long-dead short-tailed shrew and flying squirrels to outfox climate-modelers trying to predict future habitats. Evidence from the fossil record shows that gluttonous insect-eating shrew didn’t live where a species distribution technique drawn by biologists put it 20,000 years ago to survive the reach of glaciers, says University of Oregon geologist Edward B. Davis. The shrew is not alone. According to a new study by Davis and colleagues, fossil records of five ancient mammalian species that survived North America’s last glacial period point to weaknesses in the use of ecological niche models and hindcasting to predict future animal and plant habitats. As a result, Davis says, the modeling needs to be fine-tuned for complexities that might be harvested from fossils.

Ecological niches use modern habitat distributions and climate; hindcasting adds predictive power by adding major past climate shifts into the models. That modeling combination — as seen in a 2007 study led by Eric Waltari, then of the American Museum of Natural History in New York — had the short-tailed shrew surviving the last ice age in mostly Texas and the Deep South. Conclusions drawn in other studies, Davis noted in the new study, also are biased toward southern locations for ice-age surviving mammals of the Pleistocene Epoch. Short-tailed shrew, according to fossil records, did not live in the predicted ranges. Instead they lived across north central and northeast United States, closer to the glaciers and where they are widely found today.

“It’s almost as though it is living in all of the places that the model says it shouldn’t be living in and not in any of the places that the model says it should be living in,” said Davis, who also is manager of the paleontological collection at the UO Museum of Natural and Cultural History. “This suggests to me that whatever the model is keying on is not actually important to the shrew.” Nor to the American marten (Martes americana), two species of flying squirrels and the Gapper’s red-backed vole (Myodes gapperi), all of which lived mostly outside of predicted ranges, according to the fossil record. Northern (Glaucomys sabrinus) and southern (Glaucomys volans) flying squirrels, the Davis study found, shared a compressed geographic region. It may be, Davis said, that some species tolerate competition under harsh conditions but separate when abundant resources are available.

Davis noted that an important but under-cited 2010 paper on rodents by Robert Guralnick of the University of Colorado and Peter B. Pearman of the Swiss Federal Research Institute also showed problems with hindcast projections. Those for lowland rodents in the last ice age did not hold up, but those for a higher elevation species did. “Our findings say that we need to pay more attention to the potential problems we have with some of our modern methods, and the way that we can improve our understanding of how species interact with the environment,” said Davis, who added that his study was inspired by Waltari’s. “The way to improve our forecasting is to include data from the fossil record. It can give us more information about the environments that species have lived in and could live in.” The findings appear in the November issue of the journal Ecography. In a special section of the journal, the Davis paper is packaged with four papers on research initially presented in a symposium on conservation paleobiogeography in 2013 at a biennial meeting of the International Biography Society. The Davis paper is co-authored by Jenny L. McGuire, now at Georgia Tech University, and former UO doctoral student John D. Orcutt, who is now at Cornell College in Iowa.

Davis and McGuire co-hosted the symposium, edited the special issue and penned an editorial that accompanies the five papers. Conservation paleobiogeography, Davis said, “is the idea that we can help people understand questions that arise from conservation needs using data from the fossil record.” Doing so, he said, may explain how species shift their ecological roles, or evolve, to survive amid abrupt changes in their habitats. “Our paper raises questions about some of the work on projecting future ranges of mammals, and we suggest some directions forward,” Davis said. “We have concerns about the precision of the modeling techniques now being used. We don’t have any concerns about climate change happening and that it going to cause geographic range shifts for mammals and plants. The thing I want to do, as a scientist, is to have the best models possible so as we’re making informed decisions as a society.”

Paper: Edward Byrd Davis, Jenny L. McGuire, John D. Orcutt. Ecological niche models of mammalian glacial refugia show consistent bias. Ecography, 2014; DOI: 10.1111/ecog.01294

 

Spannendes Rennen gegen Ende der letzten Eiszeit: Zunächst gleichauf, dann übernahm CO2 die Führung, schließlich gewann die Temperatur mit 400 Jahren Vorsprung

Sie kennen die Geschichte: CO2 und Temperatur verliefen in den letzten 500.000 Jahren auf den ersten Blick ziemlich parallel. Daraus ersponn dann Al Gore, dass dies der Beweis für die Klimakraft des CO2 wäre. Wenn man dann aber genauer hinschaut, sieht man, dass sich erst die Temperatur bewegt, und dann mit einem zeitlichen Verzug von einigen 100 Jahren das CO2. Ein klassischer Ausgasungseffekt bei der Erwärmung (siehe “Alfred-Wegener-Institut: Glazial-/Interglazialänderungen der CO2-Konzentration primär von der Temperatur kontrolliert“). Später nimmt dann das kühlere Wasser das CO2 wieder auf, was die CO2-Konzentration in der Atmosphäre reduziert. Das gefile den Vertretern der Klimaalarm-Linie natürlich überhaupt nicht. Vor einigen Jahren kamen daher Aktivisten und massierten die Daten solange, bis der unbequeme zeitliche Verzug weggezaubert war. Eine just-in-time Produktion für den IPCC-Bericht (siehe: “Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“).

Was gibt es Neues aus dieser Sparte? Am 30. Mai 2017 erschien in Climate of the Past Discussion ein Beitrag von Léa Gest und Kollegen. Sie haben sich die Zeitlichkeit von Temperatur und CO2 in antarktischen Eiskernen noch einmal gründlich angeschaut. Während die Temperatur in der isotpischen Eiszusammensetzung gespeichert ist, wird die CO2-Konzentration in Eisblasen gemessen, die sich aber erst in einer Tiefe von 50-120 m Eisüberdeckung schließen, also mit einigem zeitlichen Abstand zur Ablagerung des Eises und der Temperaturinformation. Ein Teil der 800-Jahres-Verspätung des CO2 gegenüber der Temperatur könnte also in diesem Effekt stecken.

Das Resultat lässt aufhorchen: Es gibt nämlich keinen einheitlichen Phasenbezug zwischen den beiden Größen. Gegen Ende der letzten Eiszeit verliefen CO2 und Temperatur weitgehend synchron. Dann übernahm CO2 mit 165 Jahren Vorsprung die Führung. Als die Eiszeit dann aber vor 12.000 Jahren richtig zuende ging und wir die heutige Warmphase (“Interglazial”) erreichten, marschierte die Temperatur kräftig nach vorne, während das CO2 mit 400 Jahren Abstand folgte. Abstract:

Leads and lags between Antarctic temperature and carbon dioxide during the last deglaciation

To understand causal relationships in past climate variations, it is essential to have accurate chronologies of paleoclimate records. The last deglaciation, which occurred from 18 000 to 11 000 years ago, is especially interesting, since it is the most recent large climatic variation of global extent. Ice cores in Antarctica provide important paleoclimate proxies, such as regional temperature and global atmospheric CO2. However, temperature is recorded in the ice while CO2 is recorded in the enclosed air bubbles. The ages of the former and of the latter are different since air is trapped at 50–120 m below the surface. It is therefore necessary to correct for this air-ice shift to accurately infer the sequence of events.

Here we accurately determine the phasing between East Antarctic temperature and atmospheric CO2 variations during the last deglacial warming based on Antarctic ice core records. We build a stack of East Antarctic temperature variations by averaging the records from 4 ice cores (EPICA Dome C, Dome Fuji, EPICA Dronning Maud Land and Talos Dome), all accurately synchronized by volcanic event matching. We place this stack onto the WAIS Divide WD2014 age scale by synchronizing EPICA Dome C and WAIS Divide using volcanic event matching, which allows comparison with the high resolution CO2 record from WAIS Divide. Since WAIS Divide is a high accumulation site, its air age scale, which has previously been determined by firn modeling, is more robust. Finally, we assess the CO2/Antarctic temperature phasing by determining four periods when their trends change abruptly.

We find that at the onset of the last deglaciation and at the onset of the Antarctic Cold Reversal (ACR) period CO2 and Antarctic temperature are synchronous within a range of 210 years. Then CO2 slightly leads by 165 ± 116 years at the end of the Antarctic Cold Reversal (ACR) period. Finally, Antarctic temperature significantly leads by 406 ± 200 years at the onset of the Holocene period. Our results further support the hypothesis of no convective zone at EPICA Dome C during the last deglaciation and the use of nitrogen-15 to infer the height of the diffusive zone. Future climate and carbon cycle modeling works should take into account this robust phasing constraint.

Die zeitliche Komplexität des letzten Übergangs zwischen Eiszeit und Zwischeneiszeit hatten auch bereits van Nes und Kollegen 2015 in Nature Climate Change beschrieben: Sie stellten jedoch klar, dass die Temperatur zu Beginn der letzten Eiszeit und gegen Ende einer früheren Eiszeit klar dem CO2 vorauseilt:

Causal feedbacks in climate change
The statistical association between temperature and greenhouse gases over glacial cycles is well documented1, but causality behind this correlation remains difficult to extract directly from the data. A time lag of CO2 behind Antarctic temperature—originally thought to hint at a driving role for temperature2, 3—is absent4, 5 at the last deglaciation, but recently confirmed at the last ice age inception6 and the end of the earlier termination II (ref. 7). We show that such variable time lags are typical for complex nonlinear systems such as the climate, prohibiting straightforward use of correlation lags to infer causation. However, an insight from dynamical systems theory8 now allows us to circumvent the classical challenges of unravelling causation from multivariate time series. We build on this insight to demonstrate directly from ice-core data that, over glacial–interglacial timescales, climate dynamics are largely driven by internal Earth system mechanisms, including a marked positive feedback effect from temperature variability on greenhouse-gas concentrations.

Über die Mechanismen zur CO2-Ausgasung vor 10.000 Jahren haben sich im Februar 2015 Forscher der Universitat Autònoma de Barcelona Gedanken gemach (via Science Daily):

Carbon release from ocean helped end the Ice Age

A release of carbon dioxide (CO2) from the deep ocean helped bring an end to the last Ice Age, according to new collaborative research by the University of Southampton, Universitat Autònoma de Barcelona (UAB), the Australian National University (ANU), and international colleagues.

Published today in Nature, the study shows that carbon stored in an isolated reservoir deep in the Southern Ocean re-connected with the atmosphere, driving a rise in atmospheric CO2 and an increase in global temperatures. The finding gives scientists an insight into how the ocean affects the carbon cycle and climate change. Atmospheric CO2 levels fluctuate from about 185 parts-per-million (ppm), during ice ages, to around 280 ppm, during warmer periods like today (termed interglacials). The oceans currently contain approximately sixty times more carbon than the atmosphere and that carbon can exchange rapidly (from a geological perspective) between these two systems (atmosphere-ocean).

Joint lead author Dr. Miguel Martínez-Botí from the University of Southampton adds: “The magnitude and rapidity of the swings in atmospheric CO2 across the ice age cycles suggests that changes in ocean carbon storage are important drivers of natural atmospheric CO2 variations. Joint lead author Dr. Gianluca Marino, from ANU and previously at the ICTA, UAB, says: “We found that very high concentrations of dissolved CO2 in surface waters of the Southern Atlantic Ocean and the eastern equatorial Pacific coincided with the rises in atmospheric CO2 at the end of the last ice age, suggesting that these regions acted as sources of CO2 to the atmosphere”.  “Our findings support the theory that a series of processes operating in the southernmost sector of the Atlantic, Pacific and Indian Oceans, a region known as the ‘Southern Ocean’, changed the amount of carbon stored in the deep-sea. While a reduction in communication between the deep-sea and the atmosphere in this region potentially locks carbon away from the atmosphere into the abyss during ice ages, the opposite occurs during warm interglacial periods.”

The international team studied the composition of the calcium carbonate shells of ancient marine organisms that inhabited the surface of the ocean thousands of years ago in order to trace its carbon content. Co-author Dr. Gavin Foster from the University of Southampton commented: “Just like the way the oceans have stored around 30 per cent of humanity’s fossil fuel emissions over the last 100 years or so, our new data confirms that natural variations in atmospheric CO2 between ice ages and warm interglacials are driven largely by changes in the amount of carbon stored in our oceans.  “These results will help to better understanding the dynamics of human-induced CO2 accumulation in the atmosphere since the ocean is an important carbon sink and the largest reservoir of carbon on our planet’ commented co-author Patrizia Ziveri, ICREA professor at the ICTA, UAB. While these new results support a primary role for the Southern Ocean processes in these natural cycles, we don’t yet know the full story and other processes operating in other parts of the ocean, such as the North Pacific, may have an additional role to play.

Paper: M. A. Martínez-Botí, G. Marino, G. L. Foster, P. Ziveri, M. J. Henehan, J. W. B. Rae, P. G. Mortyn, D. Vance. Boron isotope evidence for oceanic carbon dioxide leakage during the last deglaciation. Nature, 2015; 518 (7538): 219 DOI: 10.1038/nature14155

Die CO2-Ausgasung gegen Ende der letzten Eiszeit war im September 2015 auch Thema der University of Bristol: (weiterlesen …)

Endlich wird die Klimaerwärmung sogar hörbar!

Programmtipp von Walter Fett

Aus dem Juni 2017- Programm des Deutschlandfunks, Seite 4:

Forum neuer Musik 2017:

,Im Anthropozän‘
Unter dem Motto ,Im Anthropozän‘ versammelte das Forum neuer Musik im April 2017 geisteswissemnschaftliche und künstlerische Reflexionen zum problematischen Verhältnis des Menschen zu seiner Lebensumwelt. Zu diesen gehörte Malin Bàngs neues musikdokumentarisches Drama zur Klimaerwärmung. Das Auftragswerk des Deutschlandfunk, inspiriert von Stefano Mancusos Schrift ,Intelligenz der Pflanzen‘, erkundet mit musikalischen Mitteln das fiktive Verhalten von Bambus und Kudzu.-  Ein anderes Highlight des Forum 2017 war die Uraufführung von Gerald Eckerts ,Melting away‘. Mit Bildern schöner Natur verweist das großformatige Opus für Orgel und Schlagwerk auf deren akute Gefährdung.

Deutschlandfunk, Sendetermine:

Sonntag, 18. Juni, 21.10 Uhr:  Konzertdukomentation der Woche
Montag,  19. Juni, 21.05 Uhr:  Musikpanorama

Ist dieser Juni-Termin für einen April-Scherz nicht ein wenig spät?

Methan aus Gashydraten schafft es derzeit wohl nicht in die Atmosphäre

Aus dem Meeresboden gast Methan aus. Das is ein natürlicher Prozess, den hat es immer schon gegeben. Wir wirkt sich die Klimaerwärmung darauf aus und welchen Einfluss hat dies wiederum auf den Klimawandel? Wir haben uns an dieser Stelle bereits mehrfach mit dem Phänomen beschäftigt:

Was gibt es Neues zum Thema aus der Aktis? Vor Spitzbergen hat die Universität Tromsö jetzt Methanmessstellen im Meer platziert:

Methane observatories successfully deployed in the Arctic

Mysteries still abound about methane release from the ocean floor. Two state of the art observatories have been deployed offshore Svalbard this summer, to try and unveil the secrets of natural release of the climate gas.

It is not only the space agencies that launch landers with sensors to far away places . Marine science institutions have a lot of unknown ground to cover in their quest for knowledge. Also they are depending on groundbreaking lander and sensor technology to lead them to that knowledge. CAGE recently deployed two observatories on the site of the methane seeps in the Arctic Ocean. Kongsberg Maritime built the two observatories that are now comfortably placed on the ocean floor in two locations offshore Svalbard. These are the sites where flares of gas bubbles have been observed, indicating release of methane gas to the water column. The observatories are placed at the depth of 90 meters and 240 meters respectively. “The launch went perfectly,” says chief scientist on the cruise, Dr. Anna Silyakova.

Methane is a potent climate gas that can amplify the global warming if released into the atmosphere. However, there is still a lot to be learned about the release of methane from the ocean floor, and what happens to it in the water column. Does it get dispersed with the currents? Do bacteria consume it? Or is it released in the atmosphere? The observatories include several instruments which will monitor methane release from the seabed to the water column as well as CO2, ocean acidification and circulation. The data from these observatories will provide knowledge that will help understand processes related to climate change. The observatories will stay put in their locations, collecting crucial data for a full year. Aboard the the ship was also the freelance photojournalist Randall Hyman, who made this nice video.

Neben organischem, biogenem Methan tritt jedoch auch abiotisches CH4 aus dem Meeresboden aus, das aus magmatischen Quellen des Erdmantels stammt. Pressemitteilung CAGE – Center for Arctic Gas Hydrate, Climate and Environment aus dem April 2015 (via WUWT):

New source of methane discovered in the Arctic Ocean

Methane, a highly effective greenhouse gas, is usually produced by decomposition of organic material, a complex process involving bacteria and microbes. But there is another type of methane that can appear under specific circumstances: Abiotic methane is formed by chemical reactions in the oceanic crust beneath the seafloor. New findings show that deep water gas hydrates, icy substances in the sediments that trap huge amounts of the methane, can be a reservoir for abiotic methane. One such reservoir was recently discovered on the ultraslow spreading Knipovich ridge, in the deep Fram Strait of the Arctic Ocean. The study suggests that abiotic methane could supply vast systems of methane hydrate throughout the Arctic. The study was conducted by scientists at Centre for Arctic Gas Hydrate, Environment and Climate (CAGE) at UiT The Arctic Univeristy of Norway. The results were recently published in Geology online and will be featured in the journal’s May issue.

Previously undescribed

“Current geophysical data from the flank of this ultraslow spreading ridge shows that the Arctic environment is ideal for this type of methane production. ” says Joel Johnson associate professor at the University of New Hampshire (USA), lead author, and visiting scholar at CAGE. This is a previously undescribed process of hydrate formation; most of the known methane hydrates in the world are fueled by methane from the decomposition of organic matter. “It is estimated that up to 15 000 gigatonnes of carbon may be stored in the form of hydrates in the ocean floor, but this estimate is not accounting for abiotic methane. So there is probably much more.” says co-author and CAGE director Jürgen Mienert.

Life on Mars?

NASA has recently discovered traces of methane on the surface of Mars, which led to speculations that there once was life on our neighboring planet. But an abiotic origin cannot be ruled out yet. On Earth it forms through a process called serpentinization. “Serpentinization occurs when seawater reacts with hot mantle rocks exhumed along large faults within the seafloor. These only form in slow to ultraslow spreading seafloor crust. The optimal temperature range for serpentinization of ocean crust is 200 – 350 degrees Celsius.” says Johnson. Methane produced by serpentinization can escape through cracks and faults, and end up at the ocean floor. But in the Knipovich Ridge it is trapped as gas hydrate in the sediments. How is it possible that relatively warm gas becomes this icy substance? “In other known settings the abiotic methane escapes into the ocean, where it potentially influences ocean chemistry. But if the pressure is high enough, and the subseafloor temperature is cold enough, the gas gets trapped in a hydrate structure below the sea floor. This is the case at Knipovich Ridge, where sediments cap the ocean crust at water depths up to 2000 meters. ” says Johnson.

Stable for two million years

Another peculiarity about this ridge is that because it is so slowly spreading, it is covered in sediments deposited by fast moving ocean currents of the Fram Strait. The sediments contain the hydrate reservoir, and have been doing so for about 2 million years. ” This is a relatively young ocean ridge, close to the continental margin. It is covered with sediments that were deposited in a geologically speaking short time period -during the last two to three million years. These sediments help keep the methane trapped in the sea floor.” says Stefan Bünz of CAGE, also a co-author on the paper. Bünz says that there are many places in the Arctic Ocean with a similar tectonic setting as the Knipovich ridge, suggesting that similar gas hydrate systems may be trapping this type of methane along the more than 1000 km long Gakkel Ridge of the central Arctic Ocean. The Geology paper states that such active tectonic environments may not only provide an additional source of methane for gas hydrate, but serve as a newly identified and stable tectonic setting for the long-term storage of methane carbon in deep-marine sediments.

Need to drill

The reservoir was identified using CAGE’s high resolution 3D seismic technology aboard research ressel Helmer Hanssen. Now the authors of the paper wish to sample the hydrates 140 meters below the ocean floor, and decipher their gas composition. Knipovich Ridge is the most promising location on the planet where such samples can be taken, and one of the two locations where sampling of gas hydrates from abiotic methane is possible. ” We think that the processes that created this abiotic methane have been very active in the past. It is however not a very active site for methane release today. But hydrates under the sediment, enable us to take a closer look at the creation of abiotic methane through the gas composition of previously formed hydrate.” says Jürgen Mienert who is exploring possibilities for a drilling campaign along ultra-slow spreading Arctic ridges in the future.

Übertreibungen hinsichtlich des Erwärmungseffekes waren beim Methan leider lange eher die Regel als die Ausnahme. Mittlerweile reduzieren Forscher die früheren Visionen jedoch wieder zurück auf ein reales Normalmaß. Beispiel Stranne et al., die im August 2016 in den Geophysical Research Letters Probleme mit der Dynamik der Modelle publik machten:

Overestimating climate warming-induced methane gas escape from the seafloor by neglecting multiphase flow dynamics
Continental margins host large quantities of methane stored partly as hydrates in sediments. Release of methane through hydrate dissociation is implicated as a possible feedback mechanism to climate change. Large-scale estimates of future warming-induced methane release are commonly based on a hydrate stability approach that omits dynamic processes. Here we use the multiphase flow model TOUGH + hydrate (T + H) to quantitatively investigate how dynamic processes affect dissociation rates and methane release. The simulations involve shallow, 20–100 m thick hydrate deposits, forced by a bottom water temperature increase of 0.03°C yr−1 over 100 years. We show that on a centennial time scale, the hydrate stability approach can overestimate gas escape quantities by orders of magnitude. Our results indicate a time lag of > 40 years between the onset of warming and gas escape, meaning that recent climate warming may soon be manifested as widespread gas seepages along the world’s continental margins.

Interessant auch eine Arbeit von Carolyn Ruppel und John Kessler aus dem Februar 2017 in den Reviews of Geophysics. Es gäbe noch keine überzeugenden Anzeichen dafür, dass Methan aus Gashydraten derzeit in die Atmosphäre ströme. Abstract:

The interaction of climate change and methane hydrates
Gas hydrate, a frozen, naturally-occurring, and highly-concentrated form of methane, sequesters significant carbon in the global system and is stable only over a range of low-temperature and moderate-pressure conditions. Gas hydrate is widespread in the sediments of marine continental margins and permafrost areas, locations where ocean and atmospheric warming may perturb the hydrate stability field and lead to release of the sequestered methane into the overlying sediments and soils. Methane and methane-derived carbon that escape from sediments and soils and reach the atmosphere could exacerbate greenhouse warming. The synergy between warming climate and gas hydrate dissociation feeds a popular perception that global warming could drive catastrophic methane releases from the contemporary gas hydrate reservoir. Appropriate evaluation of the two sides of the climate-methane hydrate synergy requires assessing direct and indirect observational data related to gas hydrate dissociation phenomena and numerical models that track the interaction of gas hydrates/methane with the ocean and/or atmosphere. Methane hydrate is likely undergoing dissociation now on global upper continental slopes and on continental shelves that ring the Arctic Ocean. Many factors—the depth of the gas hydrates in sediments, strong sediment and water column sinks, and the inability of bubbles emitted at the seafloor to deliver methane to the sea-air interface in most cases—mitigate the impact of gas hydrate dissociation on atmospheric greenhouse gas concentrations though. There is no conclusive proof that hydrate-derived methane is reaching the atmosphere now, but more observational data and improved numerical models will better characterize the climate-hydrate synergy in the future.

 

Sauberere US-Luft und AMO+ steigern Regenfälle in der Sahelzone. Wetlands International warnt vor Wassermissmanagement

Lange hatte man gedacht, der menschengemachte Klimawandel würde hinter den Saheldürren der 1970er und 80er Jahre stecken. Dann jedoch erkannte man, dass sich die Situation in Wirklichkeit wieder besserte und heute wieder mehr Regen fällt. Sollte hierfür auch der Mensch verantwortlich sein? Natürlich nicht. Nun weiß man, dass die Saheldürren stark von den Ozeanzyklen abhängen. Eine positive Atlantische Multidekadenoszillation (AMO+) bringt Regen in den Sahel. Zudem gibt es weitere Zusammenhänge, die langsam immer besser verstanden werden. Das erlaubt nun auch, erfolgreichere Regenprognosen für die kommenden Jahr abzugeben. Pressemitteilung der University of Exeter vom 25. Mai 2017:

Summer rainfall in vulnerable African region can be predicted

Summer rainfall in one of the world’s most drought-prone regions can now be predicted months or years in advance, climate scientists at the Met Office and the University of Exeter say.

The Sahel region of Africa – a strip across the southern edge of the Sahara from the Atlantic Ocean to the Red Sea – is a semi-arid landscape between the desert to the north and the savannah to the south. Much of the food produced in the Sahel depends on summer rainfall, and the region experienced major droughts during the 1970s and 1980s. The new research used the Met Office Hadley Centre’s Decadal Prediction System and found that the model was good at predicting summer Sahel rainfall over the forthcoming five years. Forecasting years ahead relies on sea surface temperature in the North Atlantic, whereas the El Niño Southern Oscillation is important for a shorter-term forecast before each summer.

“Our study suggests that skilful predictions of summer rainfall in the Sahel are now possible months or even years ahead,” said Dr Katy Sheen, formerly of the Met Office but now of the University of Exeter’s Penryn Campus in Cornwall.  “With a population reliant on agriculture, the Sahel is particularly vulnerable to major droughts, such as those of the 1970s and 1980s. “Improved understanding and predictions of summer rainfall in the Sahel has the potential to help decision makers better anticipate future cycles of summer droughts and floods, helping local communities become increasingly resilient to the region’s notoriously variable and changing climate.” By analysing data from the past, the researchers checked whether the model would have predicted the lack of rainfall associated with the prolonged droughts of the 1970s and 1980s – and they found it was very effective. “Our study improves our understanding of the driving mechanisms of summer rainfall variability and shows they are predictable,” Dr Sheen added. The study, published in the journal Nature Communications, is entitled: “Skilful prediction of Sahel summer rainfall on inter-annual and multi-year timescales.”

Paper: K. L. Sheen, D. M. Smith, N. J. Dunstone, R. Eade, D. P. Rowell, M. Vellinga. Skilful prediction of Sahel summer rainfall on inter-annual and multi-year timescales. Nature Communications, 2017; 8: 14966 DOI: 10.1038/ncomms14966

Mit Ozeanzyklen läufts einfach besser. Der Sahel-Regen wird aber wohl auch durch einen weiteren Faktor bestimmt, nämlich die Luftverschmutzung in den USA. Diese nimmt derzeit ab, was zu mehr Sahel-Regen führen wird, fanden Forscher der Lamont-Doherty Earth Observatory, Columbia University. Pressemitteilung vom 22. Mai 2017:

Reduced U.S. Air Pollution Will Boost Rainfall in Africa’s Sahel, Says Study

New Research Highlights Wider Benefits of Clean Air Policies

Falling sulfur dioxide emissions in the United States are expected to substantially increase rainfall in Africa’s semi-arid Sahel, while bringing slightly more rain to much of the U.S., according to a new study in the Journal of Geophysical Research: Atmospheres.

Pollution filters placed on coal-fired power plants in the United States starting in the 1970s have dramatically cut emissions of sulfur dioxide, a toxic gas that contributes to acid rain and premature deaths from respiratory and cardiovascular diseases. If U.S. sulfur dioxide emissions are cut to zero by 2100, as some researchers have projected, rainfall over the Sahel could increase up to 10 percent from 2000 levels, computer simulations published in the study suggest. “Reducing emissions in one region can influence rainfall far away because our global atmosphere is interconnected,” said the study’s lead author, Dan Westervelt, an atmospheric scientist at Columbia University’s Lamont-Doherty Earth Observatory. “We show that the health and environmental benefits of U.S. clean air policies extend to global climate as well.”

Sulfur dioxide simultaneously cools and dries earth’s climate by reflecting sunlight back to space and suppressing heat-driven evaporation near the ground. Though prior research has linked high sulfur emissions in Europe and Asia to the Sahel’s severe droughts of the 1970s and 1980s, this study is the first to look at how U.S. emissions influence precipitation in various regions globally. The researchers ran three independent global climate models to compare the relative impact of the United States cutting its human-caused sulfur emissions to zero and keeping its emissions at 2000-2005 levels. In the zero-emissions scenario, all three models showed a slight increase in average global rainfall, with higher levels in the United States and other northern-hemisphere regions. In the Sahel, two models found that wet-season rainfall increased by 5 to 10 percent, with one producing a rainy season two-and-a-half days longer.

“We were surprised to find that removing sulfur emissions in just one country would significantly influence rainfall on another continent, thousands of miles away,” said study coauthor Arlene Fiore, an atmospheric scientist at Lamont-Doherty. The added rainfall came as the tropical rain belt returned to its normal, northernmost position above the equator during northern hemisphere summer, the models showed, consistent with earlier research. The rain belt ordinarily shifts north when the northern hemisphere heats up during summer, but when sulfur emissions are high, cooler temperatures in the north stop the rain belt from migrating as far.

Cutting U.S. emissions to zero was enough to move the rain belt roughly 35 kilometers north, placing more of the Sahel in its path, the researchers found.  “We did not expect to see such a clear, significant influence on the Sahel,” said Westervelt. “This northern shift of the tropical rain belt could mean that cropland at the Sahel’s northern edge could become more productive in the future.” Though two of the three models were generally consistent, they disagree on exactly how much rain different regions can expect as U.S. sulfur emissions go to zero, says study coauthor Drew Shindell, an atmospheric scientist at Duke University. “We have just one real-world example — historic data — to rely on, making it very challenging to quantitatively link emissions to response,” he said.

The influence of rising carbon emissions is another complicating factor. The technology to trap carbon dioxide, unlike sulfur dioxide, is still far from being cost-effective. So while carbon dioxide levels continue to climb, falling sulfur emissions impose a climate “penalty” — less human-caused cooling to offset human-caused warming from carbon dioxide. “It’s still a good idea to cut SO2 with pollution control equipment on coal-fired power plants for the sake of public health, but even better would be to move away from coal-fired power plants entirely to reap the benefits of public health and climate change mitigation,” said Shindell. The study’s other authors are Andrew Conley and Jean-François Lamarque of the National Center for Atmospheric Research; Michael Previdi and Gus Correa of Lamont-Doherty; Greg Faluvegi of NASA Goddard Institute for Space Studies and Columbia’s Center for Climate Systems Research; and Larry Horowitz of Princeton’s Geophysical Fluid Dynamics Laboratory.

Study: Multimodel precipitation response to removal of U.S. sulfur dioxide emissions

Wetlands International recherchierte kürzlich die wahren Gründe für Migration in der Sahelzone. In einem 66-seitigen Sonderbericht (pdf hier) fanden die Autoren vor allem einen Grund: Wassermissmanagement. Zusammenfassung:

Water Shocks: Wetlands and Human Migration in the Sahel
This report calls attention to the worsening condition of wetlands in the Sahel and explains how this decline is undermining human well-being and compelling people to migrate, including to Europe. The rivers, lakes, floodplains and deltas of the Sahel are highly productive and biologically diverse ecosystems, fed by seasonal floods. These dynamic wetlands have long shaped human culture and been the basis for local and regional economies. Tens of millions of people still depend on their vitality. But these natural assets are degrading, often due to ill-advised economic development projects which divert water resources. Consequently, some wetlands have ceased to be a refuge in hard times and have instead become sources of out-migration, as people look elsewhere for alternative livelihoods.

 

 

Die Sonne im Mai 2017 und dunkle Wolken über hoher CO2- Empfindlichkeit unseres Klimas

Von Frank Bosse und Fritz Vahrenholt

Der Stern unseres Planetensystems verhielt sich auch im vergangenen Mai sehr ruhig. Die festgestellte SunSpotNumber (SSN) betrug 18,8; dies sind nur 36% des zu diesem Zyklusmonat üblichen. An 7 Tagen d.M. war die sichtbare Sonnenoberfläche gänzlich ohne Fleck, besonders die südliche Hemisphäre der Sonne war sehr inaktiv denn sie trug nur zu 22% zur ohnehin schwachen Gesamtaktivität bei.

Abb.1: Die Aktivität des aktuellen Zyklus (SC24, rot)im Vergleich zu einem mittleren Zyklus (blau) und dem seit genau 2 Jahren durchgängig noch etwas stärkeren SC5 ( schwarz).

 

Die Aktivität im Vergleich der einzelnen Zyklen:

Abb.2: Die Sonnenfleck-Aktivität der einzelnen Zyklen seit dem Beobachtungsbeginn im Jahre 1755.Seitdem waren nur die Zyklen 5 und 6 schwächer. Die Zahlen entstehen durch das Aufsummieren der monatlichen Differenzen zu dem mittleren Zyklus, blau in Abb.1.

 

In den letzten 2 Jahren schrumpfte der Abstand des laufenden Zyklus gegenüber dem SC5 um ca. 300 Punkte, es verbleiben noch ca. 1100, es ist also recht unwahrscheinlich dass unser SC24 insgesamt noch die schwache Aktivität von SC5 unterbieten wird.

Wir hatten hier seit einiger Zeit einige vorausschauende Betrachtungen für den kommenden Zyklus 25 ab ca. 2020 angestellt. Dazu verwendeten wir stets die offizielle Datenwebsite mit den Beobachtungsergebnissen des Wilcox Sonnenteleskops für die Stärke der polaren Sonnenfelder. Vor einigen Tagen erschien dort ganz unten ein Hinweis, dass die Daten ab Dezember 2016 von einem Problem betroffen sind, genau war es eine sehr irdisch verschmutzte Linse. Dieser Tatbestand soll die seitdem veröffentlichten Zahlen um ca. 50% nach unten verfälscht haben. Die Daten sind noch nicht korrigiert, es könnte damit sein dass auch unsere Prognosen ( z.B. hier ) von dieser Abweichung betroffen waren. Sobald es wieder verlässliche Daten gibt  bringen wir Sie selbstverständlich auf den neuesten Stand.

 

Wolken und die Klimasensitivität

Die Frage nach der Empfindlichkeit unseres Klimas gegenüber einer angenommenen Verdopplung des CO2- Gehaltes unserer Atmosphäre ist eine der entscheidenden Gretchenfragen der Klimaforschung.   Man unterscheidet grob vereinfacht zwei Größen: die TCR  sowie die ECS (Transient Climate Response bzw. Equilibrium Climate Sensitivity). Während die TCR die eher mittelfristige Beeinflussung durch den CO2- Antrieb beschreibt und die meiste Verantwortung für das Erreichen oder Reißen eines 2°C- Zieles trägt beschreibt die ECS die Lage der Temperaturen nach einer Verdopplung des CO2 nach Erreichen eines (dann höheren) Temperaturgleichgewichtes auch unter Mitwirkung der Ozeane. Ein solches neues Gleichgewicht ist daher erst nach mehreren Jahrhunderten erreicht. Das beinhaltet auch: nach einem (un)möglichen Stopp  aller Emissionen erwärmt es sich trotzdem weiter. Der IPCC gibt den Bereich für die ECS mit 1,5…4,5 °C an, übrigens mit keinem Fortschritt in der Eingrenzung dieses sehr weiten Bereiches seit Jahrzehnten. Die Zahlen stammen von Klimamodellen, die alle die beobachtete Realität in den verschiedensten Aspekten nur sehr weit streuend und im Mittel kaum brauchbar abbilden. Wir berichteten darüber. Es erscheinen daher immer wieder wissenschaftliche Studien, die die Modelleistung hinsichtlich bestimmter Kriterien kritisch betrachten.

Eine sehr aktuelle Arbeit beschäftigt sich mit der Auswertung von sehr hoch aufgelösten Wolken-und Niederschlagsbeobachtungen aus Satellitendaten. Sie konzentriert sich auf den Pazifischen Warmpool . Wir hatten über die große Bedeutung dieses tropischen Gebietes berichtet.   Dort sind die höchsten Meeres-Oberflächentemperaturen (SST) unserer Erde anzutreffen. Und genau da vermuten Forscher schon länger das Wirken einer „Regelung“  , eines starken „negativen Wolkenfeedbacks“ gegenüber einer weiteren Erwärmung.  Wir hatten  eine etwas ältere Studie schon vorgestellt. Das „Irisprinzip“ soll auf diesem Wege wirken: Eine Erwärmung der SST führt zu mehr Niederschlag, auch zu mehr Gewittern. Dieses Mehr an konvektivem Regen bewirkt eine Austrocknung der oberen Schichten der Troposphäre, es können sich dort weniger Zirrus-Wolken bilden. Diese haben die Eigenschaft, die einfallende Sonnenstrahlung kaum zu dämpfen, die von der Erde ausgehende Wärmestrahlung jedoch recht effektiv aufzuhalten. Je mehr Zirrus-Wolken, desto mehr Wärme in der Troposphäre und am Boden. Wenn diese Wolken also reduziert werden dann kühlt das unser Klima. Es gab viele Diskussionen um diese Vermutung, die Arbeit von Choi und seinen Kollegen vom Mai 2017 bestätigt nun den „Iriseffekt“ mithilfe  neuester Beobachtungstechniken. Es gibt dabei zwei Schlüsselabbildungen in der Arbeit:

Abb. 3: Der Zusammenhang zwischen dem Anteil an Zirruswolken ( Abszisse) und dem Anteil konvektiven Regens ( Ordinate). Quelle: Abb. 3c aus Choi et.al (2017)

 

Der negative Zusammenhang ist eindeutig und signifikant. Im Anschluss vergleichen die Autoren die objektiv beobachtete Realität mit der „Modellwelt“ der neuesten Generation und kommen zu einem erstaunlichen Ergebnis:

Abb.4: Der Zusammenhang des beobachten Verhältnisses Zirrusanteil/konvektiven Regen und der ECS von Klimamodellen. Quelle: Abb. 6a aus Choi et.al (2017)

 

Sie können nun selbst den oben beobachteten Wert (ca. -105) in die Abszisse des  Diagramms aus Abb.4  einsetzen. Verlängern Sie die rote Gerade nach links und Sie werden  eine ECS von  unter  2°C ablesen. Das Mittel laut Modellen liegt jedoch bei 3,2°C, dies berücksichtigt den Iris-Effekt nur zu etwa 15% dessen was in der realen Welt beobachtet wird.

Und die Indizien für eine geringere ECS als der vom Modellmittel angenommene Wert häufen sich, da  der bisher wenig bekannte Wolkeneinfluss näher untersucht wird. In den mittleren Breiten, so der Ansatz, ändern sich Zirkulationsmuster (die Hadley-Zellen)  mit zunehmender Erwärmung. Eine sehr aktuelle Studie vom Juni 2017 untersucht die Quantitäten und vergleicht sie mit den Annahmen von Klimamodellen:

Abb.5: Die einzelnen Modellergebnisse (Buchstaben) und die beobachtete Lage des Randes der Hadley-Zellen (graue Linie mit dem 95%-Konfidenzbereich)  in mittleren Breiten über der angenommenen ECS. Quelle: Abb. 4b aus Lipat et.al (2017)

 

Aus der Abbildung geht hervor, dass die Modelle den Beobachtungsbereich einigermaßen treffen, die eine  ECS<ca. 2,8 aufweisen. Auch hier nochmals zur Erinnerung: die angenommene ECS als Mittel der Modelle beträgt 3,2. Aus diesem Mittel würden viele Modelle mit einer ECS von >3°C herausfallen und alle verbleibenden liegen  (mit einer Ausnahme) bei einer ECS von z.T. deutlich  unter 3°C .

Die neueren Ergebnisse der Erforschung des Einflusses von Wolken weisen in eine ähnliche Richtung. Ältere Arbeiten zeigten eine kräftige Erhöhung der Sensitivität durch Wolken( positives Feedback). Noch ist dies eine Grundlage der allgemein verbreiteten mittleren ECS -Schätzung von 3,2 °C. Da dies eine fundamentale Ausgangsgröße für alle Klimaschutzziele und -vereinbarungen darstellt, ist die Klimawissenschaft aufgerufen, diese neuen Erkenntnisse zu überprüfen und zu berücksichtigen. Es hätte eine sehr positive Folge, die vielleicht nicht jedem passt: Selbst nach Jahrhunderten würden die Temperaturerhöhungen das 2Grad -Ziel nicht überschreiten bei einer Verdopplung des CO2- Gehaltes. Es ist  viel im Fluss in diesem Bereich der Forschung, darüber wollen wir Sie gerne weiter informieren. Schauen Sie immer mal wieder vorbei!

 

Kalte Sonne Videoclub

Am 4. Mai 2017 hatte Klima-Altmeister Hartmut Graßl wieder einen Auftritt. Auf NDR Info durfte er im Radio mit zwei weiteren Klimaalarm-Vertretern über die Klimaskeptiker herziehen. Letztere waren natürlich nicht zur Sendung “Spüren wir den Klimawandel bereits?” eingeladen. Man wollte lieber unter sich bleiben. Scheute man sich vor Kritik, der man vielleicht nichts entgegenzusetzen hätte? Die Sendung beginnt mit Straßeninterviews unter Passanten. Highlight der Anworten: Die Pole schrumpfen!

Dann Auftritt Prof. Dr. Ortwin Renn (Direktor am IASS Potsdam). Er wird gefragt, wie sich das Phänomen Klimakseptiker erklären ließe. Renn zögert nicht lange und erläutert, dass es sich höchstwahrscheinlich um eine Gruppe am rechten Rand der Gesellschaft handelt, die sich die Fakten so biegt wie sie sie braucht. Aha. Als nächstes ist Graßl dran. Er freut sich über den kürzlichen heißen März und erklärt den kalten April als nicht signifikant. Dritte im Bunde ist Dr. Gerrit Hansen von der Klimaaktivistengruppe Germanwatch.

Es ruft ein Skeptiker an, der darauf hinweist, dass es den Klimawandel stets gegeben habe. Unangenehm. Die Moderatorin würgt ihn schnell ab. Die Telefonverbindung wäre zu schlecht. Graßl fabuliert in der Folge über die letzte Eiszeit. Zudem tappt er wieder in dieselbe Falle wie üblich, behauptet dass die Geschwindigkeit des aktuellen Klimawandels alles Bisherige übertrifft. Das ist falsch. Fake News. Siehe: “Neue Studie der Universität Erlangen-Nürnberg entzaubert Klimawandel-Mythos: Erderwärmung schritt in der Vergangenheit genauso schnell voran wie heute“. Graßl erzählt von Vulkanen, verfehlt das Thema.

Der Skeptiker wird zurückgerufen, immerhin. Darf der Regenwald für Biotreibstoffe abgeholzt werden? Gerrit Hansen soll es beantworten, weicht aber mit einer Wikipedia-Rede “Was ist der Klimawandel” plump aus. Hansen sagt, dass das Abholzen ja nur lokale Effekte hätte, aber keine globalen. Blabla. Graßl hilft: Die Abholzung des Regenwaldes hätte doch in letzter Zeit abgenommen. Wieder liegt Graßl falsch. Siehe “Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen lag falsch: Regenwaldzerstörung hat sich in den letzten 20 Jahren beschleunigt, nicht verlangsamt“.

Nächster Anrufer. Er macht sich Sorgen, hat ein Computergedächtnis, kann sich an das Wetter von jedem einzelnen Tag bis zurück in die 1970er Jahre erinnern. Er spricht mit doppelter Geschwindigkeit, um alle Wetter-Erinnerungen in der Sendung loszuwerden. Es wird immer heißer und heißer und heißer. Absolut hörenswert. Super-Gedächnis? Naja, die harten Fakten sehen leider anders aus, sorry:

Die restlichen 30 Minuten der 55-minütigen Sendung schenken wir uns. Hier wollen Klimaalarmisten unter sich bleiben und die Ätherhoheit des NDR ausnutzen, um die Bevölkerung mit ihrer persönlichen Überzeugung exklusiv zu beglücken. Ab und zu wird ein Laien-Zuhörer aus dem Volk zugeschaltet, der von den Profis gerade noch in Schach gehalten werden kann. Die Germanwatch-Dame hat dabei ihre eigene Strategie. Sie antwortet einfach nicht auf die Frage. Armselig. Mit Pluralität hat das Ganze natürlich nichts zu tun. Die Verantwortlichen der Sendung vom NDR sollten sich einmal überlegen, wie es zu dieser Einseitigkeit kommen konnte. Der Kontakt zum Kalte-Sonne-Team ist einfach herzustellen, daran kann es nicht gelegen haben.

———————-

Sie kennen das sicher auch: Auf einer Gartenparty kommt das Gespräch irgendwann auf das Thema Klimawandel. Der Nachbar ängstigt sich vor den Horrorszenarien aus den Medien. Wenn Sie dann die Fakten auf den Tisch legen, ernten Sie Erstaunen. Wirklich? Das habe ich aber gar nicht in der Zeitung gelesen! Auf Youtube gibt es jetzt eine neue Serie, die den Faden aufnimmt. In Teil 1 treffen sich der Ingenieur Anton und die klimarealistische Beate vom lokalen Max-Planck-Institut und besprechen bei einer Tasse Kaffee den Klimawandel. Sollten Sie auf jeden Fall einmal reinschauen:

———————-

Die Temperatur ist in den letzten 150 Jahren gestiegen. Das stimmt. Aber ist das wirklich ungewöhnlich im Kontext der letzten 10.000 Jahre? Das folgende Video zeigt Paralellen mit der Klimageschichte auf. Erwärmungsphasen hat es immer wieder gegeben. Wie besonders ist das 20. Jahrhundert wirklich?

 

———————-
Impressionen von der 10. Internationalen Klima- und Energiekonferenz (10. IKEK) 2016 in Berlin. Mit dabei auch Sebastian Lüning:

 

Leiterin des ARD-Afrika-Studios Nairobi liegt in Ghana voll daneben: Peinliche Verwechslung von Küstenströmungen mit Klimawandel

ARD-Korrespondentin Sabine Bohland aus dem ARD-Studio Nairobi leistete sich am 18. Mai 2017 in der Tagesschau schlimmen Klimaalarm:

Klimawandel in Ghana: Totope – ein Dorf versinkt

Das Grundwasser versalzen, die Häuser vom Meer bedroht – wer den Klimawandel hautnah beobachten möchte, kann das in Totope tun. Das Dorf in Ghana leidet unter dem Anstieg des Meeresspiegelsgenau wie Hunderte weitere an Afrikas Westküste. [...] Der Chief des Dorfes ist ein Mann um die 60. Nene Amarty Agbakla II. ist sein offizieller Name als Dorfvorsteher. Bürgerlich Theophilus Agbakla. Er ist hier geboren und erinnert sich noch gut daran, wie das Leben in Totope früher war. “Als ich ein Kind war”, erzählt er, “war das Meer so weit weg, dass ich immer auf eine Palme klettern musste, um zu sehen, ob die Boote der Fischer heimkamen. [...] Seit etwa 30 Jahren sei das Meer aber immer näher gekommen. Und jetzt kommt es sogar so nah, dass Häuser manchmal nachts überflutet werden. Eltern nehmen dann ihre Kinder auf den Arm, stehen vor den Betten und warten, bis das Wasser sich wieder zurückzieht. Nicht selten bis zum Tagesanbruch. Die Hälfte von Totope sei bereits vom Meer verschlungen worden, erzählt der Chief. Andere Häuser stecken so tief im Sand, dass sie unbewohnbar sind. [...] Durch den Anstieg des Meeresspiegels ist das Grundwasser versalzen. [...] Totope ist nicht das einzige Dorf an Ghanas Küste, das durch den steigenden Meeresspiegel und die Küstenerosion zerstört wird. Hier mag es besonders schlimm sein, weil nicht mal ein Damm aus Felsbrocken errichtet wurde, um die Wellen abzuhalten, wie in einigen anderen Orten. Aber das wäre auch nur eine Maßnahme auf Zeit. Von Mauretanien bis Kamerun gibt es ähnlich betroffene Dörfer, überall leiden die Menschen unter dem Klimawandel.

Das klingt alles dramatisch. Schuld hat laut Aussage von Frau Bohland der menschengemachte Klimawandel, also wir alle. Aber wie robust ist die Ursachenforschung der Korrespondentin eigentlich wirklich? Eine Naturwissenschaftlerin scheint sie nicht zu sein. Über das Studium von Sabine Bohland schweigt sich das Internet aus. Vermutlich hat sie ein geisteswissenschaftliches Studium absolviert, wie so viele andere Medienschaffende. Dabei ist klar, dass im Fall der Ghana-Story vor allem geologisches Wissen und Kenntnisse der Küstendynamik notwendig wären. Werfen wir zunächst einen Blick auf Totope auf einer Google Karte. Der Küstenort liegt in Südost-Ghana:

 

Erkennen Sie auch die seltsam langgezogenen Küstenstreifen? In der Ostsee heißt so etwas Nehrung, auf englisch sand barrier. Sie entstehen durch starke küstenparallele Strömungen. Ein wichtiges Merkmal dieses Küstentyps ist, dass sich diese Sandzungen ständig verlagern, nie längerfristig stabil bleiben. Das hätte Frau Bohland wissen können, ja müssen, wenn sie im Geographieunterricht damals besser aufgepasst hätte. Die im Beitrag dem Klimawandel zugeschriebenen Auswirkungen sind also vor allem küstendynamische Prozesse wie sie auf diesem Planeten bei diesem Küstentyp tausendfach auftreten. Es klingt hart, ist aber leider wahr: Sabine Bohland verbreitet hier Fake News. Hätte sie doch jemanden gefragt, der sich damit auskennt. Im gesamten Beitrag der Tagesschau taucht bemerkenswerterweise kein einziger Wissenschaftler auf.

Das ausgezeichnete Paper von Nairn et al. (1998) ist frei im Netz als pdf verfügbar. Dort werden die wichtigsten küstendynamischen Prozesse erläutert. Das Volta-Delta und der Flussverlauf hat sich im Laufe der letzten Jahrzehnte und Jahrhunderte ständig verschoben. Küstenerosion ist ein altbekanntes Problem, das bereits vor 150 Jahren aktuell war, lange vor dem anthropogenen Klimawandel. Hier eine weitere Literaturempfehlung: Dadson et al. 2016.

Der Wunsch den Klimawandel dramatisch und bürgernah präsentieren zu wollen, darf nicht dazu führen, die Recherche zu vernachlässigen. Die Zuschauer haben ein Anrecht auf eine fachlich korrekte Darstellung der Zusammenhänge. Pannen wie im Fall von Totope dürfen bei einer Sendung wie der Tagesschau nicht passieren.

Passend hierzu erschien in PNAS am 6. Juni 2017 eine Studie von Jun et al., die schludriges Faktenchecken als Folge von sozialem Druck und Groupthink erkennt:

Perceived social presence reduces fact-checking
Today’s media landscape affords people access to richer information than ever before, with many individuals opting to consume content through social channels rather than traditional news sources. Although people frequent social platforms for a variety of reasons, we understand little about the consequences of encountering new information in these contexts, particularly with respect to how content is scrutinized. This research tests how perceiving the presence of others (as on social media platforms) affects the way that individuals evaluate information—in particular, the extent to which they verify ambiguous claims. Eight experiments using incentivized real effort tasks found that people are less likely to fact-check statements when they feel that they are evaluating them in the presence of others compared with when they are evaluating them alone. Inducing vigilance immediately before evaluation increased fact-checking under social settings.

Significance: The dissemination of unverified content (e.g., “fake” news) is a societal problem with influence that can acquire tremendous reach when propagated through social networks. This article examines how evaluating information in a social context affects fact-checking behavior. Across eight experiments, people fact-checked less often when they evaluated claims in a collective (e.g., group or social media) compared with an individual setting. Inducing momentary vigilance increased the rate of fact-checking. These findings advance our understanding of whether and when people scrutinize information in social environments. In an era of rapid information diffusion, identifying the conditions under which people are less likely to verify the content that they consume is both conceptually important and practically relevant.

———————-

Das Klima der letzten 10.000 Jahre war variabler als viele Leute meinen. Javier hat nun in Judith Currys Blog Teil 2 seiner Übersicht vorgelegt. Lesenswert.

———————-

Wenn es nicht so traurig wäre, könnte man schon fast drüber lachen. Viola Ulrich am 30. Mai 2017 in der Welt:

Wärmere Nächte: Warum uns der Klimawandel um den Schlaf bringen wird
Wenn nachts immer noch Temperaturen um die 20 Grad herrschen, können viele Menschen nicht richtig schlafen. Künftig werden wir noch mehr solcher verschwitzten Nächte erleben – dank des Klimawandels.

Weiterlesen in der Welt

Es stellt sich sogleich die Frage: Wie überleben eigentlich die Menschen in wärmeren Klimazonen der Erde, äquatorwärts von Deutschland aus gesehen? Ist das Leben dort bereits jetzt unmenschlich? Torkeln die Menschen dort schlaflos durch die Nacht und sterben daran? Ein bisschen mehr Kontext und Mitdenken könnte man hier schon erwarten…

 

Klimaflüchtlinge? Afrika ist in den letzten 20 Jahren kräftig ergrünt

Am 20. Juni tritt Mojib Latif um 17:00 Uhr in der Berliner Urania auf:

Das Ende der Ozeane – Warum wir ohne die Meere nicht überleben werden
Die zunehmende Verschmutzung der Ozeane, sei es durch Öl, Plastik oder andere Stoffe, wie auch der Verlust der Artenvielfalt sind für die marinen Ökosysteme um einiges gefährlicher, wenn sich gleichzeitig die Umweltbedingungen ändern. So tritt beispielsweise die gefürchtete Korallenbleiche in den letzten Jahren immer häufiger auf. Das verwundert nicht, denn die Temperatur der tropischen Meere ist in den letzten Jahrzehnten infolge des Klimawandels um etwa ein halbes Grad gestiegen. Bei fortschreitender Erwärmung werden sich die Korallen nicht anpassen können. Die einzigartige Unterwasserwelt der Korallenriffe steht auf dem Spiel. Der Vortrag zeigt die Faszination, die von den Ozeanen ausgeht, aber auch wie bedroht sie sind.

Zur Vorbereitung seien die folgenden Artikel empfohlen:

———————-

Ausgezeichneter Meinungsbeitrag von Josef H. Reichholf in der Welt vom 28. Mai 2017:

Schnell wird man als „Klimaleugner“ abgestempelt

Die globale Temperatur steigt trotz wachsenden CO2-Ausstoßes nicht an. Dies passt nicht in die Prognosen von Politik und Wissenschaft. Man muss darüber reden dürfen, ohne verunglimpft zu werden.

Die letzten eineinhalb Jahrzehnte lang stieg die globale Temperatur nicht mehr an. Diese Pause in der Erwärmung passte jedoch nicht zu den Prognosen. Ganz und gar nicht, wurde doch seit der Jahrtausendwende kontinuierlich mehr CO2 in die Luft gepustet. Also sollte es auch wärmer geworden sein. Jetzt weiß man, woran es lag. Für die Berechnungen hatte man die Messwerte verwendet, die passen. Mit den „richtigen“ stimmen die Ergebnisse mit den Klimamodellen überein. So einfach ist das: Die passenden Daten sind die richtigen! Die Wirklichkeit muss den Modellen entsprechen. Sonderbar? Weil nicht sein kann, was nicht sein darf? Auf die genehmen Daten kommt es an. Dann stimmt das Ergebnis. Bleibt da nicht ein flaues Gefühl? Darf das Ergebnis vorher festliegen? Müssen Messwerte so ausgewählt werden, dass sie passen?

Ganzen Beitrag auf welt.de lesen.

———————-

Sciencenordic.com berichtete am 28. Mai 2017 Überraschendes: Afrika ist in den letzten 20 Jahren ergrünt, was so gar nicht zu den angeblichen Klimaflüchtlingen zu passen scheint:

Africa has become greener in the last 20 years

Despite climate change and a growing population, Africa has become greener over the past 20 years, shows new study.

In Africa, a fight is happening. On one side natural forces are making the continent greener, and on the other, people are removing trees and bushes from the continent. In densely populated regions, people are cutting down trees and forests, but elsewhere, where human populations are more thinly spread, bushes and scrub vegetation are thriving. Now, scientists have quantified for the first time how vegetation across the continent has changed in the past 20 years. Thirty six per cent of the continent has become greener, while 11 per cent is becoming less green. The results show that not all is lost for Africa’s nature, say the scientists behind the new research.

Weiterlesen auf Sciencenordic.com

Zu allem Überfluss ergrünt derzeit ja sogar die Antarktis, heißtt es. Siehe unseren Blogbeitrag “Die Sonne im April 2017 und antarktische Blütenträume“.

Bleiben wir in der Pflanzenwelt. Eine neue Blattzählung hat nun ergeben, dass es viel mehr Blätter auf der Erde gibt als zuvor angenommen. Die Auswirkungen auf den Klimawandel sind erfreulich: Kalte boreale Gebiete werden dadurch wärmer und heiße trockene Gebiete kälter. Das hört sich doch ganz nach einer Win-Win-Situation an. Pressemitteilung der American Association for the Advancement of Science vom 25. Mai 2017 (via Science Daily):

Increased leaf abundance is a double-edged sword

A new global assessment reveals that increases in leaf abundance are causing boreal areas to warm and arid regions to cool. The results suggest that recent changes in global vegetation have had impacts on local climates that should be considered in the design of local mitigation and adaptation plans.

A substantial portion of the planet is greening in response to increasing atmospheric carbon dioxide, nitrogen deposition, global warming and land use change. The increase in leafy green coverage, or leaf area index (LAI), will hold important implications for climate change feedback loops, yet quantifying these impacts on a global scale can be challenging. Here, Giovanni Forzieri and colleagues analyzed satellite data of global LAI coverage between 1982 and 2011. Their results varied depending on the local biome, where increased LAI in boreal regions caused a reduction in surface albedo (reflection of sunlight), and thus resulted in a warming effect; in contrast, increased LAI in arid regions caused an increase in transpiration, and thus drove a cooling effect.

What’s more, the authors found that these relationships between LAI and surface biophysics were amplified up to five times under extreme warm-dry and cold-wet years. They estimate that, across about 60% of the global vegetated area, greening has buffered warming by about 14%; for the remaining areas, which mostly include boreal zones, LAI trends have amplified the raise in air temperatures, leading to an additional warming of about 10%.

Giovanni Forzieri, Ramdane Alkama, Diego G. Miralles, Alessandro Cescatti. Satellites reveal contrasting responses of regional climate to the widespread greening of Earth. Science, 2017; eaal1727 DOI: 10.1126/science.aal1727

Siehe auch Beitrag auf Climate Change Dispatch.

Überhaupt hat man wohl die Pflanzenwelt viel zu wenig in den Klimamodellen beachtet. Erstaunlich, wenn man bedenkt, dass Bäume seit menschengedenken angenehmen Schatten im Hochsommer spenden. Vielleicht sollten die Damen und Herren Modellierer einfach mal ein bisschen mehr Zeit im Freien verbingen und sich von ihren Rechenkästen loseisen? Pressemitteilung der Columbia University vom 29. Mai 2017:

Hotspots Show that Vegetation Alters Climate by Up to 30%
Columbia Engineers find strong feedbacks between the atmosphere and vegetation that explain up to 30% of precipitation and surface radiation variance; study reveals large potential for improving seasonal weather predictions

A new Columbia Engineering study, led by Pierre Gentine, associate professor of earth and environmental engineering, analyzes global satellite observations and shows that vegetation alters climate and weather patterns by as much as 30 percent. Using a new approach, the researchers found that feedbacks between the atmosphere and vegetation (terrestrial biosphere) can be quite strong, explaining up to 30 percent of variability in precipitation and surface radiation. The paper, published May 29 in Nature Geoscience, is the first to look at biosphere-atmosphere interactions using purely observational data and could greatly improve weather and climate predictions critical to crop management, food security, water supplies, droughts, and heat waves.

“While we can currently make fairly reliable weather predictions, as, for example, five-day forecasts, we do not have good predictive power on sub-seasonal to seasonal time scale, which is essential for food security,” Gentine says. “By more accurately observing and modeling the feedbacks between photosynthesis and the atmosphere, as we did in our paper, we should be able to improve climate forecasts on longer timescales.”

Vegetation can affect climate and weather patterns due to the release of water vapor during photosynthesis. The release of vapor into the air alters the surface energy fluxes and leads to potential cloud formation. Clouds alter the amount of sunlight, or radiation, that can reach the Earth, affecting the Earth’s energy balance, and in some areas can lead to precipitation. “But, until our study, researchers have not been able to exactly quantify in observations how much photosynthesis, and the biosphere more generally, can affect weather and climate,” says Julia Green, Gentine’s PhD student and the paper’s lead author.

Recent advancements in satellite observations of solar-induced fluorescence, a proxy for photosynthesis, enabled the team to infer vegetation activity. They used remote sensing data for precipitation, radiation, and temperature to represent the atmosphere. They then applied a statistical technique to understand the cause and feedback loop between the biosphere and the atmosphere. Theirs is the first study investigating land-atmosphere interactions to determine both the strength of the predictive mechanism between variables and the time scale over which these links occur.

The researchers found that substantial vegetation-precipitation feedback loops often occur in semi-arid or monsoonal regions, in effect hotspots that are transitional between energy and water limitation. In addition, strong biosphere-radiation feedbacks are often present in several moderately wet regions, for instance in the Eastern U.S. and in the Mediterranean, where precipitation and radiation increase vegetation growth. Vegetation growth enhances heat transfer and increases the height of the Earth’s boundary layer, the lowest part of the atmosphere that is highly responsive to surface radiation. This increase in turn affects cloudiness and surface radiation.

“Current Earth system models underestimate these precipitation and radiation feedbacks mainly because they underestimate the biosphere response to radiation and water stress response,” Green says. “We found that biosphere-atmosphere feedbacks cluster in hotspots, in specific climatic regions that also coincide with areas that are major continental CO2 sources and sinks. Our research demonstrates that those feedbacks are also essential for the global carbon cycle—they help determine the net CO2 balance of the biosphere and have implications for improving critical management decisions in agriculture, security, climate change, and so much more.”

Gentine and his team are now exploring ways to model how biosphere-atmosphere interactions may change with a shifting climate, as well as learning more about the drivers of photosynthesis, in order to better understand atmospheric variability. Paul Dirmeyer, a professor in the department of atmospheric, oceanic and earth sciences at George Mason University who was not involved in the study, notes: “Green et al. put forward an intriguing and exciting new idea, expanding our measures of land-atmospheric feedbacks from mainly a phenomenon of the water and energy cycles to include the biosphere, both as a response to climate forcing and a forcing to climate response.”

Paper: Julia K. Green, Alexandra G. Konings, Seyed Hamed Alemohammad, Joseph Berry, Dara Entekhabi, Jana Kolassa, Jung-Eun Lee, Pierre Gentine. Regionally strong feedbacks between the atmosphere and terrestrial biosphere. Nature Geoscience, 2017; DOI: 10.1038/ngeo2957

 

Beitrag des Grundwassers zum Meeresspiegel-Anstieg überschätzt

Angesichts einzelner Horrorszenarien zum globalen Meeresspiegelanstieg, darf nicht vergessen werden, dass es sich dabei um Meinungen von wenigen Einzelforschern handelt. Das Gros der Experten geht von Anstiegsraten aus, wie sie auch im aktuellen IPCC-Bericht angegeben sind. Der Joker der Alarmszenarien sind die großen Eismassen in Grönland und der Antarktis. Diese sind in Wirklichkeit wohl viel stabiler als angenommen, wie die  Stanford University am 3. September 2015 bekanntgab:

Ice sheets may be more resilient than thought, say Stanford scientists

Stanford study suggests that today’s ice sheets may be more resilient to increased carbon dioxide levels than previously thought.

Sea level rise poses one of the biggest threats to human systems in a globally warming world, potentially causing trillions of dollars’ worth of damages to flooded cities around the world. As surface temperatures rise, ice sheets are melting at record rates and sea levels are rising. But there may be some good news amid the worry. Sea levels may not rise as high as assumed. To predict sea level changes, scientists look to Earth’s distant past, when climate conditions were similar to today, and investigate how the planet’s ice sheets responded then to warmer temperatures brought on by increased carbon dioxide in the atmosphere.

In a recently published study in the journal Geology, PhD students Matthew Winnick and Jeremy Caves at Stanford School of Earth, Energy & Environmental Sciences explored these very old conditions and found that sea level might not have risen as much as previously thought – and thus may not rise as fast as predicted now. To better understand global sea level rise, Winnick and Caves analyzed the middle Pliocene warm period, the last time in Earth’s history, approximately 3 million years ago, when carbon dioxide levels in the atmosphere were close to their present values (350-450 parts per million).

“The Pliocene is an important analogue for today’s planet not only because of the related greenhouse gas concentrations, but because the continents were roughly where they are today, meaning ocean and climate circulation patterns are comparable,” said Winnick. These similarities are why the Intergovernmental Panel on Climate Change (IPCC), the group responsible for global sea level rise projections, focuses on the mid-Pliocene warm period to inform their computer models.

Previous studies of the mid-Pliocene warm period used oxygen isotope records to determine the volume of Earth’s ice sheets and, by proxy, sea level. Effectively, the oxygen isotope records act as a fingerprint of Earth’s ice sheets. By combining the fingerprint with models of ice sheet meltwater, many previous researchers thought that sea level was likely 82 to 98 feet (25 to 30 meters) higher during the Pliocene. Such high sea level would require a full deglaciation of the Greenland Ice Sheet and the West Antarctic Ice Sheet, and as much as 30 percent of the East Antarctic Ice Sheet – enough to cover New York City under 50 feet of water. But these estimates arose because the researchers assumed that the Antarctic ice of the Pliocene had the same isotopic composition, that is, the same fingerprint, as it does today – an assumption that Winnick and Caves challenge in their new report.

To understand the isotopic composition of Pliocene ice, Winnick and Caves began in the present day using well-established relationships between temperature and the geochemical fingerprint. By combining this modern relationship with estimates of ancient Pliocene surface temperatures, they were able to better refine the fingerprint of the Antarctic ice millions of years ago. In re-thinking this critical assumption, and by extending their analysis to incorporate ice sheet models, Winnick and Caves recalculated the global sea level of the Pliocene and found that it was 30 to 44 feet (9 to 13.5 meters) higher, significantly lower than the previous estimate.

“Our results are tentatively good news,” Winnick said. “They suggest that global sea level is less sensitive to high atmospheric carbon dioxide concentrations than previously thought. In particular, we argue that this is due to the stability of the East Antarctic Ice Sheet, which might be more resilient than previous studies have suggested.” However, a rise in global sea level by up to 44 feet (13.5 meters) is still enough to inundate Miami, New Orleans and New York City, and threaten large portions of San Francisco, Winnick cautioned. While the study helps refine our understanding of Pliocene sea level, both Winnick and Caves point out that it’s not straightforward to apply these results to today’s planet. “Ice sheets typically take centuries to millennia to respond to increased carbon dioxide, so it’s more difficult to say what will happen on shorter time scales, like the next few decades,” Winnick said.

“Add that to the fact that CO2 levels were relatively consistent in the Pliocene, and we’re increasing them much more rapidly today, and it really highlights the importance of understanding how sea level responds to rising temperatures. Estimates of Pliocene sea level might provide a powerful tool for testing the ability of our ice sheet models to predict future changes in sea level.”

Mehr als anderthalb Meter Meeresspiegelanstieg bis 2100, davor warnen einige Alarmisten. Das entspräche einem durchschnittlichen Anstieg von 18 mm pro Jahr. In Wahrheit messen die Küstenpegel jedoch nur ein Zehntel hiervon, wie auf der NOAA-Webseite nachzulesen ist. Dort werden Messwerte für einzelne Regionen der Erde zusammengefasst:

Global Regional Trends Comparison (4 Main Regions, various subregions)
The graphs compare the 95% confidence intervals of relative mean sea level trends for CO-OPS and global stations. Trends with the narrowest confidence intervals are based on the longest data sets. Trends with the widest confidence intervals are based on only 30-40 years of data. The graphs can provide an overarching indication of the differing rates of regional vertical land motion, given that the absolute global sea level rise is believed to be 1.7-1.8 millimeters/year. Note that they are relative sea level trends, and are not corrected for local land movement. The calculated trends for all CO-OPS stations are available as a table in millimeters/year and in feet/century. A complete table of non-CO-OPS station trends are available as a table in millimeters/year and in feet/century.

Diese Anstiegsrate passt gut zur durchschnittlichen globalen Anstiegsrate des 20. Jahrhunderts auf Basis von Küstenpegelmessungen, die von Thompson et al. (2016) mit 1,7 mm/Jahr ermittelt wurde.

Neue Forschungsresultate zeigen nun, dass die Grundwassergewinnung und der Abfluss in die Ozeane wohl einen deutlich geringeren Einfluss auf den Meeresspiegelanstieg haben als gedacht. Der Beitrag des Grundwassers wurde offenbar um den Faktor drei überschätzt wie das International Institute for Applied Systems Analysis am 2. Mai 2016 mitteilte:

How much does groundwater contribute to sea level rise?
Land water, including groundwater extraction, contributes far less to sea level rise than previously thought, according to a new study.

Groundwater extraction and other land water contribute about three times less to sea level rise than previous estimates, according to a new study published in the journal Nature Climate Change. The study does not change the overall picture of future sea level rise, but provides a much more accurate understanding of the interactions between water on land,  in the atmosphere, and the oceans, which could help to improve future models of sea level rise. “Projecting accurate sea level rise is important, because rising sea level is a threat to people who live near the ocean and in small islands,” explains IIASA researcher Yoshihide Wada, who led the study. “Some low-lying areas will have more frequent flooding, and very low-lying land could be submerged completely. This could also damage substantially coastal infrastructure.”

Sea level has risen 1.7 mm per year over the 20th and the early 21st century, a trend that is expected to continue as climate change further warms the planet.  Researchers have attributed the rising seas to a combination of factors including melting ice caps and glaciers, thermal expansion (water expands as it gets warmer), and the extraction of groundwater for human use. Land water contributions are small in comparison to the contribution of ice melt and thermal expansion, yet they have been increasing, leading to concerns that this could exacerbate the problem of sea level rise caused by climate change.

However, much uncertainty remains about how much different sources contribute to sea level rise. In fact, sea level has actually risen more than researchers could account for from the known sources, leading to a gap between observed and modeled global sea-level budget. Previous studies, including estimates used in the IPCC Fifth Assessment Report, had assumed that nearly 100% of extracted groundwater ended up in the ocean. The new study improves on previous estimates by accounting for feedbacks between the land, ocean, and atmosphere. It finds that number is closer to 80%. That means that the gap between modeled and observed sea level rise is even wider, suggesting that other processes are contributing more water than previously estimated. “During the 20th century and early 21st century, cumulative groundwater contribution to global sea level was overestimated by at least 10 mm,” says Wada. In fact, the new study shows that from 1971 to 2010, the contribution of land water to global sea level rise was actually slightly negative – meaning that more water was stored in groundwater and also due to reservoir impoundment behind dams. From 1993 to 2010, the study estimates terrestrial water as contributing positive 0.12 mm per year to sea level rise.

The study does not change the fact that future groundwater contribution to sea level will increase as groundwater extraction increases. And the increasing trend in groundwater depletion has impacts beyond sea level rise. Wada explains, “The water stored in the ground can be compared to money in the bank. If you withdraw money at a faster rate than you deposit it, you will eventually start having account-supply problems. If we use groundwater unsustainably, in the future there might not be enough groundwater to use for food production. Groundwater depletion can also cause severe environmental problems like reduction of water in streams and lakes, deterioration of water quality, increased pumping costs, and land subsidence.”

Reference
Wada Y, Lo MH, Yeh PJF, Reager JT, Famiglietti JS, Wu RJ, Tseng YH (2016). Fate of water pumped from underground and contributions to sea-level rise. Nature Climate Change. doi:10.1038/NCLIMATE3001

Der Standard berichtete am 4. Mai 2016:

Studie: Beitrag des Grundwassers zum Meeresspiegel-Anstieg überschätzt
IIASA-Forscher: Es landet weniger entnommenes Wasser im Meer als gedacht Wien – Der Meeresspiegel ist im 20. und frühen 21. Jahrhundert um 1,7 Millimeter pro Jahr gestiegen. Angesichts der Klimaerwärmung wird damit gerechnet, dass dieser Trend weiter anhält. Als wichtigste Gründe dafür nennen Wissenschafter das weltweite Abschmelzen der Eisschilde und Gletscher sowie die Ausdehnung des immer wärmer werdenden Wassers der Ozeane. Eine wichtige Rolle könnte auch die steigende Entnahme von Grundwasser durch den Menschen spielen, wurde bislang gedacht. Allerdings sei dieser Faktor überschätzt worden, bilanziert nun eine Studie, die im Fachjournal “Nature Climate Change” erschienen ist.

Weiterlesen im Standard.

Es kommt noch besser. Denn eine Studie der University of California, Irvine, gibt an, dass im vergangenen Jahrzehnt auf globaler Sicht die in Seen, Grundwasser und Bodenfeuchte gespeicherte Wassermenge insgesamt zu- und nicht etwa abgenommen hat. Hier die Pressemitteilung vom 11. Februar 2016:

Decade of rising seas slowed by land soaking up extra water, UCI and NASA find

New measurements from a NASA satellite have allowed researchers to identify and quantify, for the first time, how climate-driven increases of liquid water storage on land have affected the rate of sea level rise.

A new study by scientists at NASA’s Jet Propulsion Laboratory (JPL) in Pasadena, Calif., and the University of California, Irvine, shows that while ice sheets and glaciers continue to melt, changes in weather and climate over the past decade have caused Earth’s continents to soak up and store an extra 3.2 trillion tons of water in soils, lakes and underground aquifers, temporarily slowing the rate of sea level rise by about 20 percent. The water gains over land were spread globally, but taken together they equal the volume of Lake Huron, the world’s seventh largest lake. The study is published in the Feb. 12 [2016] issue of the journal Science. Each year, a huge amount of water evaporates from the ocean, then falls over land as rain or snow, and returns to the ocean through runoff and river flows. This is known as the global hydrological cycle. Scientists have long known that small changes in Earth’s water cycle could lead to large, although temporary, changes in the rate of sea level rise. They did not know how large this effect could be, however, because there were no instruments that could measure these changes on a global scale.

The 2002 launch of NASA’s Gravity Recovery and Climate Experiment (GRACE) twin satellites provided the first tool capable of quantifying these trends. By measuring the distance between the two satellites to within the width of a strand of human hair as they orbit the planet, researchers can record changes in Earth’s gravitational pull that result from water moving across its surface. Careful analysis of these data, allowed the scientists to measure the change in water storage over land. “We always assumed that people’s increased reliance on groundwater for irrigation and consumption was resulting in a net transfer of water from the land to the ocean,” said lead author J.T. Reager of JPL, who began the research project as a UCI graduate student. “What we didn’t realize until now is that over the past decade, changes in the global water cycle more than offset the losses that occurred from groundwater pumping, causing the land to act like a sponge.

“These new data are vital for understanding variations in sea level change,” added Reager. “The information will be a critical complement to future long-term projections of sea level rise, which depend on melting ice and warming oceans.” Jay Famiglietti, UCI Earth system science professor and also senior water scientist at JPL is senior author of the paper. “This is the first study to observe these changing water storage patterns on land and their impact on modulating current rates of sea level rise,” Famiglietti said. “Our work will certainly sound the alarm about the possible effects of climate change on shifting patterns of freshwater availability, as well as the potential for modulating future rates of sea level rise by managing the amount of freshwater stored on land.”

Famiglietti also noted that the study is the first to observe global patterns of wetting and drying on land, with wet areas getting wetter and dry areas getting drier. “These patterns are consistent with projections under a warming climate,” he said. “But we’ll need a much longer data record to fully understand the underlying cause of the patterns and whether they will persist.”

 

 

Unerwartete Unterstützung aus der Natur: Marschlandschaften wachsen mit dem Meeresspiegel mit

Der NDR übte sich am 10. Mai 2017 in Klimaalarm und gab eine Pressemitteilung heraus, in der angebliche Geheiminformationen aus einem internen Papier des Bundesamtes für Seeschifffahrt und Hydrographie zitiert werden:

Bundesamt für Seeschifffahrt und Hydrographie befürchtet stärkeren Anstieg des Meeresspiegels

Das Bundesamt für Seeschifffahrt und Hydrographie (BSH) befürchtet, dass der Meeresspiegel in den kommenden Jahrzehnten deutlich stärker ansteigen könnte als bislang gedacht. Das geht nach Recherchen des NDR aus einem internen Schreiben hervor, das die Behörde im März an das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) gesandt hat, dem es untersteht. In dem Papier, das der NDR einsehen konnte, warnt das BSH davor, dass die bisherigen Anstiegsszenarien des UN-Klimarates zu optimistisch sein könnten. Das Schreiben trägt den Titel “Aktualisierung von Informationen zum Meeresspiegelanstieg” und gibt den Stand aktueller Klimastudien wieder. Das BSH warnt das Ministerium davor, dass “ein höherer Anstieg des Meeresspiegels deutlich über einen Meter hinaus bis hin zu 1,70 Metern bis zum Ende des Jahrhunderts mittlerweile nicht mehr ausgeschlossen zu sein scheint”.

Weiterlesen beim NDR.

Man muss kein Graphologe sein, um die Potsdamer Handschrift hier zu erahnen. Irgendwie müssen Vertreter der extremen Meeresspiegelszenarien Zugang zum Führungszirkel des BSH gefunden haben, um dieses Papier zu initiieren. Zu gerne würden wir die wissenschaftliche Basis überprüfen, auf der die Behauptungen fußen. Da das Papier ‘intern’ ist, bleiben die Thesen unüberprüfbar. So wird Politik am wissenschaftlichen Begutachtungssystem vorbei gemacht: Interne Papier werden wissenschaftlich ungeprüft an Ministerien gesandt, die diese dann möglicherweise direkt in politische Entscheidungen umsetzen, einfach unglaublich. Die neue Strategie der Alarmisten ist es offenbar, unterhalb des Radars zu fliegen und hierbei persönliche Kontakte spielen zu lassen.

Fakt ist: Der Großteil der Meeresspiegelforscher teilt die wilden BSH-Szenarien nicht:

Was gibt es Neues aus der Meeresspiegelforschung? Kirwan und Kollegen (2016) legten in Nature Climate Change dar, dass Küstenmarschlandschaften deutlich weniger in Gefahr sind als angenommen. Sie können nämlich aufschlicken und in gewissen Grenzen mit dem Meeresspiegel mitwachsen:

Overestimation of marsh vulnerability to sea level rise
Coastal marshes are considered to be among the most valuable and vulnerable ecosystems on Earth, where the imminent loss of ecosystem services is a feared consequence of sea level rise. However, we show with a meta-analysis that global measurements of marsh elevation change indicate that marshes are generally building at rates similar to or exceeding historical sea level rise, and that process-based models predict survival under a wide range of future sea level scenarios. We argue that marsh vulnerability tends to be overstated because assessment methods often fail to consider biophysical feedback processes known to accelerate soil building with sea level rise, and the potential for marshes to migrate inland.

Hier die dazugehörige Pressemitteilung der Virginia Institute of Marine Science vom 24. Februar 2016:

Study predicts salt marshes will persist despite rising seas

Traditional assessment methods overestimate vulnerability

A new study in Nature Climate Change contends that traditional assessment methods overestimate the vulnerability of salt marshes to sea-level rise because they don’t fully account for processes that allow the marshes to grow vertically and migrate landward as water levels increase.

The persistence of salt marshes despite rising seas would be a rare bit of good news for coastal ecosystems, which are under threat from a host of factors including nutrient pollution, invasive species, and development. Healthy marshes buffer coasts from storms, improve water quality, provide habitat for commercial fisheries, and help fight global warming by trapping carbon. Lead author Matt Kirwan, a professor at the Virginia Institute of Marine Science, says “Catastrophic predictions of marsh loss appear alarming, but they stem from simple models that don’t simulate the dynamic feedbacks that allow marshes to adapt not only to present rates of sea-level rise but the accelerated rates predicted for coming decades. Marsh soils actually build much faster as marshes become more flooded.”

More frequent flooding carries more mud into the marsh and also encourages the growth of several common marsh plants. Together, these processes raise the marsh soil in concert with rising waters. By not accounting for these feedbacks, Kirwan and his co-authors argue, traditional assessments greatly underestimate marsh resilience. Joining Kirwan on the study were Stijn Temmerman of the University of Antwerpen, Emily Skeehan of VIMS, Glenn Guntenspergen of the U.S. Geological Survey, and Sergio Fagherazzi of Boston University. The team conducted their study by compiling and re-analyzing 179 previously published records of change in marsh elevation from sites in North America and Europe. “Our study shows that soil accretion rates more than double as marshes become more flooded, suggesting a strong ability for marshes to survive accelerations in sea-level rise,” says Kirwan.

“The most common models greatly overestimate marsh vulnerability to sea-level rise,” adds Guntenspergen. “These models assume that marshes rise, but only at a rate equal to recent measurements of marsh accretion. This approach leads inevitably to marsh drowning, and predictions that most tidal wetlands will be inundated by the end of the current century.” The researchers say the few models that do incorporate dynamic feedbacks indicate that marshes can generally survive 10 to 50 millimeters of sea-level rise per year. That far exceeds current annual rates of about 3 millimeters of globally averaged sea-level rise, and mostly exceeds even the higher-end rates of 8 to 17 millimeters per year predicted by U.N. climate scientists for 2100.

The team suggests that use of these more advanced models will help ecosystem managers assess marsh vulnerability more accurately, and should be encouraged. They also recommend that researchers expand their current focus on the vertical adaptability of marshes by mounting studies that help clarify the processes that control the horizontal migration of marsh boundaries through time. Looking at recent history, the researchers note that the feedbacks built into the dynamic models also help explain the observed stability of many salt marshes in the mid-Atlantic and elsewhere during recent decades, and the relative rarity of marshes that have already drowned. Where drowned marshes do occur—think the Mississippi delta or Venice lagoon—the culprit is a reduced sediment supply, due to dam or levee building, or increased subsidence due to groundwater withdrawal and other factors. “Marshes fail to survive current rates of sea-level rise only where people have restricted sediment delivery or where the tidal range is very low,” says Kirwan.    

The researchers temper their optimism regarding vertical marsh growth with a cautionary note about the importance of allowing salt marshes to migrate horizontally as rising seas push them landward. They note that in low-lying areas of the U.S. Atlantic Coast, migration into nearby forests could offset most of the loss of existing salt marshes. But marsh migration isn’t possible where obstructed by coastal cliffs or human barriers. “Almost 20% of the Chesapeake Bay shoreline is hardened by riprap, seawalls, and other structures,” says Kirwan, “and similar structures border almost all marsh areas in northwest Europe. We suggest that the availability of low-lying land for wetland migration is a first-order determinant of marsh fate.”

Der Schutz der Küsten-Salzmarschen unterstützt daher auch den Küstenschutz, worauf die University of the Basque Country am 30. Juni 2017 in einer Pressemitteilung hinweist:

Restoring saltmarshes, a cost-effective strategy to counteract the rise in sea level

A piece of research led by the UPV/EHU-University of the Basque Country has shown that in only 10 years it is possible to regenerate some of these coastal wetlands on the eastern Cantabrian coast

Saltmarshes cushion the energy of the waves and act as natural barriers against high-energy climate phenomena. That is why restoring the currently occupied saltmarshes could be a cost-effective adaptation strategy to counteract the effects of the rise in sea level. This is one of the conclusions of a piece of research led by the UPV/EHU and which sets the time needed by several saltmarshes on the eastern Cantabrian coast to regenerate at less than 10 years.In the current scenario of global warming and the acceleration in the rise in sea level, “the study of the saltmarshes is of great interest in developing adaptation strategies to tackle the consequences of climate change in the coastal area”, explained Ane García-Artola, researcher in the UPV/EHU’s Department of Stratigraphy and Palaeontology and who is currently on a post-doctoral internship at the Rutgers University (USA). She is the lead author of the paper Agricultural fingerprints in salt-marsh sediments and adaptation to sea-level rise in the eastern Cantabrian coast (N. Spain), published by the Estuarine, Coastal and Shelf Science journal. The UPV/EHU lecturers Alejandro Cearreta and María Jesús Irabien, as well as researchers at East Carolina University and the National Autonomous University of Mexico also participated in the work.

On the eastern Cantabrian coast many of these coastal wetlands had been occupied for agricultural purposes since the 17th century and in particular from the second half of the 19th century onwards until the 1950s when agricultural activity experienced a decline.  The lack of dyke maintenance allowed water from the estuary to enter and it invaded these zones that had been artificially cut off, thus encouraging them to regenerate and be recolonised by halophytic vegetation, in other words, of the type that can survive in saline environments.

This work explored the regeneration process of the saltmarshes located in the Santoña, Plentzia and Urdaibai estuaries using the variation in the abundance of typical salt-marsh microfossils (foraminifera) and the sand content. “The agricultural horizon could be identified by the almost total absence of microfossils, whose number gradually increased during the regeneration process until becoming highly abundant once the saltmarsh had already regenerated,” explained Garcia-Artola. At the same time, the sand content increased as the regeneration took place, which indicates a greater tidal influence on the saltmarsh as the environment was being restored.

To be able to work out the age of the sedimentary layers and determine the build-up rates, the activities of short-lived radioisotopes, pollution peaks and historical aerial photography were analysed. From a regional perspective, the environmental regeneration of these three saltmarshes took place mainly in the Santoña estuary between 1950 and 1960 and in some zones, even before the 1940s; between 1950 and 1960 in the Urdaibai estuary; and, finally, from the 1970s and 1980s onwards, in the estuary of Plentzia. In all the cases, the regeneration process was very fast (less than 10 years), owing to the high rates of sedimentation that took place (14-18 mm per year). The availability of abundant sediment material in the estuarine waters was crucial in the regeneration of the saltmarshes.

The study of the environmental transformation of these coastal zones is crucial when it comes to making predictions about the coastal evolution of the region. So the saltmarshes on the eastern Cantabrian coast are expected to adapt to the increase in the ongoing rise in sea level (1.9 mm per year during the 20th century), bearing in mind the high sedimentation rates observed during the regeneration process of the previously occupied areas. “The restoration of currently occupied saltmarshes in temperate zones with an abundant input of sediments could be put forward as a strategy of cost-effective adaptation to counteract the effects of the rise in sea level,” pointed out Ane García-Artola.

Bibliographical reference
García-Artola, A, Cearreta, A, Irabien, MJ, Leorri, E, Sanchez-Cabeza, JA, and Corbett, DR, 2016. Agricultural fingerprints in salt-marsh sediments and adaptation to sea-level rise in the eastern Cantabrian coast (N. Spain) Estuarine Coastal and Shelf Science 171, 66-76. http://dx.doi.org/10.1016/j.ecss.2016.01.031

 

 

Klimamodelle unter Druck: Probleme mit der Prognoseleistung geben Anlass zur Sorge

Der El Nino 2015/16 ist vorüber, genauso wie die damit verundenen Feierlichkeiten der Alarmisten. Es wird immer klarer, dass die Prognosen der Klimamodelle maßlos übertrieben waren. Bereits im April 2015 gab die Duke University per Pressemitteilung bekannt, dass die schlimmsten IPCC-Temperatur-Prognosen umgehend zu den Akten gelegt werden müssten:

Global Warming More Moderate Than Worst-Case Models
A new study based on 1,000 years of temperature records suggests global warming is not progressing as fast as it would under the most severe emissions scenarios outlined by the Intergovernmental Panel on Climate Change (IPCC).  

“Based on our analysis, a middle-of-the-road warming scenario is more likely, at least for now,” said Patrick T. Brown, a doctoral student in climatology at Duke University’s Nicholas School of the Environment. “But this could change.” The Duke-led study shows that natural variability in surface temperatures — caused by interactions between the ocean and atmosphere, and other natural factors — can account for observed changes in the recent rates of warming from decade to decade. The researchers say these “climate wiggles” can slow or speed the rate of warming from decade to decade, and accentuate or offset the effects of increases in greenhouse gas concentrations. If not properly explained and accounted for, they may skew the reliability of climate models and lead to over-interpretation of short-term temperature trends.

The research, published today in the peer-reviewed journal Scientific Reports, uses empirical data, rather than the more commonly used climate models, to estimate  decade-to-decade variability. “At any given time, we could start warming at a faster rate if greenhouse gas concentrations in the atmosphere increase without any offsetting changes in aerosol concentrations or natural variability,” said Wenhong Li, assistant professor of climate at Duke, who conducted the study with Brown. The team examined whether climate models, such as those used by the IPCC, accurately account for natural chaotic variability that can occur in the rate of global warming as a result of interactions between the ocean and atmosphere, and other natural factors.

To test how accurate climate models are at accounting for variations in the rate of warming, Brown and Li, along with colleagues from San Jose State University and the USDA, created a new statistical model based on reconstructed empirical records of surface temperatures over the last 1,000 years. “By comparing our model against theirs, we found that climate models largely get the ‘big picture’ right but seem to underestimate the magnitude of natural decade-to-decade climate wiggles,” Brown said. “Our model shows these wiggles can be big enough that they could have accounted for a reasonable portion of the accelerated warming we experienced from 1975 to 2000, as well as the reduced rate in warming that occurred from 2002 to 2013.”  

Further comparative analysis of the models revealed another intriguing insight. “Statistically, it’s pretty unlikely that an 11-year hiatus in warming, like the one we saw at the start of this century, would occur if the underlying human-caused warming was progressing at a rate as fast as the most severe IPCC projections,” Brown said. “Hiatus periods of 11 years or longer are more likely to occur under a middle-of-the-road scenario.” Under the IPCC’s middle-of-the-road scenario, there was a 70 percent likelihood that at least one hiatus lasting 11 years or longer would occur between 1993 and 2050, Brown said.  “That matches up well with what we’re seeing.” There’s no guarantee, however, that this rate of warming will remain steady in coming years, Li stressed. “Our analysis clearly shows that we shouldn’t expect the observed rates of warming to be constant. They can and do change.” 

Paper: Patrick T. Brown, Wenhong Li, Eugene C. Cordero and Steven A. Mauget. Comparing the Model-Simulated Global Warming Signal to Observations Using Empirical Estimates of Unforced Noise. Scientific Reports, April 21, 2015 DOI: 10.1038/srep09957

Gerne klopfen sich die Modellierer gegenseitig auf die Schulter: Toll modelliert, Herr Kollege! Dazu gehören natürlich auch Kalibrierungstests mit der Vergangenheit. Diese beginnen in den meisten Studien jedoch erst in der Kleinen Eiszeit, der kältesten Phase der letzten 10.000 Jahre. Wenn die Modelle dann die Wiedererwärmung scheinbar reproduzieren, ist die Freude groß: Seht her, alles super. Der Haupt-Antrieb der Erwärmung ist jedoch unklar. Ist es nicht logisch, dass nach einer natürlichen Kältephase eine Wiedererwärmung stattfindet? Ist es Zufall oder zwingend erforderlich, dass das CO2 während dieser Phanse anstieg? Ehrlicher wären Kalibrierungstests, die bis in die Mittelalterliche Wärmeperiode zurückreichen. Erst wenn die vorindustriellen Wärmephasen erfolgreich reproduziert werden können, sind die Modelle bestätigt.

Im Jahr 2015 bedienten sich Gómez-Navarro und Kollegen des Kleinen-Eiszeit-Tricks. Sie begannen mit ihrer Überprüfung 1500 n. Chr., also während besagter Kaltphase. Das Ergebnis überrascht nicht: Grober Trend “bestätigt”, im Detail klappt es aber nicht. Abstract aus Climate of the Past:

A regional climate palaeosimulation for Europe in the period 1500–1990 – Part 2: Shortcomings and strengths of models and reconstructions
This study compares gridded European seasonal series of surface air temperature (SAT) and precipitation (PRE) reconstructions with a regional climate simulation over the period 1500–1990. The area is analysed separately for nine subareas that represent the majority of the climate diversity in the European sector. In their spatial structure, an overall good agreement is found between the reconstructed and simulated climate features across Europe, supporting consistency in both products. Systematic biases between both data sets can be explained by a priori known deficiencies in the simulation. Simulations and reconstructions, however, largely differ in the temporal evolution of past climate for European subregions. In particular, the simulated anomalies during the Maunder and Dalton minima show stronger response to changes in the external forcings than recorded in the reconstructions. Although this disagreement is to some extent expected given the prominent role of internal variability in the evolution of regional temperature and precipitation, a certain degree of agreement is a priori expected in variables directly affected by external forcings. In this sense, the inability of the model to reproduce a warm period similar to that recorded for the winters during the first decades of the 18th century in the reconstructions is indicative of fundamental limitations in the simulation that preclude reproducing exceptionally anomalous conditions. Despite these limitations, the simulated climate is a physically consistent data set, which can be used as a benchmark to analyse the consistency and limitations of gridded reconstructions of different variables. A comparison of the leading modes of SAT and PRE variability indicates that reconstructions are too simplistic, especially for precipitation, which is associated with the linear statistical techniques used to generate the reconstructions. The analysis of the co-variability between sea level pressure (SLP) and SAT and PRE in the simulation yields a result which resembles the canonical co-variability recorded in the observations for the 20th century. However, the same analysis for reconstructions exhibits anomalously low correlations, which points towards a lack of dynamical consistency between independent reconstructions.

Im Januar 2017 versuchten dann Benjamin Santer und Kollegen die Gültigkeit der Modelle zu rechtfertigen. Im Journal of Climate verglichen Sie Satellitendaten mit Simulationen der Temperaturentwicklung der letzten 18 Jahre. Ihr Ergebnis: Die Modelle errechnen eine Erwärmung, die mehr als anderthalb mal so hoch ist wie in der Realität gemessen. Abstract:

Comparing Tropospheric Warming in Climate Models and Satellite Data
Updated and improved satellite retrievals of the temperature of the mid-to-upper troposphere (TMT) are used to address key questions about the size and significance of TMT trends, agreement with model-derived TMT values, and whether models and satellite data show similar vertical profiles of warming. A recent study claimed that TMT trends over 1979 and 2015 are 3 times larger in climate models than in satellite data but did not correct for the contribution TMT trends receive from stratospheric cooling. Here, it is shown that the average ratio of modeled and observed TMT trends is sensitive to both satellite data uncertainties and model–data differences in stratospheric cooling. When the impact of lower-stratospheric cooling on TMT is accounted for, and when the most recent versions of satellite datasets are used, the previously claimed ratio of three between simulated and observed near-global TMT trends is reduced to approximately 1.7. Next, the validity of the statement that satellite data show no significant tropospheric warming over the last 18 years is assessed. This claim is not supported by the current analysis: in five out of six corrected satellite TMT records, significant global-scale tropospheric warming has occurred within the last 18 years. Finally, long-standing concerns are examined regarding discrepancies in modeled and observed vertical profiles of warming in the tropical atmosphere. It is shown that amplification of tropical warming between the lower and mid-to-upper troposphere is now in close agreement in the average of 37 climate models and in one updated satellite record.

Siehe auch Kommentierung auf WUWT.

Judith Curry berichtet über eine Doktorarbeit in den Niederlanden, in denen ein Praktiker, der tagtäglich mit den Resultaten von Klimamodellen umgeht, harte Kritik übt. Aus dem Vorwort der Arbeit von Alexander Bakker:

In 2006, I joined KNMI to work on a project “Tailoring climate information for impact assessments”. I was involved in many projects often in close cooperation with professional users. In most of my projects, I explicitly or implicitly relied on General Circulation Models (GCM) as the most credible tool to assess climate change for impact assessments. Yet, in the course of time, I became concerned about the dominant role of GCMs. During my almost eight year employment, I have been regularly confronted with large model biases. Virtually in all cases, the model bias appeared larger than the projected climate change, even for mean daily temperature. It was my job to make something ’useful’ and ’usable’ from those biased data. More and more, I started to doubt that the ’climate modelling paradigm’ can provide ’useful’ and ’usable’ quantitative estimates of climate change.

After finishing four peer-reviewed articles, I concluded that I could not defend one of the major principles underlying the work anymore. Therefore, my supervisors, Bart van den Hurk and Janette Bessembinder, and I agreed to start again on a thesis that intends to explain the caveats of the ’climate modelling paradigm’ that I have been working in for the last eight years and to give direction to alternative strategies to cope with climate related risks. This was quite a challenge. After one year hard work a manuscript had formed that I was proud of and that I could defend and that had my supervisors’ approval. Yet, the reading committee thought differently. 

According to Bart, he has never supervised a thesis that received so many critical comments. Many of my propositions appeared too bold and needed some nuance and better embedding within the existing literature. On the other hand, working exactly on the data-related intersection between the climate and impact community may have provided me a unique position where contradictions and nontrivialities of working in the ’climate modelling paradigm’ typically come to light. Also, not being familiar with the complete relevant literature may have been an advantage. In this way, I could authentically focus on the ’scientific adequacy’ of climate assessments and on the ’non- trivialities’ of translating the scientific information to user applications, solely biased by my daily practice.

Weiterlesen bei Judith Curry.

 

Beitrag des Klimawandels überschätzt: Zika-Virus breitet sich bei niedrigeren Temperaturen aus als gedacht

Am 5. Februar 2016 meldete der Deutschlandfunk:

Zika-Virus: Costa Rica kämpft gegen die Mücken
[...] Costa Rica ist in Sorge: Täglich berichten Zeitungen, Radio und Fernsehen, wie Zika den Rest des Subkontinents in Atem hält. Schon wieder Aedes Aegypti, diese Tigermücke. Doch nicht nur Müll mag die Mücke, auch den Klimawandel findet sie richtig gut, erläutert Juan Carlos Fallas, Costa Ricas Chefmeteorologe. “Die Erwärmung begünstigt die Ausbreitung der Tigermücke. Früher hatten nur die Küstenregionen das Problem, heute haben wir den Moskito auch in der Hauptstadtregion, auf ungefähr 1.000 Meter Höhe. Das zeigt uns, dass es auch biologische Veränderungen durch den Klimawandel gibt.”

Befeuert die Klimaerwärmung wirklich die Ausbreitung des Zika-Virus? Forscher der University of South Florida haben diese Hypothese näher untersucht und können sie nicht bestätigen. Die Ausbreitung von Viren über Mücken findet laut den neuen Forschungsergebnissen bei tieferen Temperaturen statt als lange angenommen. Hier die Pressemitteilung der University of South Florida vom 9. Mai 2017:

Study Finds Mosquito-Borne Viruses Like Zika Could Be Spread at Lower Temperatures, Potentially Expanding Impact

University of South Florida researchers play key role in pinpointing optimal temperature for mosquito-borne disease transmission.

Transmission of mosquito-borne diseases, such as Zika, occur at lower temperatures than previously thought, a recently released study co-authored by two University of South Florida researchers shows. The study, led by Stanford University and published in the journal PLoS Neglected Tropical Diseases, found that transmission of dengue, chikungunya and Zika is highest at around 84 degrees Fahrenheit. Scientists had long considered 90 degrees to be the peak-transmission temperature. The finding is significant, especially as climate change causes temperatures to climb. “This means that future transmission is much more likely to occur in subtropical and even temperate areas, such as the southern United States and northern Mexico,” said Jeremy Cohen, PhD, a postdoctoral researcher studying integrative biology. He and Jason Rohr, PhD, an associate professor of integrative biology, are coauthors on the study. From 2015-2016, they collected data on the incidences of dengue, chikungunya and Zika, as well as climate, gross domestic product and tourism, in Latin America and the Caribbean.

Their data were used to create a model that shows the potential effects of temperatures and temperature change on the transmission of dengue, chikungunya and Zika around the world, three diseases that are mosquito-vectored and increasing in the United States. “Our findings should help to predict the areas at the greatest risk of dengue, chikungunya and Zika outbreaks,” said Rohr. Temperature affects how often mosquitoes bite, the amount of time it takes for them to ingest a virus from one human and inject it into another, and their life cycle. Cohen, Rohr and other members of the research team found that mosquitos posed the greatest risk to humans at 84 degrees and risk declined in cooler and warmer temperatures.

“Given that the predominant thinking was that transmission was most likely to peak at very hot temperatures, which would mostly limit the diseases to the tropics, we were certainly surprised that the model and the field data suggested that high rates of transmission could occur at lower temperatures, possibly impacting more northern regions in the future,” Cohen said. Pinpointing the optimal temperature for disease transmission is critical for predicting future disease rates and how diseases will spread with climate change, and more effectively implementing mosquito-control measures, said lead author Erin Mordecai of Stanford University. “If we’re predicting a 29-degree optimum and another model is predicting a 35-degree optimum, the other model will say that climate change will increase transmission,” she said in a Stanford-issued media release, adding that if local temperatures are already near optimal temperature, infections may decline as temperatures rise.

Auch die Stanford University berichtete in einer separaten Pressemiteilung über die Studie. Allerdings wird das Hauptresultat dort geschickt in Nebel verhüllt. Vermutlich war die neue Erkenntnis zu unbequem für die kalifornische Universität.

 

Duke University: Klimamodelle scheitern bei Kurzfrist-Temperaturprognose und unterscheiden sich stark voneinander

Die gebremste Erwärmung (“Hiatus”, “Slowdown”) seit Beginn des 21. Jahrhunderts stellt die Forscher noch immer vor Rätsel. Wie konnte das passieren, wie konnten die Modell so vollständig versagen? Ist vielleicht etwas mit den Modellen nicht in Ordnung? John Christy fasste die Sachlage 2015 in einer prägnanten Graphik zusammen und diskutierte mögliche Gründe:

Abb. 1: Vergleich zwischen modelliertem (rot) und realem (grün, blau) Temperaturverlauf. Quelle: judithcurry.com.

 

Patrick Frank ging auf die Diskrepanz im Juli 2016 ausführlich ein:

 

Monckton et al. (2015) diskutierten, weshalb die IPCC-Klimamodellen offenbar zu heiß laufen. Vieles deutet daraufhin, dass die CO2-Klimasensitivität deutlich niedriger liegt als angenommen. Abstract:

Why models run hot: results from an irreducibly simple climate model
An irreducibly simple climate-sensitivity model is designed to empower even non-specialists to research the question how much global warming we may cause. In 1990, the First Assessment Report of the Intergovernmental Panel on Climate Change (IPCC) expressed “substantial confidence” that near-term global warming would occur twice as fast as subsequent observation. Given rising CO2 concentration, few models predicted no warming since 2001. Between the pre-final and published drafts of the Fifth Assessment Report, IPCC cut its near-term warming projection substantially, substituting “expert assessment” for models’ near-term predictions. Yet its long-range predictions remain unaltered. The model indicates that IPCC’s reduction of the feedback sum from 1.9 to 1.5 W m−2 K−1 mandates a reduction from 3.2 to 2.2 K in its central climate-sensitivity estimate; that, since feedbacks are likely to be net-negative, a better estimate is 1.0 K; that there is no unrealized global warming in the pipeline; that global warming this century will be IPCC in its Fourth and Fifth Assessment Reports that are highlighted in the present paper is vital. Once those discrepancies are taken into account, the impact of anthropogenic global warming over the next century, and even as far as equilibrium many millennia hence, may be no more than one-third to one-half of IPCC’s current projections.

In einem Artikel in phys.org werden die Ergebnisse der Studie erläutert:

Peer-reviewed pocket-calculator climate model exposes serious errors in complex computer models

A major peer-reviewed climate physics paper in the first issue (January 2015: vol. 60 no. 1) of the prestigious Science Bulletin (formerly Chinese Science Bulletin), the journal of the Chinese Academy of Sciences, exposes elementary but serious errors in the general-circulation models relied on by the UN’s climate panel, the IPCC. The errors were the reason for concern about Man’s effect on climate. Without them, there is no climate crisis.

The IPCC has long predicted that doubling the CO2 in the air might eventually warm the Earth by 3.3 °C. However, the new, simple presented in the Science Bulletin predicts no more than 1 °C warming instead – and possibly much less. The model, developed over eight years, is so easy to use that a high-school math teacher or undergrad student can get credible results in minutes running it on a pocket scientific calculator.

The paper, Why models run hot: results from an irreducibly simple model, by Christopher Monckton of Brenchley, Willie Soon, David Legates and Matt Briggs, survived three rounds of tough peer review in which two of the reviewers had at first opposed the paper on the ground that it questioned the IPCC’s predictions.

Weiterlesen auf phys.org. Siehe auch Diskussion Istvan/Monckton auf judithcurry.com.

Die Unfähigkeit der Klimamodelle, den Hiatus/Slowdown der letzten 17 Jahre vorherzusehen, ist Grund zu großer Sorge. Wenn Modelle bedeutende natürliche Schwankungen nicht reproduzieren können, muss ihre Zuverlässigkeit auch allgemein in Frage gestellt werden. Die Duke University ging dem Problem nach und berichtete am 25. Januar 2015 über Ihre Ergebnisse:

Climate Models Disagree on Why Temperature “Wiggles” Occur

A new Duke University-led study finds that most climate models likely underestimate the degree of decade-to-decade variability occurring in mean surface temperatures as Earth’s atmosphere warms. The models also provide inconsistent explanations of why this variability occurs in the first place.

These discrepancies may undermine the models’ reliability for projecting the short-term pace as well as the extent of future warming, the study’s authors warn. As such, we shouldn’t over-interpret recent temperature trends.

“The inconsistencies we found among the models are a reality check showing we may not know as much as we thought we did,” said lead author Patrick T. Brown, a Ph.D. student in climatology at Duke’s Nicholas School of the Environment. “This doesn’t mean greenhouse gases aren’t causing Earth’s atmosphere to warm up in the long run,” Brown emphasized. “It just means the road to a warmer world may be bumpier and less predictable, with more decade-to-decade temperature wiggles than expected. If you’re worried about climate change in 2100, don’t over-interpret short-term trends. Don’t assume that the reduced rate of global warming over the last 10 years foreshadows what the climate will be like in 50 or 100 years.” Brown and his colleagues published their findings this month in the peer-reviewed Journal of Geophysical Research.

To conduct their study, they analyzed 34 climate models used by the Intergovernmental Panel on Climate Change (IPCC) in its fifth and most recent assessment report, finalized last November. The analysis found good consistency among the 34 models explaining the causes of year-to-year temperature wiggles, Brown noted. The inconsistencies existed only in terms of the model’s ability to explain decade-to-decade variability, such as why global mean surface temperatures warmed quickly during the 1980s and 1990s, but have remained relatively stable since then.

“When you look at the 34 models used in the IPCC report, many give different answers about what is causing this decade-to-decade variability,” he said. “Some models point to the Pacific Decadal Oscillation as the cause. Other models point to other causes. It’s hard to know which is right and which is wrong.” Hopefully, as the models become more sophisticated, they will coalesce around one answer, Brown said. Co-authors on the new study were Wenhong Li of Duke’s Nicholas School, and Shang-Ping Xie of the Scripps Institution of Oceanography at the University of California San Diego.

 

 

University of New South Wales veröffentlicht fragwürdige Mittelfrist-Temperaturprognose bis 2032

Die University of New South Wales zeigte sich am 8. Mai 2017 scheinbar progressiv und veröffentlichte eine Temperaturprognose für die kommenden 15 Jahre unter Einbeziehung von Ozeanzyklen:

 Abbildung 1: Temperaturprognose von Henley & King 2017  für die kommenden 15 Jahre. 

 

Das Fehlen der Ozeanzyklen in den Klimamodellen und Temperaturprognosen ist ein Hauptkritikpunkt in der derzeitigen Klimadiskussion. Ein näherer Blick auf die Vorhersage und Begründung bringt jedoch Ernüchterung. Die gebremste Erwärmung der letzten anderthalb Jahrzehnte wird zwar korrekt in der Graphik dargestellt, allerdings wird der El Nino 2015/16 dann als Endpunkt der Entwicklung interpretiert, auf den eine steile Erwärmung folgt. Dabei wird zwischen zwei Zuständen der Interdecadal Pacific Oscillation (IPO) unterschieden, die leichte Unterschiede im Temperaturverlauf bringen sollen.

In Wahrheit sollte jedoch die PDO (Pazifisch Dekadische Oszillation) hier eine viel wichtigere Rollen spielen. Und die PDO wird aller Voraussicht nach noch bis weit in die 2030er Jahre in der negativen also kühlenden Phase sein. In unserem Buch “Die kalte Sonne” haben wir eine PDO-Prognose vorgestellt, die eine simple Fortschreibung der bisherigen PDO-Zyklik annimmt:

Abb. 2: PDO-Prognose aus Vahrenholt & Lüning (‘Die kalte Sonne’). 

 

Die von Henley & King 2017 vorgeschlagenen Auswirkungen der Ozeanzyklen sind daher schwer nachzuvollziehen und eher unwahrscheinlich.Vermutlich verwechseln die Forscher auch die Auswirkungen des El Nino mit den Ozeanzyklen. Zum Glück können wir die Mittelfrist-Prognose in den kommenden Jahren mit der Realität überprüfen, so dass wir uns hier weitere Spekulationen ersparen können. Anbei noch die Pressemitteilung der University of New South Wales zur Prognose, die sich leider hochpolitisch und alarmistisch liest:

Paris 1.5°C target may be smashed by 2026

Global temperatures could break through the 1.5°C barrier negotiated at the Paris conference as early as 2026 if a slow-moving, natural climate driver known as the Interdecadal Pacific Oscillation (IPO) has, as suspected, moved into a positive phase.

New research published in Geophysical Research Letters by University of Melbourne scientists at the ARC Centre of Excellence for Climate System Science shows that a positive IPO would likely produce a sharp acceleration in global warming over the next decade. Since 1999, the IPO has been in a negative phase but consecutive record-breaking warm years in 2014, 2015 and 2016 have led climate researchers to suggest this may have changed. In the past, these positive phases have coincided with accelerated global warming. “Even if the IPO remains in a negative phase, our research shows we will still likely see global temperatures break through the 1.5°C guardrail by 2031,” said lead author Dr Ben Henley. “If the world is to have any hope of meeting the Paris target, governments will need to pursue policies that not only reduce emissions but remove carbon from the atmosphere.” “Should we overshoot the 1.5°C limit, we must still aim to bring global temperatures back down and stabilise them at that level or lower.”

The IPO has a profound impact on our climate because it is a powerful natural climate lever with a lot of momentum that changes very slowly over periods of 10-30 years. During its positive phase the ocean temperatures in the tropical Pacific are unusually warm and those outside this region to the north and south are often unusually cool. When the IPO enters a negative phase, this situation is reversed. In the past, we have seen positive IPOs from 1925-1946 and again from 1977-1998. These were both periods that saw rapid increases in global average temperatures. The world experienced the reverse — a prolonged negative phase — from 1947-1976, when global temperatures stalled.

A striking characteristic of the most recent 21st Century negative phase of the IPO is that on this occasion global average surface temperatures continued to rise, just at a slower rate. “Although the Earth has continued to warm during the temporary slowdown since around 2000, the reduced rate of warming in that period may have lulled us into a false sense of security. The positive phase of the IPO will likely correct this slowdown. If so, we can expect an acceleration in global warming in the coming decades,” Dr Henley said. “Policy makers should be aware of just how quickly we are approaching 1.5°C. The task of reducing emissions is very urgent indeed.”

Und so hat die Natur in der Vergangenheit wirklich auf die pazifschen Ozeanzyklen reagiert:

Abb. 3: Negative PDO-Phasen führten in der Vergangenheit zu mehrjahrzehntigen Erwärmunsgpausen. Derzeit beginnt eine weitere negative PDO-Phase. Abbildungsquelle: Vahrenholt & Lüning (‘Die kalte Sonne’).

 

Wie gestaltet sich der Übergang von der positiven PDO-Phase 1975-2010 zur negativen PDO-Phase? Dazu zoomen wir uns in die letzten 25 Jahre der PDO hinein (Abb. 4). Der allgemeine PDO-Abstieg zwischen 1990 und 2013 ist gut zu erkennen. Der El Nino 1997/98 produzierte eine schöne PDO-Spitze, genau wie der El Nino 2015/16 (Abb. 4, 5). Es ist davon auszugehen, dass die derzeit fallenden PDO-Werte bald wieder dauerhaft im negativen Bereich liegen und sich die negative PDO-Phase damit entwickelt wie erwartet. Die beobachteten El Nino-Unterbrechungen stellen keinen Grund dar, am generellen Verlauf zu zweifeln.

Abb. 4: PDO-Verlauf von 1990 bis April 2017. Quelle: NOAA.

 

 

Abb. 5: Auftreten von El Nino und La Nina-Ereignissen. Quelle: Kevin Trenberth/National Center for Atmospheric Research. Via Tom Yulsman.