Norwegische Fichten kommen mit dem Klimawandel offenbar viel besser zurecht als zuvor angenommen

Die folgende neue Studie hat der deutschsprachigen Medienlandschaft offenbar so wenig gefallen, dass man sich gemeinschaftlich entschloss, sie einfach zu ignorieren. Ein Glück, dass es die Kalte Sonne gibt. Es handelt sich um eine Arbeit des Norwegian Institute of Bioeconomy Research (NIBIO), bei der ein Team um Igor Yakovlev die Fichten Norwegens hinsichtlich ihrer Widerstandsfähigkeit gegenüber dem Klimawandel untersucht hat. Das Ergebnis war unerwartet: Die Fichten kamen mit dem Klimawandel viel besser zurecht, als zuvor angenommen. Dabei erinnerten sich die Bäume offenbar an das Temperaturniveau, das zur Zeit der Samen geherrscht hat. Hier die NIBIO-Pressemitteilung vom 27. April 2016:

The survival of species suddenly looks better

Findings on Norway spruce show how plants and animals can adapt better to climate change than previously envisaged.

The spruce remembers what the temperature conditions were like when it was a seed. This memory helps it adapt to climate change. “There is a kind of flexibility in the genetic material. Environmental conditions during seed development create a memory of those temperature conditions. Much like a ‘molecular thermostat’ that can shift the growth cycle of the plant”, Carl Gunnar Fossdal explains. He is a senior research scientist with the Norwegian Institute of Bioeconomy Research (NIBIO). This exciting phenomenon is caused by epigenetics, a hot topic in science. This field of genetics looks at how environmental and other external factors affect genes and their behaviour.

Internal thermostat

In the winter, the Norway spruce is so hardened that it will survive even if it immersed in liquid nitrogen, around 200 °C below zero. In the spring, however, when the buds are flushing and it starts to grow, it has no tolerance for frost at all. If the buds flush, and then are confronted with late spring frost, all the new growth is likely to die and the tree will lose to other trees in the competition for space and resources. The internal thermostat in the Norway spruce is set when the tree is still a seed. This happens in the developing embryo. “Our research shows that this thermostat is set by epigenetic mechanisms, and the effect is lifelong”, Fossdal says.

Longer than a single life span

The effect could potentially last longer than the life of the tree itself, and be passed on to the offspring. The scientists do not know this for sure yet. Fossdal and his colleagues at NIBIO and the Norwegian University of Life Sciences (NMBU) have only followed the clonal trees for eight years so far. They need to wait at least seven more years before the trees are ready to reproduce. The work started more than 30 years ago. Most of the pioneer work was done by the Norwegian scientists Øystein Johnsen and Tore Skrøppa. Now, the scientists understand what is happening, but the exact details of these mechanisms are still an enigma. According to Carl Gunnar Fossdal: “We have a clear idea, of course, but the fine details have not been proven yet. That is what we are working on.”

Change the hereditary material

The data so far support Fossdal’s and his co-workers’ hypothesis: Epigenetics change the hereditary material. The genes coding for the epigenetic machinering is affected by the conditions during embryogenesis and Norway spruce have more genes involved in the epigenetic machinery than broadleaved trees and herbs. Epigenetic marks are laid down in the DNA as a response to the environmental conditions during epigenesis; the development of the embryo in the spruce seed. The trees show different growth rhythms based upon the environment where the seeds developed.

Plants adapt to climate change

“This phenomenon has great importance for the discussion around climate change. It shows that the memory mechanism at least in these plants, and maybe in all, adapt to changes in the environment”, Fossdal notes. Epigenetic changes happen in other species, too. Studies in mammals show that if a mother is stressed during pregnancy, her offspring are more likely to display nervous behaviour. It even affects humans. Dutch children born in a hunger period during World War II, when their mothers had too little food, did not only suffer from different illnesses than other children; they also passed this on to their own children.

Survival of the species

According to Carl Gunnar Fossdal and his colleagues, the findings in Norway spruce are important for the survival of the species. They are more adaptable to climate change than anticipated. Still only to a certain point, since the most important factor ultimately is what genes are present, but they are much more adaptable than previously thought. The species need to do more than just be able to survive climate changes – they also need to compete with other species that thrive at warmer temperatures. “Nonetheless, there are introduced Norway spruce growing even in Maui, Hawaii, and widely grown in Southeastern U.S. gardens, doing surprisingly well”, Fossdal says.

 

Um Antwort wird gebeten: Frontal21 und der Klimwandel im Senegal

An: Frontal21
Von: Sebastian Lüning

Gesendet: 18.1.2016

 

Sehr geehrte Redaktion,

Sie haben am 24.11.2015 in Ihrer Sendung im Vorfeld der Pariser Klimakonferenz über den Klimawandel berichtet. Zur Einstimmung auf das Thema zeigten Sie einen Einspielbeitrag aus dem Senegal. In diesem Zusammenhang wird behauptet, der Ort Sangomar wäre im Zuge des Klimawandels zur Insel geworden. Als Geologe kenne ich diesen Küstentyp jedoch ziemlich gut. Es handelt sich um einen Küstenstreifen mit starken küstenparallelen Strömungen, die zu ständigen Verschiebungen der Sandzungen führen und episodische Durchbrüche erzeugen. Eine ähnliche Situation gibt es auf den Ostfriesischen Inseln. Auf Wikipedia ist die Situation für das im Beitrag erwähnte Sangomar korrekt wiedergegeben:
https://en.wikipedia.org/wiki/Point_of_Sangomar

The rupture in Sangomar is the result of a natural process for the past few thousand years, which has also been noticed by sailors. In 1891, it was found that the gap had widened from 25 to 30m since 1886. In the twentieth century, several breaks were reported including: 1909, 1928, 1960, 1970, etc. The latest occurred on 27 February 1987 at a place called Lagoba. A year later, the gap was reported to be 1 km wide, and ten years later, about 4 km.Several camps and buildings were destroyed. The fish packing plant at Djifer was closed in 1996. The village located 4 km north of the first breakpoint is increasingly threatened and authorities are considering the evacuation of its inhabitants to the new port of Diakhanor.Parallel to the phenomenon of erosion, occurs a process of sedimentation: the extremity of the new Southern Island of Sangomar increases by 100 m per annum to the south and, on the opposite bank, the outskirts of the villages of Niodior and Dionewar are silting considerably, reducing traffic of vessels and contributing to the isolation of populations.

Ich finde es erstaunlich, dass Sie Ihren Zuschauern fälschlicherweise einen Zusammenhang mit dem Klimawandel vorgeben. Das hätte sich mit ein wenig Googlen oder den richtigen wissenschaftlichen Beratern leicht vermeiden lassen können. Auch ist der Meeresspiegel im Senegal laut Dakar-Küstenpegel nicht außergewöhnlich stark angestiegen.
http://www.psmsl.org/data/obtaining/stations/1816.php

Zudem ist Küstenerosion ein ganz normales Phänomen, unabhängig vom Klimawandel.

Desweiteren behaupten Sie im Beitrag, es gäbe immer schlimmere Stürme und heftigere Regengüsse im Senegal, die alle Folge des Klimawandels wären. Könnten Sie mir bitte die entsprechenden wissenschaftlichen Arbeiten angeben, die eine Zunahme der Stürme im Senegal belegen würde? Ansonsten wären dies unbelegte Behauptungen, die in einer analytischen Sendung wie Frontal21 nichts zu suchen haben.

Abschließend wird noch behauptet, dass extreme Regenfälle im Senegal zugenommen hätten. Auch dies kann von der Wissenschaft nicht bestätigt werden. Sarr et al. 2015 fanden keinen belastbaren Trend:
http://www.sciencedirect.com/science/article/pii/S2214581815000646

Gerade im Themenfeld Klimawandel sollten die berichteten Fakten stimmen. Das Thema ist zu wichtig und gesellschaftspolitisch sensitiv, als dass Mutmaßungen oder persönliche Meinungen die Grundlage für die Diskussion bilden könnten. Es wäre wichtig, dass Sie die meiner Meinung nach fehlerhafte Darstellung in einer Ihrer zukünftigen Sendungen korrigieren. Die Zuschauer verlassen sich auf die Integrität Ihrer Analysen, die jedoch in diesem Fall leider nicht gegeben war.

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

——————————

An: Dr. Sebastian Lüning
Von: Dr. Peter Frey, ZDF-Chefredakteur

Gesendet: 18.4.2016

(Antwortschreiben wird an dieser Stelle ergänzt, sobald die Genehmigung des ZDF hierzu vorliegt)

Inhaltliche Zusammenfassung:

Dr. Frey erklärt, man habe den Sendebeitrag nocheinmal überprüft, habe aber keine Fehler feststellen können. Die Redaktion habe sich auf Aussagen von Dr. Koko Warner vom Institute for Environment and Human Security verlassen. Dr. Warner hätte auch Studien genannt (die Dr. Frey jedoch leider nicht namentlich zitiert), die den Einfluss des Klimawandels auf die Küste des Senegals angeblich belegen würden.

Desweiteren habe der ZDF-Kollege Bernd Reufels die Lokalbevölkerung und Umweltschützer in der Region befragt, die allesamt eine Zunahme der Küstenerosion in letzter Zeit beklagt hätten. Weiterhin hätte die Konrad-Adenauer-Stiftung in ihrem Klimareport 2014 den Senegal als eines der am stärksten vom Klimawandel betroffenen Ländern genannt, insbesondere durch Küstenerosion und Meeresspiegelanstieg.  

——————————

Wir danken Dr. Frey für seine Antwort und wollen seinen Hinweise gerne nachgehen.

1) Wer ist Koko Warner?
Dr. Warner saß bis April 2016 im Vorstand der sogenannten “Munich Climate Insurance Initiative“, die eng mit der Munich Re verbandelt ist. Zu ihren Vorstandskollegen gehörte u.a. Peter Hoeppe, der als Munich Re-Angestellter ein großes Interesse daran hat, die Klimagefahr möchst dramatish aussehen zu lassen, da dies das Extremwetter-Versicherungsgeschäft kräftig ankurbelt. Warner ist Ökonomin, keine Naturwissenschaftlerin. In ihren Projekten arbeitet sie vor allem über ökonomische und gesellschaftliche Klimawandelfolgen. Insofern sind Warners Hinweise zu angeblichen Klimaschäden im Senegal mit Vorsicht zu genießen.

 2) Was ist das Institute for Environment and Human Security?
Ein Institut der UNO in Bonn, an dem Dr. Warner seit April 2016 als ‘Manager’ tätig ist.

3) Befragung von Landbevölkerung und Umweltschützern ist keine etablierte wissenschaftliche Methode. Das Gedächtnis der Menschen ist allgemein begrenzt und überhöht meist die Ereignisse der letzten Jahre. Stichwort “Früher war alles besser”, z.B. hier und hier.

4) Klimareport 2014 der Konrad-Adenauer-Stiftung
Das pdf des Report gibt es hier. Das Senegal-Kapitel findet sich auf den Seiten 93-96. Geschrieben wurde es von Dr. Ute Gierczynski-Bocandé von der Konrad-Adenauer-Stiftung, studiert und promoviert in französischer und deutscher Literatur und Sprache, Afrikanistik, und Pädagogik. Die Autorin ist keine Naturwissenschaftlerin. Das Senegal-Kapitel enthält keine belastbaren Aussagen hinsichtlich des Klimawandels im Senegal, insbesondere keine Verweise auf verwendete Literatur.

Die Antwort des ZDF ist daher enttäuschend. Bei den Journalistenrecherchen kam offenbar kein einziger Naturwissenschaftler zu Wort, stattdessen verließ man sich auf persönliche Meinungen von Ökonomen, Sprachwissenschaftlern, Afrikanisten, Pädagogen sowie die Lokalbevölkerung. Gerade beim hochpolitischen Thema Klimawandel ist dies absolut ungenügend, wenn es um naturwissenschaftliche Aussagen zur Klimagefahr geht. Noch schlimmer: Der Großteil der Zuschauer wird diese Qualitätsmängel bei der Berichterstattung gar nicht bemerkt und die Aussagen als Expertenmeinungen für bare Münze genommen haben. Hier muss Frontal21 dringend nachbessern.

——————————

An: Dr. Peter Frey, ZDF-Chefredakteur
Von: Dr. Sebastian Lüning

Gesendet: 24.5.2016

 

Sehr geehrter Herr Dr. Frey,

Ganz herzlichen Dank für Ihre ausführliche Antwort zu meiner Email bezüglich der Frontal21-Berichterstattung am 24. November 2015 zum Klimawandel im Senegal. Obwohl ich mich sehr freue, dass Sie meine Einwände ernst nehmen, war ich über den Inhalt Ihres Schreibens doch einigermaßen erschüttert. Ich hatte bemängelt, dass die naturwissenschaftlichen Grundlagen (hier: dynamische Küstenmorphologie) im Beitrag ignoriert wurden, wodurch die Klimagefahr in einem ganz falschen Licht dargestellt wurde. Die von Ihnen genannte Beraterin Dr. Koko Warner ist studierte Ökonomin, daher wohl kaum eine gute Recherchequelle für die geologische Küstendynamik. Dasselbe gilt übrigens auch für die Autorin des Senegal-Kapitels im Klimareport 2014 Konrad-Adenauer-Stiftung, die französische & deutsche Literatur und Sprache, Afrikanistik und Pädagogik studiert hat. Offenbar hat das Frontal21-Team keinen einzigen Naturwissenschaftler zur Thematik befragt. Wie gesagt, ein einziger Blick in Wikipedia hätte ausgereicht, um die Fehlinterpretation zu vermeiden. Die Befragung der Lokalbevölkerung und von Umweltaktivisten ist ebenfalls keine anerkannte wissenschaftliche Methode, insbesondere im Hinblick auf das “Früher war alles Besser-Phänomen”. http://karrierebibel.de/nostalgie-war-frueher-alles-besser/

Es ist ein Grundcharakteristikum dieses speziellen dynamischen Sand-Küstentyps, dass es zu schnellen örtlichen Änderungen bei Erosion und Ablagerung kommt. Hätte Ihr Kollege die Bevölkerung im Senegal vor 100 Jahren befragt, so hätte er vermutlich exakt dieselben Antworten bekommen. Sie erwähnen, dass Frau Dr. Warner dem Frontal21-Team Publikationen zur Küstenerosion im Senegal vorgelegt hat. Es wäre schön, wenn Sie mir diese Studien nennen könnten.

Meiner Meinung nach hat das Frontal21-Team hier schlampig recherchiert und sollte sich mit der Kritik angesichts der großen Bedeutung des Themas Klimawandels inhaltlich auseinandersetzen. Die Zuschauer haben ein Recht darauf, ausgewogen und fachlich korrekt über den Klimawandel unterrichtet zu werden, gerade auch im Vorfeld der damaligen Klimakonferenz.

Mit freundlichen Grüßen

Sebastian Lüning

 

P.S. Im Sinne der Transparenz möchte ich Sie bitten mir zu erlauben, Ihre Antwort auf kaltesonne.de bekanntzugeben

 

Neue Studie der George Washington University: Modelle zu kalifornischen Waldbränden überschätzen Rolle des Klimawandels

Immer wenn irgendwo der Wald brennt, ist der Schuldige schnell gefunden. Es muss wohl der Klimawandel sein, wer denn sonst. Eine Forschergruppe um Michael L. Mann (das ist nicht der Hockeystick-Mann, der Michael E. Mann heißt) veröffentlichte am 28. April 2016 in PLOS One eine explosive Studie, die Unerhörtes fand: Das individuelle menschliche Verhalten hat neben dem Klimawandel ebenfalls einen sehr starken Einfluss auf die Entstehung von Waldbränden. In Kalifornien gehen 90% aller Waldbrände auf menschliche Ursachen zurück. Die Forscher fordern daher stärkere Bemühungen, das Verhalten der Menschen zu beeinflussen, z.B. keine brennenden Zigarettenstummel mehr aus dem Wagen zu werfen. Im Folgenden die entsprechende Pressemitteilung der George Washington University zur Veröffentlichung:

It’s Not Just Climate Change: Study Finds Human Activity Is a Major Factor Driving Wildfires

Study Weighs Human Influence in Wildfire Forecast Through 2050

A new study examining wildfires in California found that human activity explains as much about their frequency and location as climate influences.  The researchers systematically looked at human behaviors and climate change together, which is unique and rarely attempted on an area of land this large. 

The findings suggest many models of wildfire predictions do not accurately account for human factors and may therefore be misleading when identifying the main causes or drivers of wildfires. The newest model proportionately accounts for climate change and human behavioral threats and allows experts to more accurately predict how much land is at risk of burning in California through 2050, which is estimated at more than 7 million acres in the next 25 years. 

The paper, “Incorporating Anthropogenic Influences into Fire Probability Models: Effects of Human Activity and Climate Change on Fire Activity in California,” appears Thursday in PLOS ONE. 

Climate change affects the severity of the fire season and the amount and type of vegetation on the land, which are major variables in predicting wildfires. However, humans contribute another set of factors that influence wildfires, including where structures are built, and the frequency and location of ignitions from a variety of sources—everything from cigarettes on the highway to electrical poles that get blown down in Santa Ana winds. As a result of the near-saturation of the landscape, humans are currently responsible for igniting more than 90 percent of the wildfires in California.

“Individuals don’t have much control over how climate change will affect wildfires in the future. However, we do have the ability to influence the other half of the equation, those variables that control our impact on the landscape,” said Michael Mann, assistant professor of geography at the George Washington University and lead author of the study. “We can reduce our risks by disincentivizing housing development in fire-prone areas, better managing public land and rethinking the effectiveness of our current firefighting approach.”

The researchers found that by omitting the human influence on California wildfires, they were overstating the influence of climate change. The authors recommend considering climate change and human variables at the same time for future models. 

“There is widespread agreement about the importance of climate on wildfire at relatively broad scales. At more local scales, however, you can get the story quite wrong if you don’t include human development patterns,” said Max Moritz, a co-author and a University of California Cooperative Extension specialist based at UC Berkeley. “This is an important finding about how we model climate change effects, and it also confirms that getting a handle on where and how we build our communities is essential to limiting future losses.”

Between 1999 and 2011, California reported an average of $160 million in annual wildfire-related damages, with nearly 13,000 homes and other structures destroyed in so-called state responsibility areas—fire jurisdictions maintained by California, according to Dr. Mann. During this same period, California and the U.S. Forest Service spent more than $5 billion on wildfire suppression.

In a model from 2014 that examined California wildfires’ destruction over the last 60 years, Dr. Mann estimated that fire damage will more than triple by 2050, increasing to nearly half a billion dollars annually. “This information is critical to policymakers, planners and fire managers to determine wildfire risks,” he said.

 

Das Ergebnis passt gut zu einer Studie eines Teams um Scott Anderson, die im Dezember 2013 in The Holocene erschien. Die Autoren fanden, dass die Waldbrandentwicklung Kaliforniens während der letzten Jahrtausende eng an die Besiedlungsgeschichte gekoppelt war. Hier die Kurzfassung:

Holocene and historical vegetation change and fire history on the north-central coast of California, USA
Pollen, non-pollen palynomorphs (NPPs), and charcoal particle stratigraphies are used to determine environmental change at Glenmire, Point Reyes Peninsula, northcentral coastal California, over the last c. 6200 years. Pollen was not preserved in early Holocene sediments when climate was drier than present. However, groundwater tables rose after c. 6200 cal. BP, allowing for greater subsequent preservation of organic matter. Middle and late Holocene environments were a mosaic of vegetation types, including mixed conifer forest with coastal scrub grassland prior to c. 4000 cal. BP. Subsequently, hardwoods such as alder (Alnus) and coastal scrub (e.g. Artemisia, Baccharis) expanded until c. 2200 cal. BP, followed by tanoak (Lithocarpus densiflorus), Douglas fir (Pseudotsuga menziesii), and coast redwood (Sequoia sempervirens). With increasing amounts of oak (Quercus), this mosaic of vegetation types continued to dominate until the arrival of Euro-Americans in the early to mid-1800s. The fire history is probably tied closely to human settlement, since natural ignitions are rare. Elevated charcoal amounts coincide with increased sedentism of the native populations by about 3500 cal. BP. Increased sedentism may have caused a more intense and constant use of the coastal environment around Glenmire. For the most recent centuries, we compared historical records of explorations, Spanish Mission establishment, consolidation of the native Coast Miwok population, ranching by Mexican nationals, and dairying by Americans at the height of California’s gold rush with the paleoecological record. The Glenmire record thus documents changing fire use following the ad 1793 fire suppression proclamation; declines in native forest species; introductions of non-native species, including those associated with livestock grazing and land disturbance; and an increase in coprophilous fungi (NPPs) associated with the presence of large numbers of sheep and cattle, among other changes. During the historical period, the sedimentary record of historical fires closely matches the nearby fire-scar tree-ring record.

Interessant auch eine Trendanalyse aus der kalifornischen Sierra Nevada von Chad Hanson und Dennis Odion, die im Zeitraum von 1984-2010 auf Basis von Satellitenbildern keinen Trend in der Waldbrandhäufigkeit feststellen konnte. Die Autoren schlussfolgern, dass der Einfluss des Klimawandels auf die Waldbrandentstehung im Vergleich zu menschlichen Auslösern gering ist. Hier der Abstract der Studie, die 2013 im International Journal of Wildand Fires erschien:

Is fire severity increasing in the Sierra Nevada, California, USA?
Research in the Sierra Nevada range of California, USA, has provided conflicting results about current trends of high-severity fire. Previous studies have used only a portion of available fire severity data, or considered only a portion of the Sierra Nevada. Our goal was to investigate whether a trend in fire severity is occurring in Sierra Nevada conifer forests currently, using satellite imagery. We analysed all available fire severity data, 1984–2010, over the whole ecoregion and found no trend in proportion, area or patch size of high-severity fire. The rate of high-severity fire has been lower since 1984 than the estimated historical rate. Responses of fire behaviour to climate change and fire suppression may be more complex than assumed. A better understanding of spatiotemporal patterns in fire regimes is needed to predict future fire regimes and their biological effects. Mechanisms underlying the lack of an expected climate- and time since fire-related trend in high-severity fire need to be identified to help calibrate projections of future fire. The effects of climate change on high-severity fire extent may remain small compared with fire suppression. Management could shift from a focus on reducing extent or severity of fire in wildlands to protecting human communities from fire.

Schließlich sei noch auf eine Studie aus dem Juli 2015 hingewiesen, in der ein ganz unerwarteter weiterer Schuldiger für die Entstehung von Waldbränden in Kalifornien genannt wird: Luftmassenintrusionen aus der Stratosphäre. Die American Geophysical Union (AGU) gab hierzu die folgende Pressemitteilung heraus:

Stratospheric accomplice for Santa Ana winds and California wildfires
Southern Californians and writers love to blame the hot, dry Santa Ana winds for tense, ugly moods, and the winds have long been associated with destructive wildfires. Now, a new study finds that on occasion, the winds have an accomplice with respect to fires, at least: Natural atmospheric events known as stratospheric intrusions, which bring extremely dry air from the upper atmosphere down to the surface, adding to the fire danger effects of the Santa Anas, and exacerbating some air pollution episodes.

The findings suggest that forecast models with the capacity to predict stratospheric intrusions may provide valuable lead time for agencies to issue air quality alerts and fire weather warnings, or to reallocate firefighting resources before these extreme events occur. “The atmosphere could give us an early warning for some wildfires,” said Andrew Langford, a research chemist at the National Oceanic and Atmospheric Administration’s (NOAA) Earth System Research Laboratory in Boulder, Colorado, and lead author of the study.

Researchers at NOAA’s National Environmental Satellite, Data, and Information Service (NESDIS) and the Cooperative Institute for Research in Environmental Sciences (CIRES) at CU-Boulder coauthored the work, which has been accepted for publication in Geophysical Research Letters, a journal of the American Geophysical Union. The authors took a detailed look at the May 2013 “Springs Fire” that burned 100 square kilometers (25,000 acres) about 75 kilometers (50 miles) northwest of Los Angeles. The researchers used a NOAA forecast model that incorporates satellite observations of ozone, wind data, and other atmospheric information to detect the occurrence of the intrusions.

The analysis showed that in the early hours before the Springs Fire, a tongue of air characteristic of the stratosphere–extremely dry and very high in ozone from the stratosphere’s ozone layer–reached to the surface in southern California and extended as far south as Baja California. The researchers found that ground-based monitoring stations near the fire’s origin also confirmed the telltale signs of the intrusion right before the fire broke out: A large drop in relative humidity and a rise in ozone. As the day went on, a combination of factors accelerated the fire: Low humidity, persistent high winds, dry condition of the grasses and other vegetation, clear skies and bright sunlight, and very warm surface temperatures. A few days later, cloudy skies, a drop in temperature, a shift in winds, and widespread rainfall helped extinguish the fire.

The stratospheric intrusion also had another downside during the Springs Fire: It added ozone from the upper atmosphere to the urban and fire-related pollution produced in the lower atmosphere. On the second and third days of the fire, this helped to push levels of ozone–which can harm people’s lungs and damage crops–over the federal ozone limit at 24 monitoring sites across southern California. Monitors as far away as Las Vegas also saw a spike in ozone on the third day of the fire. The observed exceedances of the ozone standard were unusual for the region for that time period, suggesting that the stratospheric intrusions were a contributing factor.

“Stratospheric intrusions are double trouble for Southern California,” said Langford. “We knew that the intrusions can add to surface ozone pollution. Now we know that they also can contribute to the fire danger, particularly during La Niña years when deep intrusions are more frequent, as recently shown by our NOAA colleagues at the Geophysical Fluid Dynamics Laboratory. The good news is that with models and observations, we can get an early warning from the atmosphere in some cases.”

The authors note that stratospheric intrusions have previously been implicated in the explosive development of wildland fires in New Jersey and Michigan, but have not previously been connected to fires in southern California or to the Santa Ana winds. The frequent occurrence of stratospheric intrusions above the west coast during the fall, winter, and spring suggests that similar circumstances may have played a role in other major southern California fires, including the series of destructive fires that burned more than 3,000 square kilometers (more than 800,000 acres) in October of 2003, and burned about 4,000 square kilometers (nearly a million acres) in October of 2007, say the authors.

 

Energiewende kostet 2016 laut Institut der deutschen Wirtschaft rund 31 Milliarden Euro

Allmählich hat es wohl auch der Letzte gemerkt, dass die stümperhaft geplante Energiewende so nicht weitergehen kann. Die Wirtschaftswoche fand am 12. Mai 2016 klare Worte:

Energiewende: Warum die Ökostromförderung endlich enden muss
Die Stromerzeugung aus Wind, Sonne, Wasser und Biomasse braucht neue Spielregeln, sie kostet Verbraucher und Wirtschaft jährlich Milliarden. Wie das Erneuerbare-Energien-Gesetz (EEG) reformiert werden soll, was das für Verbraucher und Erzeuger bedeutet. [...]  Insgesamt müssen Verbraucher und Wirtschaft derzeit pro Jahr bis zu 24 Milliarden Euro per Umlagen für den Ausbau der grünen Stromerzeugung aus Wind, Sonne, Wasser und Biomasse bezahlen. Dabei ist schon heute an guten Standorten die Stromerzeugung mit Windanlagen an Land auch ohne Förderung günstiger als Strom aus Kohle- oder aus Kernkraftwerken. Windturbinen werden immer effizienter, Windparks können aus der Ferne gesteuert werden. Zwischen 2010 und 2014 sind die Kosten für die Erzeugung von Windstrom um ein Drittel gesunken. Wenn der Staat nun also die öffentliche Förderung der Erneuerbaren zurückschrauben will, dann ist das überfällig. Viele Jahre schon profitieren Unternehmen wie Enercon vom süßen Gift staatlicher Subventionen. Ihr Geschäft ist längst marktreif.

Ganzen Artikel auf wiwo.de lesen.

Ein Blick auf die Stromrechnung reicht, um das Problem zu erkennen. Die Welt erklärte es am 27. April 2016:

Strom ist teuer wie nie – Wie es dazu kam
Es schien, als könnten die Strompreise endlich sinken: Doch in Wahrheit zahlen Deutschlands Verbraucher derzeit so viel wie noch nie. Stromkunden werden sogar noch stärker belastet als Autofahrer.
Ein Jahr lang konnten die Deutschen auf sinkende oder wenigstens stabile Strompreise hoffen. Doch spätestens jetzt haben sie Gewissheit, dass sich diese Erwartung nicht erfüllen wird. Ganz im Gegenteil: Eine aktuelle Analyse des Preisvergleich-Portals TopTarif offenbart, dass Verbraucher für ihren Strom derzeit so viel bezahlen wie noch nie. Das Preisniveau der Grundversorgung in Deutschland erreichte im April sein Allzeithoch. Verbraucher, die ihren Strom im Standardtarif vom örtlichen Versorger kaufen, müssen aktuell durchschnittlich 30,27 Cent pro Kilowattstunde (kWh) zahlen, vor einem Jahr kostete der Strom noch deutlich weniger als 30 Cent. Eine vierköpfige Musterfamilie mit einem Verbrauch von 4000 kWh zahlt demnach im April im Schnitt 1211 Euro im Jahr für Strom, wie die Daten von Toptarif zeigen. Vor einem Jahr waren es noch weniger als 1200 Euro, vor fünf Jahren waren es nur gut 1000 Euro.

Weiterlesen auf welt.de.

Wo bleibt das ganze Geld? Die Wirtschaftswoche verriet es am 28. April 2016:

Windräder stehen still – und kosten Hunderte Millionen Euro
Weil das Stromnetzes überlastet ist, müssen immer mehr Windräder abgeregelt werden. Das kostet die Netzbetreiber Hunderte Millionen Euro. Wegen des Booms der erneuerbaren Energien müssen immer mehr Windräder abgeregelt werden. Grund dafür ist die Überlastung des Stromnetzes. Die Netzbetreiber müssen Windräder abregeln, wenn ihr Strom das Netz zu verstopfen droht. Ursprünglich war dies als Notmaßnahme gedacht. Die Wind- und Solarparkparkbetreiber werden jedoch für den nicht produzierten Strom vergütet.

Weiterlesen in der Wirtschaftswoche

Anstatt die unkontrollierten Geldabflüsse endlich zu stoppen, schmeißt man munter weiter mit Euros um sich, wie die FAZ am 27. April 2016 erläuterte:

Neue Subvention „Die Prämie für E-Autos ist ein schwerer Fehler“
Die Regierung hat die 4000-Euro-Kaufprämie für Elektro-Autos beschlossen. Automanager und Betriebsräte sind glücklich. Doch viel mehr Freunde hat die Prämie nicht. [...] Die Umweltschutzorganisation BUND moniert das „Milliardengeschenk“ an die Branche. Besonders problematisch sei die Prämie für Plug-in-Hybride, die “meist nur auf dem Papier sparsam und sauber” seien. Harsche Kritik kam auch von namhaften Ökonomen: „Die Prämie für E-Autos halte ich für einen schweren Fehler”, sagte  Ifo-Präsident Clemens Fuest. Die 600 Millionen Steuergelder wären besser in der Erforschung und Entwicklung neuer Umwelttechnologien angelegt. 

Ganzen Artikel in der FAZ lesen.

Was kostet der ganze Spaß eigentlich? Finanznachrichten.de weiß es:

Energiewende kostet 2016 laut IW rund 31 Milliarden Euro
[...] Das sind rund drei Milliarden oder elf Prozent mehr als 2015. Ein Grund seien die immer größeren Kosten zur Stabilisierung des Stromnetzes. Außerdem verursache der anhaltende Ausbau der erneuerbaren Energien zusätzliche Belastungen.

Ganzen Artikel auf Finanznachrichten.de lesen

Visionen, Aktionen und Realität. Ruhrkultour beschrieb am 27. April 2016 ein einprägsames Beispiel, wie eine Energiewende scheitern kann:

El Hierro – Das bittere Ende eines Energiewende-Märchens
“Seit dem 27. Juni 2014 wird die elektrische Energie der Insel vollständig von Windkraft erzeugt”, heißt es im Nachschlagewerk Wikipedia, unter Berufung auf einen Artikel aus der Zeitschrift GEO*, der allerdings vom August 2013 stammt. Titel: “El Hierro wird Ökomodell”. Die Realität hat den Traum schon längst  beendet, genau besehen, bereits vor den ersten Baumaßnahmen des Projekts. [...]  „Im Jahre 2015 wurde der Wunschtraum, 100 % Strom aus Erneuerbarer Energie zu beziehen, am 9. August für etwas mehr als 2 Stunden erreicht. In der ersten Jahreshälfte konnten die sauberen Energiequellen zu 30 % genutzt werden. In den Monaten Juli und August lagen die Mittelwerte zwischen 49 und 55 %. Die fehlende Energie musste das alte Schwerölkraftwerk beisteuern, das man eigentlich stilllegen wollte“, so der Blog lapalma1.net.

Ganzen Artikel auf Ruhrkultour lesen.

Angesichts der Energiewenden-Misere überrascht es nicht, dass die EU mittlerweile plant, die Zügel etwas zu lockern. Ofimagazine.com meldete am 13. Mai 2016, dass die EU nach 2020 wohl die verpflichtende Beimischung von Biotreibstoffen im Transportwesen wegfallen lassen könnte:

EU confirms the green transport target will be scrapped post-2020
Current laws in the EU, which require member states to use at least 10% of renewable energy in the transport sector, are to be scrapped after 2020, EurActiv reported on 4 May. A revision of the current Renewable Energy Directive (RED) will be tabled by the European Commission (EC) at the end of the year, with the aim being to push wind and solar energy. Marie Donnelly, director for renewables at the EC commented, “we will look specifically at the challenges and opportunities of renewable fuels including biofuels”. The 10% renewable fuel target for the transport sector would be dropped in a new post-2020 directive, Donnelly said.

Weiterlesen auf Ofimagazine.com

Mittlerweile erwägt auch die dänische Regierung, die Subventionen für die Erneuerbaren Energien stark zurückzufahren.

Bedenklich ist die wachsende Gewaltbereitschaft von Klimaaktivisten. Vor kurzem stürmten Aktivisten das große Braunkohlekraftwerk Schwarze Pumpe. Roland Tichy schrieb dazu am 16. Mai 2016:

Energiepolitik: Erfolgreicher Angriff auf Kraftwerk
Erstmals wurde die Stromerzeugung durch brutale Angriffe von Demonstranten gefährdet und musste herabgefahren werden. Es gab aber auch Gegendemonstrationen. Die Grünen wiederum freuen sich, dass das Energieversorgung bald insgesamt blockiert werden könnte. [...] Nach Polizeiangaben waren rund 1.600 Aktivisten aus ganz Europa in die Lausitz gekommen. Das Bündnis „Ende Gelände“ zog eine rundum positive Bilanz nach den Protesten. „Das Aktionswochenende hat alle unsere Erwartungen übertroffen“, hieß es seitens des Bündnisses. Für Diskussionen dürfte in den kommenden Tagen noch der äußerst passive Polizeieinsatz sorgen. „Die Beamten hatten den Besetzern das gesamte Wochenende nahezu freies Geleit gelassen. Was immer sie besetzen wollten – sie konnten gemütlich hineinlaufen“, freute sich die taz .

Ganzen Artikel auf rolandtichy.de lesen.

Machen hier Aktivisten und Politik bereits gemeinsame Sache?  Toleriert oder sogar selbst bestellt? Es würde jedenfalls ins Bild passen.

 

Wie der „Guardian“-Chef zum Klimakämpfer wurde

Im September 2015 erschien von Horst Demmler das Buch Wider den grünen Wahn: Eine Streitschrift (Edition Octopus). In der Buchbeschreibung heißt es:

Die Grünen haben wie keine andere Partei oder Gruppierung den Geist der Zeit in den letzten Jahrzehnten bestimmt. Die von ihnen repräsentierte Umweltbewegung war in dieser Periode die einzige originäre neue Kraft. Die Grünen haben mit ihren Themen die gesellschaftlichen Diskussionen geprägt. Sie wurden groß durch ihren leidenschaftlichen Kampf gegen die Kernkraft. Sie triumphierten, als nach dem Reaktorunglück in Fukushima der Ausstieg aus der Kernenergie beschlossen wurde und auch die Bundeskanzlerin erkannte, was Restrisiko bedeutet. Sie haben die regenerativen Energien gefördert und das Erneuerbare-Energien-Gesetz (EEG) auf den Weg gebracht. Deutschland ist auf diesem Gebiet Spitzenreiter in der Welt. Die Grünen waren mit ihren Themen auf allen Gebieten erfolgreich. Wie keine andere Partei können sie auf die Unterstützung durch die Medien rechnen. Die wichtige Frage aber ist: Haben sie auch recht? Ist es vernünftig, ihren Vorschlägen zu folgen? Das soll in diesem Buch geprüft werden.

Preis: € 20,40. Weitere Textproben hier.

—————-

Vor kurzem berichteten wir an dieser Stelle über neue Studien, die ein Ergrünen des Planeten durch den CO2-Düngeeffekt festgestellt haben. Der Cartoon-Zeichner Josh hat sich dazu eine nicht ganz unrealistische Interviewszene ausgedacht:

Weitere Klima-Cartoons von Josh hier.

—————-

Der MIT-Klimaforscher Richard Lindzen hat die Klimaproblematik im April 2016 in einem 5-minütigen Video zusammengefasst:

Das Script des Films zum Nachlesen gibt es hier. Siehe auch Alfred Brandenbergers Zusammenstellung zu Lindzen.

—————-

Wenn Redakteure zu Klimaaktivisten werden… Bereits vor einigen Tagen haben wir hier im Blog einen bedauernswerten Fall vorgestellt (“Wenn als Redakteure getarnte Aktivisten gemeinsame Sache mit der Versicherungsindustrie machen: Das Märchen von den Klimawandel-Waldbränden“). Der ORF berichtete am 3. Mai 2016 über ein weiteres Beispiel, bei dem ein vormals neutral berichtender Journalist auf Aktivistenabwege geriet:

Wie der „Guardian“-Chef zum Klimakämpfer wurde
Alan Rusbridger, der langjährige Chefredakteur des „Guardian“, hat den Journalismus an den Nagel gehängt – und ist nun Umweltaktivist. Anlässlich eines Vortrages in Wien erzählte er, wie es zu dieser Wende in seinem Leben kam.

Nicht schön, meine Damen und Herren.

 

ARD-Doku “Im Land der Lügen – Wie uns Politik und Wirtschaft mit Zahlen manipulieren”

In der ARD lief am 11. April 2016 eine höchst sehenswerte Doku, die allen Bloglesern wärmstens ans Herz gelegt wird. Auf der Webseite zum Film heißt es:

Im Land der Lügen – Wie uns Politik und Wirtschaft mit Zahlen manipulieren
Zahlen lügen nicht! Diese angebliche Wahrheit machen sich viele zunutze – vor allem Politik und Wirtschaft, lassen sich doch hinter scheinbar objektiven Zahlen die wahren Interessen und Ziele “wissenschaftlich” verbergen.

Ob Bluthochdruck oder Blutzucker – die letzten Jahre wurden die Grenzwerte immer wieder gesenkt. Zur Freude der Pharmaindustrie, die auf diese Weise zu Millionen neuer Patienten kommt. Und der medizinische Nutzen ist längst nicht so eindeutig, wie man der Öffentlichkeit suggeriert, basieren die Zahlen doch oft auf fragwürdigen Studien, die interessengesteuert entstanden sind, sagt der weltweit anerkannte Risikoforscher Prof. Gerd Gigerenzer.

“Wir sollten aber nicht nur beklagen, dass man uns mit Zahlen manipuliert. Wir brauchen auch Ärzte, die wissen, wie Grenzwerte entstehen und was sie tatsächlich bedeuten”, fordert Gigerenzer.

Nur ein Beispiel von vielen, wie Wirtschaft oder Politik den Menschen ein X für ein U verkaufen. Ob Cholesterin oder Bevölkerungsprognosen mit Arbeitskräftemangel samt Rentenlücke – täglich wird die Öffentlichkeit mit einer Datenflut überschüttet. Doch kann man den Zahlen wirklich vertrauen? Woher kommen sie? Welche Interessen stecken dahinter und wie wird getrickst? Zahlen, Daten, Diagramme nach Interessenlage? Wie kommen Versicherer zum Beispiel auf Lebenserwartungen von 115 Jahren bei ihren Prämienberechnungen?

Diese Dokumentation begibt sich auf eine Suche nach der Wahrheit im “Land der Lügen”. Zeigt, mit welchen Tricks getäuscht und manipuliert wird. Und worauf man in Zukunft achten sollte, wenn man nicht im Zahlenmeer ertrinken will. Denn ohne Glaubwürdigkeit haben die besten Zahlen und die schönsten Statistiken jeden Wert verloren.

Ein Film von Tilman Achtnich

Online auch auf Youtube verfügbar:

—————-

Am 9. Juni 2016 können sich wieder Journalisten kostenlos über den Klimawandel “informieren”. Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) warb in einer Pressemitteilung auf idw für die Veranstaltung in Hannover:

Journalistenworkshop “Klimawandel in Norddeutschland”

Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Einladung zum Journalisten-Workshop zu Extremwetter, Risikovorsorge und Strategien für weniger Treibhausgase | 9. Juni 2016 | Hannover

Termin: 9. Juni 2016, 10.00 Uhr bis 15.00 Uhr
Ort: Werkhof Hannover Nordstadt, Schaufelder Straße 11, 30167 Hannover

Deutschland hat immer mehr mit den Folgen des Klimawandels zu kämpfen, wie Studien des Deutschen Wetterdienstes zeigen. Steigende Temperaturen, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf die deutsche Gesellschaft aus. Mehr Hitzetage führen zu höheren Gesundheitsrisiken, da die Hitze Menschen stark belasten kann. Städte sind besonders betroffen, weil sie sich im Sommer stärker aufheizen als das Umland. Und auch Starkregen kann in dicht besiedelten Räumen große Schäden anrichten.

• Was bedeuten die Szenarien der Klimaforschung für Norddeutschland?
• Lässt sich der Klimawandel abmildern?
• Wo werden welche Wetterextreme häufiger vorkommen und mit welchen Konsequenzen?
• Wie sind Kommunen, Unternehmen und die Politik auf den Klimawandel vorbereitet und was kann jede/r Einzelne tun?

Weiterlesen auf idw.

Steigende Temperaturen in Deutschland? Ja und nein. Siehe:

Feuchtere Winter? Kann sein. Aber ist das schlimm? Bei den Extremniederschlägen sind jedenfalls keine Auffälligkeiten zu vermelden:

Häufigere Wetterextreme? Wohl kaum:

Kann man sich auf die Inhalte des Workshops verlassen, wenn bereits in der Ankündigung irreführende Angaben gemacht werden?

—————-

Die Wissenschaftliche Abteilung der Französischen Botschaft in der Bundesrepublik Deutschland gab am 9. Mai 2016 per Pressemitteilung bekannt:

Ségolène Royal startet die Initiative “100 Projekte für das Klima”

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Ministerin für Umwelt, Energie und Meeresangelegenheiten, zuständig für die internationale Klimapolitik, Ségolène Royal, startete im Rahmen der Umweltkonferenz in Paris am 25. April 2016 eine neue Internet-Plattform, mit der die weltweit 100 innovativsten Bürgerinitiativen für das Klima gefördert werden sollen.

Die dreisprachige Plattform 100projetspourleclimat.gouv.fr stellt die Initiativen, Engagements und Lösungen vor, die von Bürgern aus der ganzen Welt zum Thema Kampf gegen den Klimawandel eingereicht wurden. Die auf dieser Plattform veröffentlichten Lösungen umfassen alle Bereiche des Kampfes gegen den Klimawandel: Projekte zur Verringerung der Treibhausgasemissionen und zur Anpassung an den Klimawandel, zum Schutz der Gesundheit, zum Erhalt der Biodiversität, zur Entwicklung von Frühwarnsystemen etc. Die Bürger sind weltweit dazu aufgerufen, ihre Projekte in einer der drei Sprachen (Französisch, Englisch und Spanisch) bis zum 6. Juni 2016 einzureichen. Vom 6. Juni bis zum 6. Juli 2016 können die Bürger dann ihre Favoriten auswählen. Nach der Abstimmung der Internetnutzer werden die 100 Projekte mit den meisten Stimmen von Ségolène Royal zum Sieger gekürt. Diese werden bis zur COP22 im November in Marrakesch betreut und gefördert.

Quellen:
“Ségolène Royal lance l’opération 100 projets pour le climat”, Pressemitteilung des Umweltministeriums, 25.04.2016 – http://www.developpement-durable.gouv.fr/Segolene-Royal-lance-l-operation.html

“100 projets pour le climat”, Pressemitteilung des Umweltministeriums, 25.04.2016, http://100projetspourleclimat.gouv.fr/fr/

Natürlich haben wir es uns nicht nehmen lassen, unser Kartierprojekt zur Mittelalterlichen Wärmeperiode dort einzureichen. Mal sehen, ob es zugelassen wird…

 

Panikmache zahlt sich nicht mehr aus: Klimaalarmist John Church wird von der australischen Regierung gekündigt

Die Webseite ClimateChangePredictions.org hat sich zur Aufgabe gemacht, Vorhersagen zum Klimawandel aufzuzeichnen, um sie mit der realen Entwicklung abzugleichen. Ein schönes Beispiel ist der Anstieg des Meeresspiegels. Aktuell steigt das Meer um 2-3 mm pro Jahr, was bei gleichbleibendem Trend bis zum Ende des Jahrhunderts 25 cm ausmachen würde. Das hält jedoch einige Zeitgenossen nicht davon ab, mit sehr viel höheren Anstiegsbeträgen in der Öffentlichkeit um Aufmerksamkeit zu buhlen. Eine hochinteressante Auflistung aller Prognosen finden Sie auf der genannten Webseite. So prognostiziert der australische Klimaforscher John Church 3 m bis 2100.

Angesichts dieses unerträglichen Klimaalarmismus hat die australische Regierung nun die Reißleine gezogen.Während sich Church auf einem Forschungsschiff auf halber Strecke zwischen der Antarktis und Neuseeland befand, wurde er von der australischen Forschungsbehörde CSIRO kurzerhand darüber unterrichtet, dass er “verzichtbar” sei, er seine Stelle verlieren wird. Ein überfälliges Zeichen dafür, dass ungebremster Klimaalarm nicht mehr länger tolerierbar ist. Die Gesellschaft hat Anspruch auf ausgewogene Wissenschaft. Für extreme, aktivistische Ansichten darf es keinen Platz mehr geben. Der Sydney Morning Herald berichtete am 14. Mai 2016:

Global sea-level expert John Church made to walk the plank by CSIRO
For John Church, a leading authority on sea-level rise caused by global warming, there was much that was fitting – and yet callous – about being sacked at sea. The veteran scientist was well into one of dozens of research voyages he had taken since joining CSIRO as a post doctoral student in 1979. His vessel, the RV Investigator, was midway between Antarctica and New Zealand and steaming north on the 170 degree longitude when he received Thursday’s call to tell him he was “potentially redundant”.

Weiterlesen im Sydney Morning Herald

Die Trennung von Church ist Teil einer großen Entschlankungskur, in deren Zuge hunderte von Stellen aus den Klimawissenschaften in andere hochrelevante Forschungszweige überwechseln. In Deutschland sind wir noch weit von diesem Punkt entfernt. Im Gegenteil. Das staatlich geförderte und klimaaktivistisch angehauchte IASS-Institut Potsdam sucht derzeit per Stellenanzeige auf stepstone.de einen Wissenschaftlichen Mitarbeiter:

Das Institute for Advanced Sustainability Studies e.V. (IASS) in Potsdam ist eine vom Bundesministerium für Bildung und Forschung und vom Land Brandenburg geförderte Einrichtung und widmet sich in einer ganzheitlichen Form transdisziplinär und international der Erforschung des Klimawandels, der Komponenten des Erdsystems und der Nach­haltigkeit. Weitere Informationen unter: www.iass-potsdam.de.

Das IASS sucht zum nächstmöglichen Zeitpunkt eine/n

Wissenschaftliche/n Referentin/Referenten
der Direktorin Prof. Dr. Patrizia Nanz

Kennziffer DIR-2016-04

Aufgabengebiet:

  • Strategische Unterstützung und Beratung der wissenschaftlichen Direktorin in deren Funktion als Mitglied des Vorstandes sowie bei deren sämtlichen wissenschaftlichen und forschungspolitischen Aufgaben und Tätigkeitsfeldern
  • Strategisches, konzeptionelles und inhaltliches Erarbeiten von Kommunikations- und Dialogkonzepten zwischen Vorstand und Mitarbeiterschaft, einschließlich der Mitwirkung an interner Teamentwicklung und an der Optimierung von internen Kom­mu­ni­kations­abläufen
  • Strategische, konzeptionelle und inhaltliche Entwicklung von Konzepten zur Stärkung und Weiterentwicklung der Kontaktpflege zwischen dem Vorstand und externen Partnern aus Politik, Wirtschaft und Zivilgesellschaft
  • Konzeptionelle und inhaltliche Entwicklung von Umsetzungsstrategien der Ergebnisse der Nachhaltigkeitsforschung an den Schnittstellen zu Politik, Wirtschaft und Nicht­regierungs­organisationen
  • Mitwirkung an der Umsetzung transdisziplinärer co-kreativer Veranstaltungen mit Stake­holdern

Einstellungsvoraussetzungen:

  • Universitärer Hochschulabschluss, (bevorzugt) abgeschlossene Promotion

Anforderungen:

  • Einschlägige Kenntnis der interdisziplinären Forschung, insbesondere in den Bereichen Politikwissenschaft, Partizipationsforschung und politische Theorie
  • Vertrautheit mit den Zielen und Methoden der Nachhaltigkeits- und Transformations­forschung
  • Langjährige Berufserfahrung in nationalen und internationalen Forschungsprojekten im Kontext der Nachhaltigkeitsforschung
  • Erfahrung in der Konzeption und Moderation von Bürger- und Stakeholderdialogen
  • Fähigkeit, sich in einem internationalen Umfeld zu bewegen; Englisch als Arbeitssprache
  • Exzellente kommunikative Fähigkeiten
  • Fähigkeit zu eigenständigem und selbststrukturiertem Arbeiten, Belastbarkeit
  • Bereitschaft zu Dienstreisen

Wir bieten Ihnen ein interessantes und abwechslungsreiches Aufgabengebiet in einem jungen, interdisziplinären Team und ein attraktives, internationales Arbeitsumfeld mit gutem Arbeitsklima.

Weiterlesen auf stepstone.de.

Bei der Erwähnung von “…mit gutem Arbeitsklima” muss man schon etwas schmunzeln, wenn das Hauptziel der Stelle ist, das Klima möglichst schlecht aussehen zu lassen.

 

Forschergruppe um Michael Mann: Es könnte noch bis zu zwanzig Jahre dauern, bis die Erwärmung wieder kräftig anzieht

In Diskussionen offenbaren Klimaaktivisten immer wieder erschreckende Wissenslücken. Unglaublich aber wahr: Es gibt immer noch Klimakämpfer, die nicht mitbekommen haben, dass die legendäre Hockeystick-Kurve nicht mehr existiert, von Michael Mann einige Jahre später selber aus dem Verkehr gezogen und durch eine realistischere Temperaturkurve für die vergangenen 1000 Jahre ersetzt worden ist. Mindestens genauso schlimm ist das Beharren darauf, es gäbe in den letzten anderthalb Jahrzehnten keinen Erwärmungshiatus. Dieser Irrglaube hat sich in den Hirnen offenbar tief festgesetzt. Hiatus bedeutet dabei auch nicht unbedingt komplette Erwärmungspause, sondern eine starke Verlangsamung, auf englisch “Slowdown”. Prognostiziert wurde eine Erwärmung von 0,2°C pro Jahrzehnt, eingetroffen ist sehr viel weniger.

Die Wissenschaft hat den Hiatus bzw. Slowdown bereits lange akzeptiert, da wirkt der einsame Kampf einiger Klimaaktivisten schon ziemlich lächerlich. Wer es immer noch nicht glauben wollte, konnte es am 11. Mai 2016 in der Mitgliederzeitschrift Eos der American Geophysical Union (AGU) schwarz auf weiß nachlesen:

Was the Recent Slowdown in Surface Warming Predictable?
The temporary deceleration in warming across the Northern Hemisphere earlier this century could not have been foreseen by statistical forecasting methods, a new study concludes.

From the early 2000s to the early 2010s, there was a temporary slowdown in the large-scale warming of Earth’s surface. Recent studies have ascribed this slowing to both internal sources of climatic variability—such as cool La Niña conditions and stronger trade winds in the Pacific—and external influences, including the cooling effects of volcanic and human-made particulates in the atmosphere.

Several studies have suggested that climate models could have predicted this slowdown and the subsequent recovery several years ahead of time—implying that the models can accurately account for mechanisms that regulate decadal and interdecadal variability in the planet’s temperature. To test this hypothesis, Mann et al. combined estimates of the Northern Hemisphere’s internal climate variability with hindcasting, a statistical method that uses data from past events to compare modeling projections with the already observed outcomes.

Weiterlesen in Eos.

Hockeystick-Autor Michael Mann räumt den Hiatus/Slowdown offen ein. Im Abstract der Arbeit, die im April 2016 in den Geophysical Research Letters erschien, werden die pazifischen und atlantischen Ozesanzyklen (PDO, AMO) als Ursache der fehlenden Erwärmung genannt:

Predictability of the recent slowdown and subsequent recovery of large-scale surface warming using statistical methods
The temporary slowdown in large-scale surface warming during the early 2000s has been attributed to both external and internal sources of climate variability. Using semiempirical estimates of the internal low-frequency variability component in Northern Hemisphere, Atlantic, and Pacific surface temperatures in concert with statistical hindcast experiments, we investigate whether the slowdown and its recent recovery were predictable. We conclude that the internal variability of the North Pacific, which played a critical role in the slowdown, does not appear to have been predictable using statistical forecast methods. An additional minor contribution from the North Atlantic, by contrast, appears to exhibit some predictability. While our analyses focus on combining semiempirical estimates of internal climatic variability with statistical hindcast experiments, possible implications for initialized model predictions are also discussed.

Bei aller Freude wundert man sich aber schon über die Behauptung, die pazifische Ozeanzyklen wären unverhersehbar. Das ist natürlich Quatsch, denn die PDO folgt allgemein einem klaren 60-Jahreszyklus, der die Temperaturnen systematisch beeinflusst. Die bestehenden Vorhersagemethoden berücksichtigen dies noch viel zu wenig. Das gleiche Forscherteam hatte übrigens bereits ein Jahr zuvor (Februar 2015) in Science den Hiatus/Slowdown durch Ozeanzyklen erklärt. Der ORF berichtete damals:

Kühler Pazifik bremst globale Erwärmung
Trotz Klimawandels sind die globalen Temperaturen in den vergangenen 15 Jahren kaum gestiegen. Die Ursache dafür ist in den Ozeanen zu finden, schreiben US-Forscher in einer Studie. Ein neuerlicher Anstieg der Temperaturen sei zu erwarten – spätestens in zwanzig Jahren.

Eine echte Offenbarung. Es könnte gemäß Ozeanzyklenverlauf noch zwanzig Jahre dauern, bis die Erwärmung wieder kräftig anzieht. Ob die Politik diese Aussage mitbekommen hat? Hier die entsprechende Pressemitteilung der Penn State University:

Interaction of ocean oscillations caused ‘false pause’ in global warming

The recent slowdown in climate warming is due, at least in part, to natural oscillations in the climate, according to a team of climate scientists, who add that these oscillations represent variability internal to the climate system. They do not signal any slowdown in human-caused global warming.

“We know that it is important to distinguish between human-caused and natural climate variability so we can assess the impact of human-caused climate change on a variety of phenomena including drought and weather extremes,” said Michael Mann, Distinguished Professor of Meteorology, Penn State. “The North Atlantic and North Pacific oceans appear to be drivers of substantial natural, internal climate variability on timescales of decades.”

Mann, Byron A. Steinman, assistant professor of geological sciences, University of Minnesota-Duluth and a former Penn State National Science Foundation postdoctoral fellow and Penn State researcher Sonya K. Miller looked at a combination of real-world observational data and state-of-the-art climate model simulations used in the most recent report of the Intergovernmental Panel on Climate Change to understand the competing contributions to climate variability in the Northern Hemisphere during the historic era. They report their results today (Feb 26) in Science.

The Atlantic Multidecadal Oscillation (AMO) describes how North Atlantic sea-surface temperatures tend to oscillate with a periodicity of about 50 to 70 years. The Pacific Decadal Oscillation (PDO) varies over a broader range of timescales. The researchers looked only at the portion of the PDO that was multidecadal — what they term the Pacific multidecadal oscillation (PMO).

Using a wide variety of climate simulations, the researchers found that the AMO and PMO are not significantly correlated; they are not part of the global “stadium wave” oscillation, as some researchers had claimed. What they found was that the Northern Hemisphere was warming more slowly, not because of the AMO — which has been relatively flat — but because of a sharply down-trending PMO.

The researchers conclude that the down-trending PMO and the unusual slowing of warming over the past decade are tied to heat burial beneath the tropical Pacific and a tendency for sustained La Niña type conditions. While there is paleoclimate data suggesting that this type of response could come from subtle features of climate change itself that climate models do not currently capture, the researchers note that the most likely explanation is the random excursions of the AMO.

“Our findings have strong implications for the attribution of recent climate changes,” said Mann. “Internal multidecadal variability in Northern Hemisphere temperatures likely offset anthropogenic warming over the past decade.”

The researchers conclude that given past historical patterns of variation in the AMO and PMO, this situation will likely reverse and add to human induced warming in the future.

Dabei ist es jedoch wohl erher Wunschdenken, dass AMO und PDO erratisch und ungekoppelt schwingen. Judith Curry hatte bereits überzeugend darlegen können, dass die Ozeanzyklen global zusammenhängen (siehe “La Ola im Ozean: Die klimazyklische Stadionwelle“).

Die von Mann und Kollegen behauptete Unvorhersagbarkeit des Hiatus/Slowdown wird von Kollegen angezweifelt. Eine Gruppe um Yoshimitsu Chikamoto veröffentlichte im April 2015 in Nature Communications eine Arbeit, die auf Basis der Entwicklung im Pazifik eine mehrjährige Prognose vorstellt. Hier die entsprechende Pressemitteilung der University of Hawaii – SOEST:

Extending climate predictability beyond El Niño

Tropical Pacific climate variations and their global weather impacts may be predicted much further in advance than previously thought, according to research by an international team of climate scientists from the USA, Australia, and Japan. The source of this predictability lies in the tight interactions between the ocean and the atmosphere and among the Atlantic, the Pacific and the Indian Oceans. Such long-term tropical climate forecasts are useful to the public and policy makers.

At present computer simulations can predict the occurrence of an El Niño event at best three seasons in advance. Climate modeling centers worldwide generate and disseminate these forecasts on an operational basis. Scientists have assumed that the skill and reliability of such tropical climate forecasts drop rapidly for lead times longer than one year.

The new findings of predictable climate variations up to three years in advance are based on a series of hindcast computer modeling experiments, which included observed ocean temperature and salinity data. The results are presented in the April 21, 2015, online issue of Nature Communications.

“We found that, even three to four years after starting the prediction, the model was still tracking the observations well,” says Yoshimitsu Chikamoto at the University of Hawaii at Manoa International Pacific Research Center and lead author of the study. “This implies that central Pacific climate conditions can be predicted over several years ahead.”

“The mechanism is simple,” states co-author Shang-Ping Xie from the University of California San Diego. “Warmer water in the Atlantic heats up the atmosphere. Rising air and increased precipitation drive a large atmospheric circulation cell, which then sinks over the Central Pacific. The relatively dry air feeds surface winds back into the Atlantic and the Indian Ocean. These winds cool the Central Pacific leading to conditions, which are similar to a La Niña Modoki event. The central Pacific cooling then strengthens the global atmospheric circulation anomalies.”

“Our results present a paradigm shift,” explains co-author Axel Timmermann, climate scientist and professor at the University of Hawaii. “Whereas the Pacific was previously considered the main driver of tropical climate variability and the Atlantic and Indian Ocean its slaves, our results document a much more active role for the Atlantic Ocean in determining conditions in the other two ocean basins. The coupling between the oceans is established by a massive reorganization of the atmospheric circulation.”

The impacts of the findings are wide-ranging. “Central Pacific temperature changes have a remote effect on rainfall in California and Australia. Seeing the Atlantic as an important contributor to these rainfall shifts, which happen as far away as Australia, came to us as a great surprise. It highlights the fact that on multi-year timescales we have to view climate variability in a global perspective, rather than through a basin-wide lens,” says Jing-Jia Luo, co-author of the study and climate scientist at the Bureau of Meteorology in Australia.

“Our study fills the gap between the well-established seasonal predictions and internationally ongoing decadal forecasting efforts. We anticipate that the main results will soon be corroborated by other climate computer models,” concludes co-author Masahide Kimoto from the University of Tokyo, Japan.

 

Sonne, Mond und Sterne: Welchen Einfluss üben Planeten auf das Erdklima aus?

Jeden Tag schiebt der Mond zwei Flutberge über den Planeten. An der nordamerikanischen Ostküste in der Bay of Fundy hebt und senkt sich das Meer dabei um satte 13 Meter. Da liegt es nahe, dass die Gezeitenkräfte von Mond, Planeten und Sonne auch bei der irdischen Klimagestaltung eine Rolle spielen. Nicola Scafetta, der bereits in unserem Buch “Die kalte Sonne” als Gastautor dabei war, publizierte am 15. Mai 2016 in Advances in Space Research eine vergleichende Analyse zwischen den Planetenbewegungen und der Temperaturentwicklug auf der Erde während der vergangenen 165 Jahre. Dabei stieß Scafetta auf große Ähnlichkeiten und fand in den Datensätze immer wieder die Peridoden 20 und 60 Jahre. Die Erde und das Erdklima als Bestandteil des Planetensystems, ein nicht ganz abwegiger Gedanke. Hier die Kurzfassung der Arbeit:

High resolution coherence analysis between planetary and climate oscillations
This study investigates the existence of a multi-frequency spectral coherence between planetary and global surface temperature oscillations by using advanced techniques of coherence analysis and statistical significance tests. The performance of the standard Matlab mscohere algorithms is compared versus high resolution coherence analysis methodologies such as the canonical correlation analysis. The Matlab mscohere function highlights large coherence peaks at 20 and 60-year periods although, due to the shortness of the global surface temperature record (1850–2014), the statistical significance of the result depends on the specific window function adopted for pre-processing the data. In fact, window functions disrupt the low frequency component of the spectrum. On the contrary, using the canonical correlation analysis at least five coherent frequencies at the 95% significance level are found at the following periods: 6.6, 7.4, 14, 20 and 60 years. Thus, high resolution coherence analysis confirms that the climate system can be partially modulated by astronomical forces of gravitational, electromagnetic and solar origin. A possible chain of the physical causes explaining this coherence is briefly discussed.

Querdenker wie Scafetta haben es nicht leicht. Viele Kollegen hegen Skepsis gegenüber den vorgeschlagenen planetaren Mechanismen. Bereits 2014 ist Scafetta daher in die Offensive gegangen und versuchte in einem Beitrag in Astrophysics and Space Science die Argumente seiner Gegner zu klären. Hier die Kurzfassung:

Discussion on the spectral coherence between planetary, solar and climate oscillations: a reply to some critiques
During the last few years a number of works have proposed that planetary harmonics regulate solar oscillations. Also the Earth’s climate seems to present a signature of multiple astronomical harmonics. Herein I address some critiques claiming that planetary harmonics would not appear in the data. I will show that careful and improved analysis of the available data do support the planetary theory of solar and climate variation also in the critiqued cases. In particular, I show that: (1) high-resolution cosmogenic 10Be and 14C solar activity proxy records both during the Holocene and during the Marine Interglacial Stage 9.3 (MIS 9.3), 325–336 kyear ago, present four common spectral peaks (confidence level ⪆95 %) at about 103, 115, 130 and 150 years (this is the frequency band that generates Maunder and Dalton like grand solar minima) that can be deduced from a simple solar model based on a generic non-linear coupling between planetary and solar harmonics; (2) time-frequency analysis and advanced minimum variance distortion-less response (MVDR) magnitude squared coherence analysis confirm the existence of persistent astronomical harmonics in the climate records at the decadal and multidecadal scales when used with an appropriate window lenght (L≈110 years) to guarantee a sufficient spectral resolution to solve at least the major astronomical harmonics. The optimum theoretical window length deducible from astronomical considerations alone is, however, L⪆178.4 years because the planetary frequencies are harmonics of such a period. However, this length is larger than the available 164-year temperature signal. Thus, the best coherence test can be currently made only using a single window as long as the temperature instrumental record and comparing directly the temperature and astronomical spectra as done in Scafetta (J. Atmos. Sol. Terr. Phys. 72(13):951–970, 2010) and reconfirmed here. The existence of a spectral coherence between planetary, solar and climatic oscillations is confirmed at the following periods: 5.2 year, 5.93 year, 6.62 year, 7.42 year, 9.1 year (main lunar tidal cycle), 10.4 year (related to the 9.93–10.87–11.86 year solar cycle harmonics), 13.8-15.0 year, ∼20 year, ∼30 year and ∼61 year, 103 year, 115 year, 130 year, 150 year and about 1000 year. This work responds to the critiques of Cauquoin et al. (Astron. Astrophys. 561:A132, 2014), who ignored alternative planetary theories of solar variations, and of Holm (J. Atmos. Sol. Terr. Phys. 110–111:23–27, 2014a), who used inadequate physical and time frequency analyses of the data.

Nicola Scafetta steht mit seinem Modell zur planetaren Klimabeinflussung bei weitem nicht alleine da. Im Jahr 2014 erschien sogar ein Sonderband in der Fachzeitschrift Pattern Recognition in Physics mit dem Titel:

Pattern in solar variability, their planetary origin and terrestrial impacts

Darin enthalten ist unter anderem ein Beitrag von J.-E. Solheim:

The sunspot cycle length – modulated by planets?
The Schwabe frequency band of the sunspot record since 1700 has an average period of 11.06 yr and contains four major cycles, with periods of 9.97, 10.66, 11.01 and 11.83 yr. Analysis of the O–C residuals of the timing of solar cycle minima reveals that the solar cycle length is modulated by a secular period of about 190 yr and the Gleissberg period of about 86 yr. Based on a simple harmonic model with these periods, we predict that the solar cycle length will in average be longer during the 21st century. Cycle 24 may be about 12 yr long, while cycles 25 and 26 are estimated to be about 9 and 11 yr long. The following cycle is estimated to be 14 yr long. In all periods during the last 1000 yr, when the solar cycle length has increased due to the 190 yr cycle, a deep minimum of solar activity has occurred. This is expected to re-occur in the first part of this century. The coherent modulation of the solar cycle length over a period of 400 yr is a strong argument for an external tidal forcing by the planets Venus, Earth, Jupiter and Saturn, as expressed in a spin-orbit coupling model.

Interessant auch dieser Artikel aus dem selben Band von I. R. G. Wilson:

The Venus–Earth–Jupiter spin–orbit coupling model
A Venus–Earth–Jupiter spin–orbit coupling model is constructed from a combination of the Venus–Earth–Jupiter tidal-torquing model and the gear effect. The new model produces net tangential torques that act upon the outer convective layers of the Sun with periodicities that match many of the long-term cycles that are found in the 10Be and 14C proxy records of solar activity.

Siehe auch den folgenden Beitrag von 2012 aus dem Blog Astro-Climate-Connection:

Jupiter Tidal Torque Modell

Ebenfalls in Pattern Recognition in Physics erschien 2013 der folgende Artikel von J.-E. Solheim:

Signals from the planets, via the Sun to the Earth (weiterlesen …)

Die Sonne im April 2016 und El Nino-klimatisch

Von Frank Bosse und Fritz Vahrenholt

Unser Zentralgestirn war im April auch für die ruhigen Verhältnisse des gesamten Solaren Zyklus ( Solar Cycle-SC) besonders wenig aktiv. Die ausgewiesene SSN (SunSpotNumber) von 38,0 entspricht nur 50% der in diesem Monat üblichen. Der recht eindrucksvolle Einbruch der Aktivität ist auch sehr gut im Diagramm zu sehen:

Abb.1: Der Verlauf der Sonnenfleckenaktivität im seit Dezember 2008 laufenden Zyklus 24 (rot) im Vergleich zu einem mittleren Zyklus (blau) und zum schon viele Monate recht ähnlichen Zyklus 5 ( schwarz).

 

Auch die Divergenz im Aufbau der polaren Felder der Sonne hat sich weiter erhöht.  Wir berichteten bereits im März darüber.    Die südpolaren Felder sind nun bereits nahezu 4mal so stark wie die sehr schwachen nordpolaren. So eine unterschiedliche Entwicklung gab es noch nie in diesem Stadium des Zyklus seit Beginn der Beobachtungen vor etwa 40 Jahren. Wir behalten das Phänomen im Auge und halten Sie auf dem Laufenden! Unser allmonatliches Diagramm mit den Vergleichen der bisher systematisch beobachteten Zyklen seit  März 1755 enthält diesmal eine Besonderheit:

Abb. 2: Die aufsummierten Anomalien der SSN aller Zyklen. Die Differenzen zwischen den einzelnen Monaten und dem Mittelwert aller Zyklen (blau in Abb. 1) bildet die Datengrundlage.

 

Mit der Berücksichtigung des April 2015 (Zyklusmonat 89) wird deutlich, dass der aktuelle Zyklus 24 in der Gesamtaktivität der Sonnenflecken nun niedriger abschneidet als der Zyklus 7 und der ereignete sich  zwischen 1823 und 1833 während des Dalton Minimums. Unsere Vermutung aus dem Vormonat, dass dieses „Überholen“ nach unten passieren könnte, erfüllte sich also sehr schnell. In der aktuellen Rückschau ist die Fleckenaktivität unserer Sonne im SC24 also so niedrig wie seit 200 Jahren nicht mehr, seit dem Zyklus 6.

 

Der vergangene El Nino und das Klima

Die Abschiedsmelodien für den El Nino sind gesungen. Bereits im Februar 2016 berichteten wir von Prognosen  einer sich andeutenden  La Nina. Damals befand sich der El Nino noch in voller Ausprägung. Aktuell zeichnet sich der Umschwung in den Oberflächentemperaturen des äquatorialen Pazifiks schon sehr deutlich ab:

Abb. 3: Die Oberflächentemperaturen (Sea SurfaceTemperatures- SST) des Pazifiks.  Quelle: NOAA, vom 12.5.2016

 

In Abb. 3 ist bereits das kühle mäandernde Band am Äquator zu erkennen, ein Vorbote der sich entwickelnden  La Nina. Die neuesten Modellvorhersagen haben die Wahrscheinlichkeit für eine La Nina bereits im Juni/Juli  auf über 50% heraufgesetzt. In den Wasserschichten nur etwa 100m unter der Oberfläche lauert bereits sehr viel um bis zu  4 °C kühleres Wasser als normal und der nun recht heftig wehende Passatwind wird es an die Oberfläche befördern.

 

Abb. 4: Die Temperaturanomalien der tieferen Wässer unter dem Äquator des Pazifiks. Quelle: TAO für den 13. 5. 2016.

 

Zeit für ein kleines Resümé des vergangenen warmen El Nino-Events.

Wie stark war der El Nino im Vergleich zu dem von 1998?

Ein Blick auf den Indikator der SST im tropischen Ostpazifik Nino 3,4 zeigt kaum Unterschiede:

Abb. 5: der taggenaue Verlauf von Nino 3,4 seit jeweils dem 1. Januar der entsprechenden Jahre 2015 bzw. 1997.

 

Weitere oft verwendete  Kriterien wie der ONI-Index (2015 etwas stärker) und der Index MEI (1997 etwas stärker) zeigen kaum divergierende Amplituden zwischen 1997/98 und 2014/15 an. Wir gehen davon aus, dass beide El Nino- Ereignisse gleich stark waren.

Welche globalen Wirkungen  gingen von den  beiden El Ninos aus?

Wir beschränken uns auf die Betrachtung der globalen SST:

Abb. 6: Die SST- Anomalien global seit 1996 nach Reynolds (NOAA) bis einschließlich April 2016.

 

Auffällig ist der Hub ab 2014. Schon bei oberflächlichem Betrachten erkennt man das Stagnieren nach 2001 (der El Nino nach 1997 wurde durch eine La Nina in 1998-2000 abgelöst). Der relativ „harmlose“ El Nino 2010 hatte ebenfalls eine La Nina zur Folge. Ab 2014 dann ein Zuwachs mit dem Peak des starken El Ninos 2015/16 noch darauf gesetzt. Während starker El Ninos wird für kurze Zeit die gesamte andere interne Variabilität unseres Klimas  durch das Ereignis selbst weitgehend überstrahlt. Wenn also die El Ninos in 1997/98 und 2015/16 etwa gleich stark waren dann können wir die Unterschiede in den Auswirkungen nahezu ausschließlich als  von den äußeren Antrieben (das IPCC spricht von „Forcings“ wie Treibhausgase, Ozon usw.)  abhängig betrachten. In Abb. 3 ist zu erkennen, dass die El Ninos ab März 1997 bzw. 2015 im Verlauf praktisch kaum zu unterscheiden waren.  Die Auswirkungen auf die globalen SST unterscheiden sich jedoch  um 0,2 °C:

Abb. 7: Die Differenz („Delta SST“ )der globalen SST monatweise während der starken El Ninos wie sie gemessen wurden (blau) und wie sie das Modellmittel CMIP5 (rot) erwartet.

 

In Abb. 7 wurde die beobachtete Differenz der SST mit der Modellgröße „tos“  (so werden in der Modellwelt die SST bezeichnet) des Emissionsszenarios RCP 8.5 deshalb verglichen, weil im genannten Zeitraum die Forcings genau diesem Szenario gut folgten, vgl.  Outten et al. (2015). Das Mittel über alle Monate beträgt beobachtet 0,2 °C und modelliert 0,36 °C, also 80% mehr als real.  Das Modellmittel  und die Beobachtungen hier sind  in beiden Fällen die Auswirkungen der „Forcings“. Zwischen 1997 und 2015 wurde der Zuwachs dieser zu nahezu  80% vom CO2- Gehalt der Atmosphäre  bestimmt, folgt man den Zahlen das IPCC. Auch hier zeigen die Modelle zu viel Erwärmung, sie reagieren wohl um etwa 30 % zu stark auf CO2.

Immer wieder erzielt man  ähnliche Ergebnisse wenn man Beobachtungen auch der jüngsten Realität und der Modellwelt  gegenüber stellt. In letzter Zeit taten dies Nicholas Lewis in einem Artikel und auf einem etwas anderen Wege der Mitautor dieser Zeilen , die Größe „TCR“ ergibt sich aus Beobachtungen zu 1,2…1,4. Die Modelle, benutzt um die klimapolitischen Ziele zu definieren, gehen von Werten um 2 aus. Die sich ergebenden Unterschiede ab etwa 2040 sind gewaltig, ebenso wie die notwendigen eingesetzten Mittel zur „Bekämpfung“  der sehr wahrscheinlich zu hoch gerechnete CO2- Empfindlichkeit unseres Klimas.   Wenn Sie also hier und da Berichte verfolgen über die Rekorde der globalen Temperaturen: Die Modelle sagten während des El Ninos noch viel höhere Werte voraus und gewichten das „Klimagas CO2“ zu hoch.