Klimahysterie - was ist dran?. Michael Limburg
werden miteinander verglichen. Tatsache ist, daß kein Mensch weiß, wie hoch diese Langzeiterwärmung wirklich war, zumal die zugrundeliegenden Datenkollektive stets verändert werden, so wie die Inflationswarenkörbe, und – noch schlimmer – die Meßgenauigkeit bestenfalls ± 0,5 °C beträgt!20
So beruhte die Bestimmung der Globaltemperatur von 1860 auf nur 300 nordhemisphärischen Wetterstationen. Heute sind es 1.400, wobei für je eine Fläche von 250.000 Quadratkilometer (Gitterpunktweite 250 Kilometer) eine Temperatur gemessen wird.
Es muß außerdem noch erwähnt werden, daß etwa 70 Prozent der Erdoberfläche von Wasser bedeckt sind. Dort sind nur sehr wenige ständige Meßstationen installiert. Mehrmals pro Jahr, aber nur an sehr wenigen Stellen, fahren Schiffe über die Gitterquadrate auf See, schöpfen mit Eimern das Wasser und messen darin die Temperaturen. Diese werden dann an Land gemeldet. Früher per Schiff und Boten oder Post, dann per Telegraph oder Funk. Erst 1982 konstruierte eine Gruppe um Phil Jones erstmals die Zeitreihe von 1860 bis 1980, die eine angebliche Erwärmung von 0,6 °C zeigt, natürlich streng wissenschaftlich!!
Das konnte aber nicht gut gehen. Als sich das IPCC zur Vorbereitung seines vierten Sachstandsberichts von 2007 mit dieser Frage auseinandersetzte, stellte es fest, daß nur Messungen durch Wetterballone und Satelliten sehr gut miteinander übereinstimmen, aber starke Abweichungen zu den terrestrischen Messungen gegeben sind. Letztere zeigen – wider alle Theorie, die höhere Temperaturen besonders in den oberen und weniger in den unteren Luftschichten fordert – deutlich zu hohe Werte. Üblicherweise würde man in einer solchen Situation sagen, na gut, dann ist eben die Theorie falsch. Statt aber nun diese verfälschten Werte wegzulassen, einigte man sich beim IPCC darauf, daß diese Abweichungen – die sehr gravierend sind und vor allem in den Vorhersagemodellen wirken – ihre Ursachen in einer noch unverstandenen Atmosphärenphysik hätten, die es genauer zu untersuchen gälte. So schafft man Arbeitsplätze in Wissenschaft, Forschung und Verwaltung.
Die aktuelle Entwicklung
Sei es wie es sei: Bis 1979 waren alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis etwa 1860 nur indirekt erforschte, danach mit vielen Unstimmigkeiten gemessene und seit 1979 genauer gemessene Temperaturkurve der Erde.
Abb. 1: Der Temperaturverlauf der letzten 1200 Jahre
Wie man sieht, gab es einen dicken Buckel im Mittelalter. Die Experten streiten sich noch, ob dieser Buckel etwas höher oder etwas niedriger als +2 °C über unserer heutigen Durchschnittstemperatur lag. Genau weiß es keiner, auch die nicht, die mit allerlei Proxydaten versuchen, die indirekten Belege für Temperaturen auszuwerten und in Globalwerte umzurechnen. Darüber lag er auf jeden Fall, wie Hunderte von Proxydaten zeigen, die weltweit peer reviewed in angesehenen Wissenschaftsmagazinen erschienen sind. Man erinnere sich an die Schulzeit, als uns beigebracht wurde, wie die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin war es dort so warm, daß Besiedlung und Ackerbau (in Grünland) möglich waren. Oder so warm, wie Gavin Menzies in seinem Buch 1421 – The Year China Discovered the World (2002) berichtet, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und daß sie dort kaum Eis vorfanden. Im norwegischen Trondheim wurde Wein angebaut, Datteln wuchsen am Rhein, und in den Alpen waren die Baumgrenzen ein paar hundert Meter höher als heute. Es war schön warm, die Ernten reichlich, die Menschen konnten überwiegend gut leben. Man nennt diese Zeit das mittelalterliche Klimaoptimum! Die Temperatur – wärmer als heute – war für Mensch und Tier optimal.21
Die große Frage ist: Wie haben es die Menschen im ausgehenden Mittelalter geschafft, die Globaltemperatur zu beeinflussen? Durch das Kohlendioxid ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht.
Alles stand wunderbar im Einklang mit der Natur. Das ist ein großes Rätsel, für das das IPCC bisher keine so richtige Erklärung fand.
Um das Jahr 1900 begann dann eine Entwicklung, wie sie detailliert in der folgenden Grafik gezeigt wird.
Abb. 2: Der Temperaturverlauf und die CO 2 -Entwicklung der letzten 1000 Jahre
Hier sehen wir den vom IPCC 2001 im dritten Sachstandsbericht veröffentlichten Kurvenverlauf des Kohlendioxidgehalts zusammen mit dem Temperaturverlauf der Atmosphäre. Letzteren hatte ursprünglich ein Dr. Michael Mann 1998 errechnet. Manns Originalkurve, die sogenannte Hockeystickkurve (die weiter unten gezeigt wird), wurde im IPCC-Bericht von 2001 mehr als 70 mal aufgeführt, zeigte jedoch das mittelalterliche Klimaoptimum nicht. Kurze Zeit später und gegen viele Widerstände wurde sie deshalb von den kanadischen Wissenschaftlern Stephen McIntyre und Ross McKitrick korrigiert. Gezeigt wird hier deren korrigierte (rote) Kurve.
Die Hockeystickkurve hat eine eigene denkwürdige Geschichte, die ich dem Leser nicht vorenthalten will. Doch zuerst schauen wir uns den Verlauf beider Kurven an. Wir sehen starke Schwankungen der Temperatur, aber so gut wie keine Schwankungen des Kohlendioxidgehaltes der Atmosphäre. In keiner erkennbaren Weise verknüpft oder korreliert dieser mit dem Temperaturverlauf. Nur im letzten Teilstück, gegen 1920, steigt die Temperatur an (der Anstieg wirkt hier stärker, weil durch den Maßstab verzerrt), wie auch der Kohlendioxidanteil. Sollte plötzlich die Physik Kapriolen schlagen und das Kohlendioxid auf die Temperatur heftig wirken lassen? Oder war es vielleicht umgekehrt?
Ich komme noch darauf zurück. Vorher wollen wir jedoch die bodennahe Temperaturentwicklung bis zur Gegenwart verfolgen. Das Goddard Institute for Space Studies (GISS) in den USA hat diese Werte ermittelt, wie gesagt, mithilfe der eingangs erläuterten bodennahen, ungenauen und unzuverlässigen Meßstationen.
Abb. 3: Die Globaltemperatur nach GISS (Bodenmessungen)
Wir sehen einen Abfall ab 1880, dann einen recht starken Anstieg von +0,5 °C bis 1940, dann wieder einen deutlichen Abfall bis 1976 – obwohl in diesem Zeitraum die Kohlendioxid-Emissionen um 400 Prozent anstiegen! – und von dort einen Anstieg bis 1998, dem Jahr mit der höchsten Spitze aufgrund von El Niño-Kapriolen, und weiter bis 2005. Der Abfall bis 1976 veranlaßte übrigens damals den immer noch berühmten IPCC-Forscher Prof. Stephen Schneider, eine fürchterliche Eiszeit ab 2000 vorherzusagen. Heute prognostizieren er und mit ihm die UN eine mindestens ebenso fürchterliche Warmzeit.
Wie stark die Ungenauigkeiten der zusammengefaßten Trendmeldungen sich auswirken können, zeigt die Kurve der Temperaturentwicklung für die USA, wo Hunderte mehr oder weniger gut gewartete Wetterstationen die folgenden Werte für das 20. Jahrhundert zeigen:
Abb. 4: Die US-Temperaturentwicklung nach GISS (Bodenmessungen, 2005 korrigiert)
Man sieht viel, nur keine bedrohliche Erwärmung (außer der El Niño-Spitze von 1998), vor der inzwischen auch – Al Gore sei Dank – die Amerikaner so viel Angst haben wie wir.
Obwohl die beiden zuletzt gezeigten Grafiken vom GISS stammen, hielt das Prof. James Hansen, den Direktor dieser Einrichtung, nicht davon ab, sie auf eine dreiste Weise zu manipulieren, weil sie ihm zu undramatisch erschienen.
Denn ursprünglich, bis Anfang 2001, wurde auf der Website des GISS ein Temperaturverlauf der USA gezeigt, der selbst die oben gezeigte Minierwärmung nicht zeigte (Bild links unten). Wenn man genau hinsieht, dann ist da sogar eine Abkühlung zu sehen. Das durfte aber nicht sein. Also wurden diese Daten flugs zu Rohdaten umettikettiert und mit Abschlägen in den 30er Jahren versehen, als es sehr warm war.