Klimahysterie - was ist dran?. Michael Limburg
Чтение книги онлайн.
Читать онлайн книгу Klimahysterie - was ist dran? - Michael Limburg страница 5
Die frühesten Messungen stammen aus Europa. Danach folgten die USA und Australien, zum Schluß – wenn auch wesentlich sporadischer – der Rest der Welt. Waren um 1860 erst etwa 300 Wetterstationen im Einsatz, wurden im Jahre 1970 weltweit etwa 6.000 Wetterstationen gezählt. Danach wurden es wieder weniger. Nach Angaben der WMO sind es heute nur noch 1.400.
Erst seit 1979 umrunden Wettersatelliten die Erde, die eine verläßliche Datenbasis für die Entwicklung der Durchschnittstemperaturen der oberen Atmosphärenschichten liefern.
Die Durchschnittstemperatur der Erde
In der Natur gibt es keine Durchschnittstemperatur, sondern nur lokale Temperaturen. Temperatur ist eine physikalische Größe, die von vielen anderen physikalischen Größen abhängt, nur lokal entsteht und deswegen auch nur lokal gemessen werden kann. Und nur diese lokalen Temperaturen konnte man relativ ungenau – jedenfalls bis Ende 1979 – messen. Dagegen ist die Durchschnittstemperatur ein künstliches Konstrukt, das erst vor kurzem erfunden wurde. Eine physikalische Bedeutung – und nur diese ist wichtig – hat sie nicht. Weil die Erde nie im thermischen Gleichgewicht ist, gibt es keine reale Durchschnittstemperatur. Sie hat daher etwa soviel Sinn wie die Durchschnittstelefonnummer von Berlin. Auch die würde keiner verwenden.
Nicht nur deshalb ist ihre Ermittlung kompliziert, mit Fehlern behaftet und oft chronisch falsch. Warum aber ist das so?, fragt man sich. Ein Thermometer ablesen kann doch jeder. Sicher. Nur nicht jeder gleich gut, gleich genau und regelmäßig genug, und vor allem: Die dafür verwendeten Thermometer zeigen die punktuelle Temperatur der lokalen Umgebung in etwa zwei Meter Höhe an.
Diese Umgebung änderte sich im Laufe der letzten ungefähr 145 Jahre fast überall fundamental. John Daly, ein privater Klimaforscher der ersten Stunde, hat sich der mühsamen Aufgabe unterzogen, die Genauigkeit und Zuverlässigkeit dieser bodennahen Meßstationen zu überprüfen. Er fand heraus, daß nur eine sehr kleine Anzahl von Bodenmeßstationen – solche, die ausschließlich in menschenleeren Zonen in den entwickelten Ländern liegen – zuverlässige Zeitreihen für die Temperaturen erbringen.19 Diese – und nur diese – stimmen sehr genau mit den Satelliten- und Wetterballonmessungen überein.
Doch auch diese Stationen reichen für eine Durchschnittsbildung für die gesamte Erde oder auch nur die nördliche Halbkugel bei weitem nicht aus. Ihre Distanz zueinander beträgt teilweise um die 2.000 Kilometer und mehr, d. h. die Temperaturen von Berlin und Madrid werden miteinander verglichen. Tatsache ist, daß kein Mensch weiß, wie hoch diese Langzeiterwärmung wirklich war, zumal die zugrundeliegenden Datenkollektive stets verändert werden, so wie die Inflationswarenkörbe, und – noch schlimmer – die Meßgenauigkeit bestenfalls ± 0,5 °C beträgt!20
So beruhte die Bestimmung der Globaltemperatur von 1860 auf nur 300 nordhemisphärischen Wetterstationen. Heute sind es 1.400, wobei für je eine Fläche von 250.000 Quadratkilometer (Gitterpunktweite 250 Kilometer) eine Temperatur gemessen wird.
Es muß außerdem noch erwähnt werden, daß etwa 70 Prozent der Erdoberfläche von Wasser bedeckt sind. Dort sind nur sehr wenige ständige Meßstationen installiert. Mehrmals pro Jahr, aber nur an sehr wenigen Stellen, fahren Schiffe über die Gitterquadrate auf See, schöpfen mit Eimern das Wasser und messen darin die Temperaturen. Diese werden dann an Land gemeldet. Früher per Schiff und Boten oder Post, dann per Telegraph oder Funk. Erst 1982 konstruierte eine Gruppe um Phil Jones erstmals die Zeitreihe von 1860 bis 1980, die eine angebliche Erwärmung von 0,6 °C zeigt, natürlich streng wissenschaftlich!!
Das konnte aber nicht gut gehen. Als sich das IPCC zur Vorbereitung seines vierten Sachstandsberichts von 2007 mit dieser Frage auseinandersetzte, stellte es fest, daß nur Messungen durch Wetterballone und Satelliten sehr gut miteinander übereinstimmen, aber starke Abweichungen zu den terrestrischen Messungen gegeben sind. Letztere zeigen – wider alle Theorie, die höhere Temperaturen besonders in den oberen und weniger in den unteren Luftschichten fordert – deutlich zu hohe Werte. Üblicherweise würde man in einer solchen Situation sagen, na gut, dann ist eben die Theorie falsch. Statt aber nun diese verfälschten Werte wegzulassen, einigte man sich beim IPCC darauf, daß diese Abweichungen – die sehr gravierend sind und vor allem in den Vorhersagemodellen wirken – ihre Ursachen in einer noch unverstandenen Atmosphärenphysik hätten, die es genauer zu untersuchen gälte. So schafft man Arbeitsplätze in Wissenschaft, Forschung und Verwaltung.
Die aktuelle Entwicklung
Sei es wie es sei: Bis 1979 waren alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis etwa 1860 nur indirekt erforschte, danach mit vielen Unstimmigkeiten gemessene und seit 1979 genauer gemessene Temperaturkurve der Erde.
Abb. 1: Der Temperaturverlauf der letzten 1200 Jahre
Wie man sieht, gab es einen dicken Buckel im Mittelalter. Die Experten streiten sich noch, ob dieser Buckel etwas höher oder etwas niedriger als +2 °C über unserer heutigen Durchschnittstemperatur lag. Genau weiß es keiner, auch die nicht, die mit allerlei Proxydaten versuchen, die indirekten Belege für Temperaturen auszuwerten und in Globalwerte umzurechnen. Darüber lag er auf jeden Fall, wie Hunderte von Proxydaten zeigen, die weltweit peer reviewed in angesehenen Wissenschaftsmagazinen erschienen sind. Man erinnere sich an die Schulzeit, als uns beigebracht wurde, wie die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin war es dort so warm, daß Besiedlung und Ackerbau (in Grünland) möglich waren. Oder so warm, wie Gavin Menzies in seinem Buch 1421 – The Year China Discovered the World (2002) berichtet, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und daß sie dort kaum Eis vorfanden. Im norwegischen Trondheim wurde Wein angebaut, Datteln wuchsen am Rhein, und in den Alpen waren die Baumgrenzen ein paar hundert Meter höher als heute. Es war schön warm, die Ernten reichlich, die Menschen konnten überwiegend gut leben. Man nennt diese Zeit das mittelalterliche Klimaoptimum! Die Temperatur – wärmer als heute – war für Mensch und Tier optimal.21
Die große Frage ist: Wie haben es die Menschen im ausgehenden Mittelalter geschafft, die Globaltemperatur zu beeinflussen? Durch das Kohlendioxid ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht.
Alles stand wunderbar im Einklang mit der Natur. Das ist ein großes Rätsel, für das das IPCC bisher keine so richtige Erklärung fand.
Um das Jahr 1900 begann dann eine Entwicklung, wie sie detailliert in der folgenden Grafik gezeigt wird.
Abb. 2: Der Temperaturverlauf und die CO 2 -Entwicklung der letzten 1000 Jahre
Hier sehen wir den vom IPCC 2001 im dritten Sachstandsbericht veröffentlichten Kurvenverlauf des Kohlendioxidgehalts zusammen mit dem Temperaturverlauf der Atmosphäre. Letzteren hatte ursprünglich ein Dr. Michael Mann 1998 errechnet. Manns Originalkurve, die sogenannte Hockeystickkurve (die weiter unten gezeigt wird), wurde im IPCC-Bericht von 2001 mehr als 70 mal aufgeführt, zeigte jedoch das mittelalterliche Klimaoptimum nicht. Kurze Zeit später und gegen viele Widerstände wurde sie deshalb von den kanadischen Wissenschaftlern Stephen McIntyre und Ross McKitrick korrigiert. Gezeigt wird hier deren korrigierte (rote) Kurve.
Die Hockeystickkurve hat eine eigene denkwürdige Geschichte, die ich dem Leser nicht vorenthalten will.