Schon diese einfach klingende Frage ist nicht einfach zu beantworten. Warum? Es gibt schlicht keine präzisen Aufzeichnungen der Durchschnittstemperatur der Erde, noch der nördlichen Halbkugel, die präzise Aussagen über mehrere hundert Jahre zulassen. Was es gibt -und es wird auch genutzt- sind indirekte Messungen aus Baumringen, Ernteaufzeichnungen, historische Beschreibungen, Isotopenbestimmungen in Eisbohrkernen etc. Seit ca. 145 Jahren gibt es dazu breit angelegte methodische Temperaturaufzeichnungen3, erst in Europa, dann in den USA und Australien zum Schluß auch im Rest der Welt. Im Jahre 1970 waren weltweit ca. 6000 Wetterstationen im Einsatz. Danach wurde abgebaut auf nur noch 2000. Erst seit 1979 umrunden Wettersatelliten die Erde, die eine verläßliche Datenbasis für die Entwicklung der Durchschnittstemperaturen der oberen Atmosphärenschichten geben.
Warum ist das denn so kompliziert, fragt man sich, ein Thermometer lesen kann doch jeder. Sicher, nur nicht alle
gleich gut, nicht alle gleich genau und nicht alle regelmäßig genug und vor allem: Diese Thermometer zeigen
die Gesamttemperatur der lokalen Umgebung in ca. 2 m Höhe an. Und diese Umgebung änderte sich fast
überall rasant im Laufe der letzten ungefähr 145 Jahre. John Daly, ein privater Klimaforscher der ersten
Stunde, hat sich der mühsamen Aufgabe unterzogen, die Genauigkeit und Zuverlässigkeit dieser bodennahen
Meßstationen zu überprüfen. Er fand heraus4
daß nur eine sehr kleine Anzahl von Bodenmeßstationen - die ausschließlich in menschenleeren Zonen
in den entwickelten Ländern liegen, zuverlässige Zeitreihen für die Temperaturen erbringen. Diese und
nur diese stimmen dann bis auf wenige 1/100 Grad mit den Satellitenmessungen überein, auch mit den
Wetterballonmessungen, reichen aber für eine Durchschnittsbildung der ganzen Erde oder auch nur der
nördlichen Halbkugel, bei weitem nicht aus. Ihre Distanz zueinander beträgt um die 2000 km und mehr, d.h.
die Temperaturen von Berlin und Madrid werden miteinander verglichen. Tatsache ist, daß kein Mensch weiß,
wie groß die Erwärmung wirklich ist, zumal die zugrundeliegenden Datenkollektive stets verändert
werden, so wie die Inflationswarenkörbe! Die Globaltemperatur von 1860 z.B. beruhte nur auf 300
nordhemisphärischen Wetterstationen. Heute sind es nach WMO 1400, wobei für je eine Fläche von 250 000
km (Gitterpunktweite 250 km) eine Temperatur genommen wird, die vorher noch auf NN reduziert wurde mit einem mittleren
Gradienten von 0,65° C pro 100 m nach unten. Bleibt außerdem noch zu erwähnen, daß 70 % der
Erdoberfläche von Wasser bedeckt sind und aus mehrmals pro Jahr über die Gitterquadrate fahrende Schiffe
aus Schöpfeimern Jahresmitteltemperaturen konstruiert werden. Die Gruppe um
Phol Jones hat 1982 erstmals die Zeitreihe 1860-1980, die zu den angeblichen 0,6° C führten, konstruiert,
natürlich strengst wissenschaftlich!!
Das kann nicht gut gehen. Als das IPCC (International Panel on Climate
Change, der UN Arm für diesen Wirbel) sich zur Vorbereitung des kommenden Assessments No. 4 mit dieser Frage auseinandersetzte,
stellten sie fest, daß nur die beiden Meßmethoden: Wetterballon und Satellitenmessung; sehr gut übereinstimmen,
starke Abweichungen aber sind zu den terrestrischen Messungen gegeben (Sie zeigen - wider alle Theorie, die höhere Temperaturen
gerade in den oberen denn in den unteren Luftschichten fordert – deutlich zu hohe Werte an). Statt nun diese Werte
wegzulassen, einigte man sich darauf, daß diese Unterschiede - die sehr gravierend sind und vor allem in den Vorhersagemodellen
wirken - , Ursachen in einer noch unverstandenen Atmosphärenphysik hätten, die es genauer zu
untersuchen gälte. So schafft man Arbeitsplätze in Wissenschaft Forschung und Verwaltung.
Sei es wie es sei: Bis 1979 sind alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis ca. 1860 nur indirekt erforschte, ab 1860 mit vielen Unstimmigkeiten gemessene und seit 1979 gemessene Temperaturkurve der Erde.
Wie man sieht, gab es einen dicken Buckel im Mittelalter, die Experten streiten sich noch, ob dieser Buckel etwas größer oder etwas kleiner als + 2 ° C über unserer heutigen Durchschnittstemperatur gelegen hat. Drüber lag er auf jeden Fall. Man erinnere sich an die Schulzeit, daß die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin soweit erwärmt, daß es die Besiedlung und den Ackerbau (Grünland) erlaubte. Oder wie Menzies glaubt, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und dort kaum Eis vorfanden. Es war eben schön warm. Die Ernten reichlich, die Menschen konnten überwiegend gut leben.
Die große Frage ist. Wie haben es die Menschen geschafft im ausgehenden Mittelalter die Globaltemperatur zu beinflussen. Durch das CO2 ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht. Es war doch so schön alles im Einklang mit der Natur. Ein großes Rätsel, zu dem das IPCC bisher keine so richtigen Erklärung fand.
Um das Jahr 1900 begann dann ein Verlauf wie er detaillierter und überlagert mit dem "errechneten" CO2-Verlauf in der folgenden Grafik gezeigt wird.
Dort sehen wir den vom IPCC 2001 im 3. Assessment-Report herausgegebenen Wert der CO2 Kurve überlagert vom (korrigierten) Temperaturverlauf den in seinem Originalverlauf ein Dr. Mann 1998 errechnet hatte, die so genannte "Hockeystickkurve”. Die, weil sie z.B. die mittelalterliche Wärmeperiode nicht zeigte, von den kanadischen Wissenschaftlern Stephen McIntyre & Ross McKitrick kurze Zeit später und gegen viele Widerstände, korrigiert wurde. Gezeigt wird hier die korrigierte Kurve der beiden. Diese "Hockeystickkurve" hat eine eigene denkwürdige Geschichte, die ich den Lesern nicht vorenthalten will. Aber zuerst gucken wir uns mal den Verlauf der beiden Kurven an. Wir sehen starke Schwankungen der Temperatur, aber so gut wie keine Schwankungen des CO2 Anteiles der Atmosphäre. In keiner erkennbaren Weise verknüpft oder eng korreliert mit dem Temperaturverlauf. Nur im letzten Rest, so gegen 1920 steigt die Temperatur an (es wirkt stärker weil, durch den Maßstab verzerrt) dto. der CO2 Anteil. Sollte plötzlich die Physik Kapriolen schlagen und CO2 auf die Temperatur heftig wirken lassen, oder war es vielleicht umgekehrt?
Ich komme noch darauf zurück, aber zuerst wollen wir die bodennahe Temperaturentwicklung bis zur Gegenwart verfolgen. Das Goddard Institute (GISS) in den USA hat diese Werte ermittelt, wie gesagt auf Basis der bodennahen ungenauen und unzuverlässigen Meßstationen.
Wir sehen dort einen Abfall ab 1880 dann einen recht starken Anstieg bis 1940 dann wieder einen Abfall bis 1976 (obwohl in diesem Zeitraum die CO2 Emissionen um 400 % anstiegen!) und von dort einen Anstieg bis 1998, dem Jahr mit der höchsten Spitze bedingt durch die El Niño-Kapriolen und weiter bis 2005. (Dieser Abfall bis 1976 veranlaßte übrigens damals, den immer noch berühmten IPCC Forscher Prof. Stephen Schneider eine fürchterliche Eiszeit ab 2000 vorher zu sagen, heute prognostiziert er und mit ihm die UN eine mindestens so fürchterliche Warmzeit )
Wie stark die Ungenauigkeiten der zusammengefaßten Trendmeldungen sich auswirken können zeigt die Kurve der Temperaturentwicklung nur für die USA, wo hunderte von präzise gewarteten Wetterstationen über das 20.te Jahrhundert die folgenden Werte zeigte:
Man sieht viel, nur keine globale Erwärmung, (außer der El Niño-Spitze 1998) vor der inzwischen auch - Al Gore sei Dank - die Amerikaner soviel Angst haben, wie wir. Beide Grafiken wurden vom GISS in Zusammenarbeit mit der NASA produziert).
Nun - wie versprochen- die Geschichte der Mann´schen Hockeystickkurve. Der amerikanische Wissenschafter Dr. Mann und die Seinen untersuchten 1998 die Baumringe -überwiegend nordamerikanischer- Nadelbäume und leiteten aus ihnen ein Rechnermodell ab, das den folgenden Verlauf der Temperatur der nördlichen Hemisphäre errechnete: Es entstand eine wunderbare Temperaturkurve ab dem Jahre 1000, die den erschröcklichen Anstieg zur Mitte des 20. Jahrhunderts zeigte: und das war genau das, was die leitenden Herren des IPCC haben wollten.
Diese Kurve, 1998 berechnet, fand sofort und an prominenter Stelle Einlaß in den IPCC Bericht von 2001, wurde zigmal dort zitiert und nahm seinen Siegeszug durch die mediale und politische Welt. Wunderbar, der Mensch und sein CO2 ist schuld, hier sieht man´s ja. Einsetzen der Industrialisierung und Anstieg der Global Temperatur gingen eng gekoppelt - nicht mehr nur korreliert - Hand in Hand. Die Champagnerkorken knallten beim IPCC. Endlich hatte man was in der Hand, um den astronomischen Forderungen an die Kyotoländer Nachdruck zu verleihen. Hier war der Beweis. . Die Frage darf erlaubt sein: Ließen sich deshalb prominente Vertreter des IPCC – allen voran Sir Houghton – mit dieser Kurve im Hintergrund interviewen? Sie hatte allerdings einige Schönheitsfehler. Als Stephen McIntyre & Ross McKitrick und andere - darunter Hans von Storch in Deutschland - einen zweiten Blick auf diese Kurve warfen, fiel ihnen auf, daß die ganze schöne, mittelalterliche Warmzeit schlicht nicht vorhanden war. Obwohl sie - weil gut dokumentiert - einwandfrei nachweisbar war. Auch die dann folgende - noch besser dokumentierte - kleine Eiszeit war nicht so recht erkennbar. Den IPCC Oberen war das irgendwann auch aufgefallen. Statt jedoch zuzugeben, daß ihre so schöne Grafik schwere Fehler enthielt, versuchten sie zu verhindern, daß die Kurve offiziell korrigiert wurde. Ein mit dieser Aufgabe befaßter IPCC Wissenschaftler faßte diese Versuche in der Bemerkung zusammen: "We have to get rid of this medievial warm up period": in gut Deutsch: "Wir müssen irgendwie diese mittelalterliche Warmzeit loswerden" Diese Bemerkung wurde 2004 gegenüber Dr. Deming - einem amerikanischen Palaeoklimatologen gemacht- weil dieser fälschlicherweise vom IPCC Mann als Gesinnungsgenosse eingestuft wurde. Er hat sie überliefert.
Stephen McIntyre & Ross McKitrick versuchten nun das Computer - Modell nachzubauen (die Zusammenarbeit mit Dr. Mann war nicht sehr ergiebig) schaffte es aber dann doch und fütterte dieses Computerspiel nun mit allen möglichen Daten, auch den Originaldaten des Dr. Mann. Zuletzt und viele 10.000 Durchläufe später einfach mit Zufallszahlen. Und heraus kam - o Wunder- immer und immer ein Hockeystick. Das Modell konnte gar nicht anders. Es war auf diesen Schlenker hin programmiert.5
Die UN und alle ihr folgenden Regierungen und NGO´s oder GO´s haben sich übrigens bis heute nicht für diesen bewußte Irreführung entschuldigt. Man kann sich ja mal irren, nicht wahr? Übrigens hatte sich die gesamte wissenschaftliche Fachpresse - auf wessen Druck wohl - geweigert, diese Korrekturen öffentlich zu machen. Ein Schelm der Schlechtes dabei denkt. Die dann ordentlich überarbeitete Hockeystickkurve6 finden Sie hier noch einmal schön mit der IPCC–Kurve übereinander gelegt.
Nun zur meßtechnischen Neuzeit. Die Temperaturentwicklung im Satellitenzeitalter: (Sie finden die Messungen der NASA und des GISS unter Angabe der Quellen in unten stehender Grafik)
Sie zeigt den aktuellsten Temperaturverlauf der Erde, von 1979 bis Ende 2005, wie er von div. Instituten im offiziellen Auftrag und mit verschiedenen Methoden gemessen wurde. "NCDC (lila gefärbt) Anomalies" sind Temperaturen der terrestrischen Stationen, deren Zahl seit 1970 von ca. 5000 auf jetzt nur noch 2000(!) weltweit zurückgegangen sind. Sie befinden sich meist in oder in der Nähe von urbanen Zentren und zeigen als solche - u.a. durch den Wärmeinseleffekt- starke Abweichungen von den Meßreihen, die in unberührter Natur z.B. Arktis oder Antarktis, Tundra etc. durchgeführt werden. Das Problem: Korrekturen sind zwar möglich, aber nicht standardisierbar, da fast jede Meßreihe jeder Meßstation anderen Einflüsse unterliegt. Im Grunde sind diese Messungen, für den o.a Zweck, also mit ihnen die Erderwärmung zu messen, nutzlos. "UAH" Messungen (blau gefärbt) sind solche mit Satelliten, die seit 1979 die Erde umrunden und eine sehr genaue Messung der durchschnittlichen Erwärmung erlauben. Sie zeigen sehr starke Abweichungen zu den terrestrischen Messungen. Nicht gezeigt sind die Wetterballonmessungen, die sich in sehr guter Übereinstimmung mit den Satellitenmessungen befinden. Näheres hierzu: unter www.john-daly.com/ges/surftmp/surftemp.htm.
Wie man sieht, steigt die gemessene Oberflächentemperatur aus den bekannten Gründen deutlich stärker an, als es die Satelliten zeigen. Sie wird daher in fast allen Veröffentlichungen der Medien benutzt. Die Satelliten und Ballonmessungen steigen deutlich weniger an und auch nur bis zum Jahre 1998, dann setzt ein leichter Abfall ein, oder auch ein flacher Verlauf, so genau weiß man das noch nicht, aber kaum ein weiterer Anstieg.
Es wäre aber unredlich daraus schon einen Trend abzuleiten, aber wahrnehmen kann man ihn - auch im Hinblick auf Nairobi- schon.
Mein Fazit: Es gibt Erhöhungen der Globaltemperatur im 1/10 Grad Bereich seit Ausgang des 19. Jahrhunderts (ca. 0,6 ± 0,2 °C sagt das IPCC), davon ein großer Anteil vor 1940, als die CO2 Produktion der Industrienationen kaum begonnen hatte). Sie liegen - mit Blick auf die mittelalterliche Warmzeit- innerhalb der natürlichen Schwankungen. Ein geringer Einfluß des Menschen ist vielleicht trotzdem anzunehmen. Irgendetwas Bleibendes müssen wir doch hinterlassen. Aber sie rechtfertigt weder ein Kyotoprotokoll noch andere Enteignungs- und Zwangsmaßnahmen, wie sie die Glaubensgemeinde der 6000 Erleuchteten in Nairobi derzeit vorbereitet.
Weiter Teil 23:23. Die Klimakatastrophe - 2. Ist der CO2-Anstieg der in der Atmosphäre seit ca. 100 Jahren zu beobachten ist, die wesentliche Ursache dafür? Und wenn ja, hat der Mensch mit seiner technischen CO2-Erzeugung daran einen maßgeblichen Anteil?Martin Durkin: The Great Global Warming Swindle, CD mit dem sensationellen Klimaschocker-Film, der die mediale Aufklärung rund um den Ökoterrorismus kräftig anfeuerte.
Empfohlene Literatur der führenden deutschen und internationalen Ökokritiker / Klimaleugner / Klimaschutzskeptiker / Wetterkundler / Klimahistoriker:Empfohlene Links: