17. Dezember 2009

Klimaerwärmung, Teil 2 Die Wissenschaft

Jenseits der Katastrophenszenarien

„Das Kriterium für die Wissenschaftlichkeit einer Theorie ist ihre Falsifizierbarkeit, oder auch Widerlegbarkeit oder Überprüfbarkeit”, so Karl R. Popper. Bereits heute trägt jeder von uns die Last der Umweltpolitik: Steuern, Regulierungen, staatlich vorgeschriebene Gebühren. Auf der Kopenhagener Konferenz wird uns die Politik diese Last wesentlich erschweren. Der Ton der Alarmisten wurde vor diesem Ereignis täglich dringender; Schmelzende Polkappen, überflutete Länder, Massenaussterben: An all dem seien wir durch unseren Energieverbrauch schuld und nur die zusätzlichen Opfer könnten uns Ablass verschaffen.

Im vorangehenden, ersten Artikel dieser Serie wurden die häufigsten Katastrophenszenarien den Tatsachen gegenübergestellt. Aber selbst wenn die Meldungen übertrieben sind, die zugrundeliegende Wissenschaft ist doch erwiesen, oder etwa nicht? In der Erdgeschichte gingen globale Erwärmungen stets mit Erhöhungen des Kohlendioxidgehalts einher; die Erde erwärmt sich zur Zeit; Ursache ist menschengemachtes Kohlendioxid, das die vom Boden zurückgestrahlte Wärme aufnimmt und teilweise zum Boden reflektiert; wenn der Anstieg menschengemachten Kohlendioxids sich fortsetzt, wird sich die Erwärmung in gleichem Maße fortsetzen und sogar verstärken; dann sind Katastrophen unvermeidbar. Ist das alles etwa nicht gesichert? Ist Kohlendioxid nicht das wichtigste Triebhausgas? Sagen nicht alle Klimamodelle das gleiche? In diesem Beitrag sollen solche Fragen zur Wissenschaftlichkeit überprüft werden.

Ist der Physikalische Mechanismus der Erderwärmung durch Kohlendioxid etwa nicht geklärt?

Alarmisten beschreiben in ihren Modellen die Erde als „Treibhaus”: Sonnenlicht fällt durch die durchsichtige Atmosphäre wie durch das Glas eines Treibhauses auf den (dunklen) Boden. Dieser erwärme sich dadurch und strahle Infrarotlicht aus. Für dieses Infrarotlicht sind die „Treibhausgase” in der Atmosphäre undurchsichtig, wiederum wie das Glas eines Treibhauses. Die Atmosphäre erwärmt sich und strahlt einen Teil der Wärme zum Boden zurück. Die Atmosphäre verlangsamt somit durch Wärmeaufnahme und -rückstrahlung die Wärmeabgabe der Oberfläche durch Infrarotlicht. Je höher der Anteil an Treibhausgasen, desto höher ist diese Wärmeaufnahme und -rückstrahlung und desto wärmer bleibt die Oberfläche.

Die Probleme beginnen bereits bei der Benennung des angeblichen „Treibhaus”-Effekts. Ein Treibhaus erwärmt sich nicht, weil Glas die von dunklen Oberflächen abgestrahlte Wärme reflektiert, sondern weil die Wände den Austausch mit kühlerer Luft verhindern. Schlimmer wiegt jedoch, dass negative Rückkoppelungen wie Wolken- und Schneebildung, Phasenübergänge usw. außer Acht gelassen werden. Für qualitative Aussagen über einfach gehaltene Modelle mag die „Treibhaus”-Erklärung genügen. Doch das IPCC macht sie zur Grundlage quantitativer Vorhersagen über das Klimasystem der Erde.

Ist die Erwärmung des Erdklimas etwa nicht gesichert?

Die meisten lokalen Bodentemperaturen steigen tatsächlich – seit Ende der kleinen Eiszeit Mitte des 19. Jahrhunderts. Dieser Anstieg beschleunigte sich seit 1910 (Brohan et al 2006) und somit bevor Kohlendioxid in der Atmosphäre ab ca. 1950 signifikant anzusteigen begann. Von 1940 bis 1970 gab es eine Abkühlungsphase, danach eine Erwärmung, die bis etwa 1998 andauerte und sich seitdem nicht mehr fortsetzt (WMO 2007). Der Kohlendioxid-Gehalt der Atmosphäre steigt jedoch unbeirrt weiter und die IPCC-Modelle sagten einen konstanten Anstieg der Bodentemperaturen voraus. Die Forscher, die diese Modelle betreiben, sind sich dessen bewusst: „Tatsache ist, wir können die fehlende Erwärmung im Augenblick nicht erklären, und es ist ein Hohn, dass wir das nicht können”, beschwerte sich beispielsweise Kevin Trenberth vom National Center for Atmospheric Research in einer Email.

Der aufmerksame Leser könnte sich fragen, wie diese „globale Temperatur” überhaupt definiert und gemessen würde. Jeder, der schon einmal Fieber gemessen hat, weiß, dass es sehr darauf ankommt, wo man misst und wie. Wenn von einem Anstieg der „globalen Temperaturen” die Rede ist, dann ist damit ein gemittelter Anstieg der Bodentemperaturen hauptsächlich des Festlandes gemeint. Die meisten Messstationen befinden sich dabei auf der Nordhalbkugel – und ihre Zahl geht laufend zurück. Der stärkste registrierte Temperaturanstieg zu Beginn der 1990er Jahre erfolgte sogar, als eine Vielzahl arktischer Messstationen infolge des Zusammenbruches der Sowjetunion aufgegeben wurde.

Was die Qualität der übrigen Stationen angeht, so nahm die Öffentlichkeit jahrelang stillschweigend an, dass diese in Ordnung sei. Die Vorgaben für Stationen der Klasse 1 (Fehlerbereich kleiner 1°C) sind jedenfalls klar: „Um eine ordentlich geführte Station zu qualifizieren, müssen die Messfühler in erhöhten, geschlitzten Kästen gesetzt werden, auf ebenem Grund und umgeben von einer freien Fläche mit einer Neigung von weniger als 19 Grad mit einer Umgebung aus Gras- und (Pflanzen-) Bedeckung, die niedriger als 10 cm ist. Die Messfühler müssen wenigstens 100 Meter von künstlichen erwärmten oder reflektieren Oberflächen wie Gebäuden, Betonflächen oder Parkplätzen” entfernt sein. (NOAA/NESDIS 2002)

Wie zahlreiche Freiwillige – und nicht etwa die Verantwortlichen – inzwischen dokumentierten, ist dies erschreckend häufig nicht der Fall: Messstationen stehen auf asphaltierten Plätzen, vor den Ausgängen von Klimaanlagen – oder sogar hinter Rollfeldern im Bereich der Abgase startender Strahlflugzeuge. Anthony Watts, der die Dokumentationen hunderter freiwilliger Helfer zusammenstellt, kam zu folgendem Ergebnis: Von den untersuchten Stationen (bis heute sind über 1000 Stationen von ca. 1200 in Nordamerika untersucht worden) lagen 10 Prozent im Fehlerbereich kleiner 1°C. Der Rest, also 90 Prozent bei größer 1° (22 Prozent) bis größer 2° (61 Prozent) und größer 5° (8 Prozent).

Wenn die Zahl der Messstationen laufend zurückgeht, diese nicht gleichmäßig verteilt und schlecht platziert sind, werden deren Werte wenigstens sinnvoll statistisch gemittelt? Nehmen wir das Beispiel Nordamerikas, wo schließlich die meisten Messstationen stehen. James Hansen und Reto Ruedy vom NASA Goddard Institute for Space Studies, welche die Zahlen für Nordamerika auswerten, „korrigieren” ihre „Messwerte” laufend. John Goetz von climateaudit.org machte sich die Mühe, diese Manipulationen zurückzuverfolgen. Er stellte folgendes fest: „Im Schnitt wurden 20 Prozent der Historie 16 Mal während der vergangenen zweieinhalb Jahre verändert.“

Nachdem Steve McKintyre vom gleichen Blog im August letzten Jahres mit viel Mühe die Methoden der NASA zurückgerechnet hatte – Hansen hatte sich auf Anfrage geweigert, McIntyre die Algorithmen herauszugeben – fand er einen gravierenden Fehler in Hansens Rechenmethoden. Nach Ausmerzung dieses Fehlers wurde 1934 für kurze Zeit zum offiziell wärmsten Jahr der USA. Dann änderte Hansen seine Berechungsmethode erneut und 1998 kam wieder auf den amtlich offiziellen ersten Platz.

Kurz: Nicht ob die „globale Temperatur” steigt ist fraglich. Nur tut sie das seit dem Ende der kleinen Eiszeit im 19. Jahrhundert – hundert Jahre bevor der Kohlendioxidgehalt der Atmosphäre signifikant zu steigen begann. Sie stiegen besonders nach 1910 (Brohan et al 2006), also 40 Jahre vor dem beschleunigten Kohlendioxidanstieg in den 1950ern. Dieser beschleunigte Kohlendioxidanstieg ging sogar mit dem Beginn einer Abkühlungsphase einher. In jüngster Zeit ist auf die Werte allerdings kein Verlass mehr.

Sind die Temperaturanstiege der Gegenwart etwa nicht einzigartig und somit nur durch menschengemachtes Kohlendioxid zu erklären?

Die Erwärmungen der Nordhalbkugel in den letzten Jahrzehnten des 20. Jahrhunderts werden von den Modellierern mit dem Anstieg des atmosphärischen Kohlendioxids erklärt. Nehmen wir an, die Argumentation der Alarmisten, „unsere Modelle funktionieren nur, wenn wir den Kohlendioxidanstieg als Erwärmungsursache voraussetzen”, sei sachlich – und nicht bloß eine kostspieligere Variante von „uns fällt keine andere Ursache ein”: Es gab in der Vergangenheit Wärmeperioden wie die mittelalterliche Warmperiode, davor die Römische und davor die Bronzezeitliche Warmperiode. Deren zweifellos natürliche Ursachen können die Modelle der Alarmisten auch nicht erklären.

Diese Warmperioden zu beseitigen ist der Zweck der wiederholten Versuche, für die vergangenen Temperaturwerte einen „Hockeyschläger” zu finden: eine Vergangenheit mit gleichmäßigen Temperaturen, die von einem jähen Anstieg in der Gegenwart abgelöst wurde. Dieser beispiellose Anstieg soll dann durch menschengemachtes Kohlendioxid in der Atmosphäre erklärt werden.

Diese Hockeyschlägerkurve wurde produziert und geradezu zum Logo der Alarmisten. Ihre wichtigsten Autoren sind Michael Mann, Keith Briffa und Phil Jones. Diese kommen zu ihren Kurven durch bestimmte statistische Auswertungen von Baumringdaten. Der Herausgabe dieser Rohdaten als auch ihrer statistischen Methoden zur Ermöglichung des Nachvollziehens ihrer Ergebnisse stellen sie sich dabei energisch in den Weg. Die Hockeyschlägerkurve prangte dennoch prominent in zahllosen Veröffentlichungen, etwa auf dem Titelblatt eines Berichtes der World Metereologic Organisation (WMO) von 1999. Sie wurde zum Fundament der IPCC-Berichte.

Wenn bekannte Klimaereignisse wie die mittelalterliche Warmperiode oder die kleine Eiszeit solchermaßen für übertrieben erklärt werden, dann ist mit Aufmerksamkeit zu rechnen. Beispielweise erschien Manns Hockeyschläger-Kurve einem kanadischen Statistiker namens Steve McIntyre verdächtig: Ihm sah es so aus, als sie ein Produkt nicht der Daten, sondern von Manns statistischer Bearbeitung. Mann, inzwischen führender IPCC-Autor, dessen Forschung wie jene der Anderen durch Steuermittel finanziert werden, konnte erst nach Jahren durch eine Kommission von Statistikern für den US-Kongress, der Wegman Commission, dazu bewogen werden, seine Ergebnisse nachvollziehbar zu machen. Dabei stellte sich heraus: Der „Hockeyschläger” kam durch Manns statistischer Methode zustande, die auch aus Zufallsdaten eine gleichmäßig warme Vergangenheit gefolgt von einem jähen Temperaturanstieg produzierte (McIntyre und McKitrick 2005).

Keith Briffa verweigerte ebenfalls die Herausgabe seiner Rohdaten und statistischen Methoden und wurde dabei sogar durch die Herausgeber der Fachzeitschriften – entgegen deren offiziellen Bestimmungen – unterstützt. Erst nach zehn Jahren kam Steve McIntyre an die Daten. Wie sich herausstellte, kam Briffas Hockeyschläger durch seine besondere Auswahl und Gewichtung der Datensätze zustande. Ohne seine besondere Auswahl und Gewichtung verschwand auch sein Hockeyschläger.

Schlimmeres wurde sogar enthüllt, als Ende November Dateien des Hadley-Instituts an die Öffentlichkeit gelangten: Deren Baumring-Rekonstruktionen zeigten Abkühlungen in 1960ern und 1980ern. Um ihre Hockeyschläger-Kurve zu erhalten, manipulierten die Forscher die Baumringdaten einfach für die fraglichen Perioden, so dass sie stattdessen den mit Thermometern gemessenen Werten entsprachen – oder sie ließen die störenden Daten, die die Wertlosigkeit ihrer Baumring-Methode verriet, einfach weg.

Temperaturrekonstruktionen, die ohne die Täuschungen des „Hockey-Teams” auskommen, zeigen die bekannte mittelalterliche Warmperiode, auf die die Kleine Eiszeit folgte (z.B. Loehle 2007). Das häufig vorgebrachte alarmistische Gegenargument, Warmperioden wie die mittelalterliche seinen bloß lokale europäische Phänomene, widerspricht den Temperaturrekonstruktionen auch anderer Zonen (z.B. Oppo et al 2009).

Kurz: Die Erwärmungen seit Ende der kleinen Eiszeit sind nichts Ungewöhnliches. Die Klima-Modellierer, die als Ursache menschengemachtes Kohlendioxid unterstellen, können solche historischen, natürlichen Warmperioden nicht erklären. Schlimmer noch, die Forscher stellen sich der Nachvollziehbarkeit ihrer Behauptungen in den Weg; doch in den Wissenschaften gilt: Ohne Nachvollziehbarkeit gibt es keine Gültigkeit.

Beweist die Erdgeschichte etwa nicht den Zusammenhang von Kohlendioxidgehalt und globaler Temperatur?

Die Aussage, große Temperaturänderungen der Erde seien immer mit Änderungen des Kohlendioxids einhergegangen – am prominentesten im Werk des Ex-US-Vizepräsidenten und Emissionzertifikate-Managers Al Gore, „An Inconvenient Truth”, aufgestellt – widerspricht im Grunde der Behauptung, der Anstieg im letzten Jahrhundert sei einzigartig. Doch davon abgesehen stellen die Alarmisten die Richtung des Zusammenhangs auf den Kopf: Änderungen des CO2-Gehalts folgen als Antwort auf Klimaänderungen, nicht umgekehrt (Fischer et al 1999, Caillon et al 2003) – und zwar mit einer Verzögerung von ca. 600 plusminus 400 Jahren.

Eine naheliegende Erklärung ist die Abgabe bzw. Aufnahme von Kohlendioxid durch sich erwärmende bzw. abkühlende Ozeane: Eine Flüssigkeit löst umso mehr Gas, je kälter sie ist, und gibt es bei Erwärmung wieder ab. Dazu passt, dass den Kohlendioxidänderungen der Atmosphäre Temperaturänderungen der Tiefsee vorausgingen. Danach waren es Änderungen in Sonneneinstrahlung und Reflektivität der höheren Breiten, welche zu Änderungen der Meerestemperaturen führten (Stott et al 2007). Diese Temperaturänderungen der Ozeane bewirkten ihrerseits Änderungen des Kohlendioxidgehalts der Atmosphäre – und nicht umgekehrt.

Ist der Anstieg des atmosphärischen Kohlendioxids etwa nicht allein durch menschliche Einflüsse erklärbar?

Dagegen spricht alleine schon die Tatsache, dass der Beginn des Kohlendioxidanstiegs der zivilisatorischen Kohlendioxiderzeugung vorausging.

Wie oben erklärt folgten Änderungen des atmosphärischen Kohlendioxids Änderungen der Temperatur, vermutlich durch Kohlendioxidabgabe der sich erwärmenden Ozeane. Von den vorausgehenden Warmperioden kann dann ein signifikanter, natürlicher Anteil – neben dem zweifellos vorhandenen menschengemachten – auf den Kohlendioxidanstieg ausgehen.

Ist Kohlendioxid etwa nicht das wichtigste Treibhausgas?

Sowohl in Menge wie in Wärmekapazität übertrifft der Wasserdampf in der Atmosphäre das Spurengas Kohlendioxid bei weitem. Wenn ihre physikalischen Modelle mit dieser Tatsache angegriffen werden, antworten Alarmisten häufig mit dem Vorwurf, man bestreite, dass Kohlendioxid ein „Treibhausgas” sei. Doch ob Kohlendioxid ein „Treibhausgas” ist, ist noch nicht einmal Kern der Treibhaushypothese. Für sich genommen ist dessen Wirkung viel zu gering. Um mit ihren Modellen die Temperaturanstiege des letzten Jahrhunderts mit dem Anstieg des Kohlendioxidgehalts zu erklären, müssen die Alarmisten die Wirkung des Kohlendioxidanstiegs vervielfachen. Diese Vervielfachung erreichen sie, indem sie in ihren Modellen einen positiven Rückkoppelungseffekt des Kohlendioxids voraussetzen: Diesen nennen sie „positive Wasserdampf-Rückkopplung”, die sehr geringe Erwärmung durch Kohlendioxid ließe die Atmosphäre mehr Wasserdampf aufnehmen. Durch dessen Wärmeaufnahme und -rückstrahlung erwärmt sich die Erde, wodurch noch mehr Wasser in die Atomsphäre gelange, die dadurch noch mehr Wärme aufnähme usw.

Der aufmerksame Leser wird erkannt haben, dass dies eine positive Rückkoppelung von Temperaturänderungen durch Wasserdampf im Allgemeinen beschreibt. Gibt es Erwärmungs-Phänomene der Erdoberfläche, welche die geringe Wirkung von Kohlendioxid übertreffen? Die gibt es: Wind- und Meeresströmungsphänomene wie El Niño / südliche Oszillation (ENSO), pazifische Dekadische Oszillation (PDO) usw.

Gleichgültig, was die Ursache solcher Erwärmungen ist: Wenn die Hypothese der positiven Wasserdampf-Rückkopplung stimmt, dann müsste man mit Hilfe gemessener Temperaturänderungen und den Computermodellen jene Strahlung entnehmen können, die es durch die treibhausgasreichere Atomsphäre schaffen sollte. Der Vergleich mit der von Satelliten gemessenen tatsächlichen Wärmestrahlung der Erde kann die Hypothese bestätigen oder widerlegen.

Dafür, dass diese Rückkoppelung im Zentrum der Treibhaushypothese steht, gab es lange Zeit erstaunlich wenige Untersuchungen darüber. Zunächst widerlegten die Messungen die Modelle (z.B. Wielicki et al 2002, Hatzidimitriou et al 2004, Clement und Soden 2005). Dann schien eine Veröffentlichung (Foster und Gregory 2006) den positiven Rückkoppelungseffekt doch noch zu bestätigen.

Doch zwei Jahre später zeigten Roy Spencer und William Braswell, wie Schwankungen z.B. in der Bewölkung eine positive Rückkoppelung vortäuschen können (Spencer und Braswell 2008). Die Tatsache, dass der Hauptautor des ursprünglichen Artikels, Piers Foster, Spencer und Braswells Arbeit prüfte und beide zur Veröffentlichung ermutigte, schützte sie nicht vor der Anklage „schamloser Fälschung” durch Alarmisten.

Fazit: Die „Treibhaus”-Wirkung des Kohlendioxids alleine reicht nicht aus, um die beobachteten Temperaturanstiege zu erklären. Die Alarmisten müssen ihren Computermodellen eine Verstärkung hinzufügen, die sie „positive Wasserdampf-Rückkopplung” nennen. Deren Existenz widersprechen jedoch die tatsächlichen Messwerte der Erd-Wärmestrahlung.

Und was verursacht die Klimaschwankungen? Mit Bestimmtheit ist das nicht zu sagen, doch es gibt Erklärungen, die im Gegensatz zu Spekulationen über Kohlendioxid belastbar sind: Regelmäßig wiederkehrende Änderungen von Winden und Meeresströmungen wie der Nordatlantischen Oszillation (NAO), der Pazifischen Dekadischen Oszillation (PDO) und der El Niño / Südliche Oszillation (ENSO) wurden bereits genannt. Änderungen der Wolkenbedeckung – teilweise gekoppelt mit diesen Strömungsphänomenen – und somit der Reflektivität der Erde wurden vorgeschlagen. Es gibt Hinweise, dass diese durch Änderungen der wolkenbildenden kosmischen Strahlung ausgelöst werden, die die Erde erreicht (Svensmark und Calder 2007).

Sagten die Klimamodelle bisherige Temperaturanstiege etwa nicht zuverlässig voraus?

Diese Frage berührt die Wissenschaftlichkeit der Hypothesen hinter den Computermodellen: Einem Wissenschaftler geht es um den Ausschluss falscher Hypothesen und das Auffinden belastbarer Theorien. Dabei geht er nach dem Prinzip der Widerlegbarkeit vor; es muss für eine Hypothese eine Prüfung geben, mit der sie bestätigt oder widerlegt werden kann.

Eingangs wurde Poppers Formulierung der Widerlegbarkeits-Regel in den Wissenschaften zitiert. Wer mehr über die einfachen Regeln der Wissenschaften erfahren will, dem sei das Buch Thomas Kuhns empfohlen (Kuhn 1962). Das funktioniert folgendermaßen:

Erstens: Der Wissenschaftler beobachtet die Natur. (Bodentemperaturen in der Nähe der Messstationen steigen).

Zweitens: Er stellt eine Hypothese auf. (Temperatursteigerungen werden durch menschlich verursachten CO2-Anstieg ausgelöst).

Drittens: Er macht eine Voraussage. (Bodentemperaturen werden weiterhin mit dem Kohlendioxidgehalt der Atmosphäre ansteigen, der Anstieg wird xy Prozent betragen; Temperaturen besonders der mittleren Troposphäre werden mit dem CO2-Ausstoss steigen).

Viertens: Er überprüft die Voraussage. (Stiegen Temperaturen mit dem Kohlendioxidgehalt und beträgt der Anstieg ca. xy Prozent? Stiegen Temperaturen besonders der mittleren Troposphäre mit dem CO2-Ausstoss? Wenn Ja: Hypothese ist als Theorie belastbar. Wenn Nein: Die Erwärmung hat andere Ursachen).

Die Hypothese der Alarmisten lautet, dass die Atmosphäre die von der Oberfläche zurückgestrahlte Wärme aufnimmt. Sie nimmt sie umso besser auf, je größer der Gehalt Wärme absorbierender Gase ist, der sogenannten „Treibhausgase” (H20, N2O, CO2, CH4). Indem die Atmosphäre Wärme aufnimmt, steigt ihre Temperatur. Die sich erwärmende Atmosphäre strahlt Wärme an den Boden zurück, der dadurch insgesamt wärmer bleibt.

Die Klimamodellierer geben Fehlergrenzen für diese Erwärmung an. Die tatsächlich gemessenen Werte lagen zum Teil um das Doppelte außerhalb dieser Grenzen (Collins 2002, Koutsoyannis et al 2008). Das ist nicht mehr „ungenau”. Die Treibhaushypothese übersteht die nächste Überprüfung ebenso wenig: Die Klimamodelle sagen u.a. eine besondere Erwärmung der unteren Troposphäre über den niedrigen Breiten voraus. Dort sollte sich die Atmosphäre etwa dreimal schneller erwärmen als der Boden. Dieser „Hot Spot” würde die Hypothese bestätigen, die Erwärmungen in den letzten Jahrzehnten des 20. Jahrhunderts seien durch menschlich erzeugte Treibhausgase verursacht worden. Diesen „Hot Spot” gibt es jedoch nicht (Douglas et al 2007).

Dem unvoreingenommenen Beobachter bleibt kein anderer Schluss, als dass die Modelle der Alarmisten am Prinzip der Widerlegbarkeit gescheitert sind. Wie geht das IPCC mit der experimentellen Widerlegung der Voraussagen ihrer Modelle um? Folgendermaßen: „Wir erkennen, dass – im Unterschied zum klassischen Konzept Poppers (1982) – unser Bewertungsprozess nicht so klar ist wie eine bloße Suche nach ‘Widerlegbarkeit’” (IPCC 2001).

Zu den Kosten und tiefen Eingriffen, mit denen uns die Politik im Namen des „Klimaschutzes” belastet, wird sie mit dem Kopenhagener Gipfel ein Vielfaches hinzulegen. Dabei beruft sie sich auf angeblich klare Ergebnisse der Wissenschaft. Wie diese Politiker selber, so haben auch die wenigsten von uns die Zeit, auf den betreffenden Feldern zu Experten zu werden. Dagegen sind die Grundsätze wissenschaftlichen Erkenntnisgewinns wie jene der Nachvollziehbarkeit und der Widerlegbarkeit sogar Kindern verständlich: Erzählungen vom unsichtbaren Spaghettimonster, das man nicht sehen kann, weil es eben unsichtbar ist, lösen höchstens Kichern aus.

Klimatologen bleiben jedoch todernst, wenn sie von „positiver Wasserdampf-Rückkopplung”, „troposphärischen Hotspots” oder „Hockeyschläger-Kurven” reden, die nur deswegen nicht sichtbar seien, weil man die richtigen statistischen Auswertungen noch nicht gefunden habe. Dem unvoreingenommenen Beobachter könnte der Verdacht kommen, dass die Klimatologie nicht länger in der Lage sei, Fehler einzugestehen, geschweige denn sie selbst zu korrigieren. Es scheint fast, als würde man die Methoden der gewünschten Erkenntnis anpassen und nicht umgekehrt. Dies wäre umso beunruhigender, als gerade auf diesem Feld so viel abhängt von der Datenanalyse, Parameterwahl usw., während die Politik von diesen Erkenntnissen unseren Wohlstand und unsere Freiheit abhängig macht.

Im nächsten Beitrag dieser Serie soll daher beleuchtet werden, wie sich politischer Einfluss auf diese Wissenschaft auswirkt und welche Interessengruppen auf die Politik Einfluss nehmen. Es sei schon jetzt verraten, dass beispielsweise die „bösen Energiekonzerne” eine ganz andere Rolle spielen als vermutet.

Internet

Lokale Bodentemperaturen steigen größtenteils nicht mehr an: World Metereological Organisation (2007): WMO Statement on the Status of the Global Climate in 2007. Den relevanten Graphen findet man auf Seite 4. Im neuesten Bericht druckt die WMO ihn nicht mehr ab.

Qualität einiger Messstationen zur Feststellung der Bodentemperaturen bei Surfacestations

Artikel über Messstationen neben Klimaanlagen und hinter Triebwerksabgasen bei Joanne Nova

John Goetz vollzieht die ständige Änderungen der statistischen Methoden der NASA in „Rewriting History, Time and Time Again” nach

Steve McIntyre weist einen Fehler in den statistischen Methoden der NASA nach, ohne die 1934 zum wärmsten Jahr des 20. Jahrhunderts würde

Keith Briffas Manipulationen

Kevin Trenberth vom National Center for Atmospheric Research beklagt sich in einer Email bei seinen Kollegen, sie könnten die Abwesenheit einer Erwärmung nicht erklären.

Professor Raymond Pierrehumbert von der University of Chicago bezichtigt Spencer auf RealClimate.org der „schamlosen Fälschung.“

Entgegnung Roy Spencers auf Prof Pierrehumberts Beschuldigungen

Dirk Maxeiner über NASAs James Hansen: Dirk Maxeiner: Dr. Hansen und Mr. Hyde. In: Die Weltwoche (17.08.2008)

Literatur

P. Brohan, J.J. Kennedy, I. Harris, S.F.B. Tett, P.D. Jones (2006): Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. J. Geophys. Res. 111 (2006)

Amy Clement, Brian Soden (2005): The sensitivity of the tropical-mean radiation budget. J. Clim. 18 (2005): 3189-3203.

M. Collins: Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem. Climate Dynamics 19 (2002): 671-692 („For mid-latitude surface air temperature anomalies over land, model trajectories rapidly diverge and there is little sign of any potential predictability on time scales greater than a season or so. (...) For the majority of the highly populated regions of the world, climate predictability on interannual to decadal time scales based in the initial value approach is likely to be severely limited by chaotic error growth.”)

David H. Douglass, John R. Christy, Benjamin D. Pearson, S. Fred Singer (2007): „A comparison of tropical temperature trends with model predictions” Int. J. Climatol. (2007) („Model results and observed temperature trends are in disagreement in most of the tropical troposphere, being separated by more than twice the uncertainty of the model mean.”)

Hubertus Fischer, Martin Wahlen, Jesse Smith, Derek Mastroianni, Bruce Deck (1999): Ice Core Records of Atmospheric CO2 Around the Last Three Glacial Terminations. Science 283(1999): 1712-1714 („High-resolution records from Antarctic ice cores show that carbon dioxide concentrations increased by 80 to 100 parts per million by volume 600 +/- 400 years after the warming of the last three deglaciations.“)

P. M. Forster, J. M. Gregory (2006): The climate sensitivity and its components diagnosed from Earth Radiation Budget data. J. Climate, 19 (2006): 39-52

D. Hatzidimitriou, I. Vardavas, K. G. Pavlakis, N. Hatzianastassiou, C. Matsoukas, E. Drakakis (2004): On the decadal increase in the tropical mean outgoing longwave radiation for the period 1984-2000. Atmos. Chem. Phys. 4 (2204): 1419-1425

Intergovernmental Panel on Climate Change (IPCC) (2001): Climate Change 2001: The Scientific Basis. („We recognise that, unlike the classic concept of Popper (1982), our evaluation process is not as clear-cut as a simple search for ‘falsification’.”)

D. Koutsoyiannis, N. Mamassis, A. Christofides, A. Efstratiadis, S.M. Papalexiou (2008): Assessment of the reliability of climate predictions based on comparisons with historical time series. European Geosciences Union General Assembly 2008, Geophysical Research Abstracts, 10 (2008) („()... Model outputs at annual and climatic (...) scales (...) do not reproduce the natural overyear fluctuation (...); none of the models proves to be systematically better than the others. The huge negative values of coefficients of efficiency at those scales show that model predictions are much poorer that an elementary prediction based on the time average. This makes future climate projections not credible.”)

Thomas Kuhn (1962): The Structure of Scientific Revolutions. Chicago: University of Chicago Press, 1962 - ISBN 0226458083 (Deutsche Ausgabe: Die Struktur wissenschaftlicher Revolutionen. Frankfurt am Main: Suhrkamp Verlag, 1967 - ISBN 3518076256)

C. Loehle (2007): A 2000-year global temperature reconstruction based on non-treering proxies. Energy and Environment 18 (2007): 1049-1058. Corrigenda: C. Loehle, J.H. McCulloch (2008): Correction to: A 2000-year global temperature reconstruction based on non-tree ring proxies. Energy and Environment 19 (2008): 93-100. („the 1995-year reconstruction shown here does not match the famous hockey stick shape”)

Stephen McIntyre, Ross McKitrick (2005): Hockey sticks, principal components, and spurious significance. Geophysical Research Letters, 32(3): 3710 („The ‘hockey stick’ shaped temperature reconstruction of Mann et al. (1998, 1999) has been widely applied. However it has not been previously noted in print that, prior to their principal components (PCs) analysis on tree ring networks, they carried out an unusual data transformation which strongly affects the resulting PCs.&dquo;)

National Oceanic and Atmospheric Administration, National Environmental Satellite, Data, and Information Service (NOAA/NESDIS) (2002): U. S. Climate Reference Network: Site Information Handbook. NOAA-CRN/OSD-2002-0002R0UD0

Delia W. Oppo, Yair Rosenthal, Braddock K. Linsley (2009): 2,000-year-long temperature and hydrology reconstructions from the Indo-Pacific warm pool. Nature 460 (2009): 1113-1116 („The SST reconstruction shows cooler temperatures between about AD 400 and AD 950 than during much of the so-called Medieval WarmPeriod (about AD 900-1300) (...) A gradual SST decrease began at about AD 1300, and culminated at about AD 1700, within the peak of the LIA. Subsequent warming was interrupted by two multi-decadal cold periods, one towards the end of the LIA and one during the early twentieth century.”)

R.W. Spencer, W.D. Braswell (2008): Potential biases in cloud feedback diagnosis: A simple model demonstration. J. Climate, 21 (2008): 5624-5628

Lowell Stott, Axel Timmermann, Robert Thunell (2007): Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming. In: Science 317 (27.9.2007): 5846 („Deep sea temperatures warmed by ~2°C between 19 and 17 ka B.P. (thousand years before present), leading the rise in atmospheric CO2 and tropical surface ocean warming by ~1000 years. The cause of this deglacial deep water warming does not lie within the tropics, nor can its early onset between 19-17 ka B.P. be attributed to CO2 forcing. Increasing austral spring insolation combined with sea-ice albedo feedbacks appear to be key factors responsible for this warming.“)

Henrik Svensmark, Nigel Calder (2007): The Chilling Stars: A New Theory of Climate Change. London: Icon Books, 2007. ISBN-1840468157

Bruce A. Wielicki, Takmeng Wong, Richard P. Allan, Anthony Slingo, Jeffrey T. Kiehl, Brian J. Soden, C. T. Gordon, Alvin J. Miller, Shi-Keng Yang, David A. Randall, Franklin Robertson, Joel Susskind, Herbert Jacobowitz (2002): Evidence for large decadal variability in the tropical mean radiative energy budget. Science 295 (5556): 841-844.


Artikel bewerten

Artikel teilen

Facebook Icon Twitter Icon VZ Icon del.icio.us Logo Reddit Logo

Anzeigen

Kommentare

Die Kommentarfunktion (lesen und schreiben) steht exklusiv Abonnenten der Zeitschrift „eigentümlich frei“ zur Verfügung.

Wenn Sie Abonnent sind und bereits ein Benutzerkonto haben, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, nutzen Sie bitte das Registrierungsformular für Abonnenten.

Mit einem ef-Abonnement erhalten Sie zehn Mal im Jahr eine Zeitschrift (print und/oder elektronisch), die anders ist als andere. Dazu können Sie dann auch viele andere exklusive Inhalte lesen und kommentieren.

drucken

Mehr von Jörg Janssen

Über Jörg Janssen

Anzeige

ef-Einkaufspartner

Unterstützen Sie ef-online, indem Sie Ihren Amazon-Einkauf durch einen Klick auf diesen Linkstarten, oder auf ein Angebot in der unteren Box. Das kostet Sie nichts zusätzlich und hilft uns beim weiteren Ausbau des Angebots.

Anzeige