15. Mai 2019

Kritik an der Treibhaus-Klimawandelhypothese, Teil 1 Durch „Tuning“ zu passenden Modellen

Entlarvende Zitate der Modellierer

von Gerhard Grasruck

Artikelbild
Bildquelle: shutterstock Wenn die Computermodelle nicht zur Realität passen: Da lässt sich was drehen

Der amerikanische Klimaforscher Richard Lindzen merkte einmal an, dass der Begriff „Skeptiker“ für die Kritiker der Hypothese eines durch menschliche Treibhausgasemissionen verursachten „Klimawandels“ eigentlich denkbar unpassend sei. Denn „Skeptiker“ impliziert, dass die Theorie, die kritisiert wird, zumindest ein Minimum an Anfangsplausibilität aufweist. Dies ist jedoch im Fall der Treibhaus-Klimawandel-Hypothese schlichtweg nicht gegeben – ihre grundlegende Unplausibilität war von Anfang an unübersehbar.

Wir wollen deshalb hier einmal versuchen, möglichst klar und prägnant die Kernthesen der Treibhaus-Klimawandel-Hypothese herauszuarbeiten – und warum sie falsch sind. Was also sind die konkreten Behauptungen der Klimawandel-Industrie? Prinzipiell kann man den von ihr postulierten Prozess des menschlich verursachten „Klimawandels“ in zwei Stufen einteilen: Erstens das, was man als „primären“ oder „physikalischen“ Treibhauseffekt bezeichnen kann; konkret wird behauptet, dass eine Verdopplung der atmosphärischen Kohlendioxidkonzentration vom vorindustriellen Wert von 0,028 auf 0,056 Prozent – die derzeitige Konzentration beträgt 0,041 Prozent – in einer Erhöhung der Einstrahlung an der Erdoberfläche um etwas mehr als ein Prozent (3,7 Watt pro Quadratmeter) resultiert, was weiterhin zu einer Temperaturerhöhung um ein Grad Celsius führt (dies wird in der Literatur auch als „Planck-Wert“ bezeichnet).

Nicht einmal die Klimawandel-Industrie wagt aber zu behaupten, dass eine solch geringe Temperaturerhöhung zu wesentlichen Problemen führen würde (ab 1,5 Grad Celsius soll es aber angeblich ganz fürchterlich werden). Deshalb wird in den Klimamodellen als zweite Stufe eine Verstärkung der initialen Erwärmung durch Rückkopplungseffekte postuliert: Durch die Erwärmung verdampft mehr Wasser; Wasserdampf ist aber auch ein Treibhausgas, was dazu führt, dass es noch wärmer wird und noch mehr Wasser verdampft, und so weiter und so fort. Über die Höhe der dadurch erreichten Verstärkung ist man sich in den verschiedenen Modellen durchaus nicht so ganz einig; als „Konsenswert“ wurde vom IPCC, der Uno-„Klimabehörde“, der Faktor drei festgelegt. Das würde also heißen, dass eine Verdopplung der Kohlendioxidkonzentration zu einer Temperaturerhöhung um drei Grad Celsius führen würde.

Eventuell könnte man dann noch als dritte Stufe die Auswirkungen dieser postulierten Erwärmung auf spezifische klimatische Ereignisse einführen, welche bekanntlich in den grellsten Farben ausgemalt werden – massiver Anstieg des Meeresspiegels, mehr Stürme und so weiter.

Alle diese Behauptungen basieren jedoch einzig und allein auf den berühmt-berüchtigten Klimamodellen. Dafür, dass diese „Modelle“ in der Lage sind, das real existierende Klima auf der Erde vorherzusagen, gibt es jedoch keinerlei Beleg. Ganz im Gegenteil: Sie versagen bereits bei der Aufgabe, auch nur vergangene Klimaentwicklungen zu reproduzieren.

Man ist deshalb dazu gezwungen, die Abweichungen von der Realität irgendwie auszubügeln. Zunächst bediente man sich hierzu vorwiegend der „Flusskorrekturen“: Dabei werden Werte im Modell – etwa Temperatur oder Wassergehalt – so korrigiert, dass sie mit den beobachteten Werten übereinstimmen. Wenn beispielsweise in einem globalen Klimamodell das für die Atmosphäre zuständige Teilmodell eine Temperatur liefert, die um zwei Grad Celsius höher ist als tatsächlich gemessen, so wird auf diese Temperatur einfach eine „Flusskorrektur“ von minus zwei Grad Celsius angewandt, bevor man den Wert ausgibt oder an ein anderes Teilmodell (etwa für den Ozean) weiterleitet. Bei dieser grobschlächtigen Methode tritt natürlich die Unzulänglichkeit der Modelle klar zutage; in neuerer Zeit setzt man deshalb, in einem Versuch, die Schummelei nicht gar so offensichtlich zu machen, stattdessen auf das sogenannte „Tuning“. In einer der – bezeichnenderweise raren – wissenschaftlichen Veröffentlichungen (Mauritsen et al., „Tuning the climate of a global model“) zu diesem heiklen Thema wird die Vorgehensweise bei dieser Methode so beschrieben: „Während der Entwicklungsphase werden die Eigenschaften globaler Klimamodelle auf vielfältige Art und Weise so eingestellt oder getunt, dass sie möglichst gut dem bekannten Zustand des klimatischen Systems der Erde entsprechen. Diese gewünschten Eigenschaften sind beobachtbare Größen wie das Strahlungsgleichgewicht an der Grenze zum Weltall, die weltweite Durchschnittstemperatur, Meereis, Wolken und Windfelder. Das Tunen erfolgt üblicherweise durch die Anpassung nicht genau bekannter, oder sogar nicht beobachtbarer, Parameter von Prozessen, die nicht explizit im Modell repräsentiert werden.“

Im Klartext: Wir haben zwar keine Ahnung, was diese klimatischen Prozesse eigentlich tun, aber wir stellen sie einfach einmal so ein, dass die Abweichungen (oder zumindest ein Teil der Abweichungen) in unserem Modell zum tatsächlich beobachteten Klima ausgeglichen werden. Das ist natürlich keine wirkliche Verbesserung gegenüber den Flusskorrekturen, weshalb es nicht verwundert, dass man es auch hier vermeidet, das Vorgehen an die große Glocke zu hängen. In einer anderen Veröffentlichung (Hourdin et al., „The Art and Science of Climate Model Tuning“) wird der nicht gerade offene Umgang mit der Tuning-Problematik vorsichtig thematisiert: „Obwohl die Notwendigkeit des Parametertunens in bahnbrechenden Arbeiten anerkannt (zum Beispiel Manabe und Wetherald 1975) und als wichtiger Aspekt in erkenntnistheoretischen Studien der Klimamodellierung behandelt wurde (Edwards 2001), wird die Bedeutung des Tunens vermutlich nicht so deutlich kommuniziert, wie es sein sollte. Es wird oftmals ignoriert, wenn die Leistungen von Klimamodellen in Multi-Modell-Analysen verglichen werden. Die Tuning-Strategien waren nicht einmal Teil der erforderlichen Dokumentation der CMIP5-Simulationen“ (ein Vergleich von Klimamodellen, der die Basis für einen wesentlichen Teil der Berichte des IPCC bildet). „Warum ein solcher Mangel an Transparenz?“ – „Es mag auch Bedenken geben, dass eine Erklärung der Tatsache, dass die Modelle getunt sind, die Argumente derer stützen würde, die die Korrektheit der Prognosen des Klimawandels in Zweifel ziehen. Das Tunen kann durchaus als verstohlene Methode gesehen werden, Fehler in den Modellen zu kompensieren.“

Etwas weiter unten wird dann eingestanden, dass diese Funktion des Tunings als Fehlervertuschung nicht nur so gesehen werden kann, sondern schlichtweg eine Tatsache ist: „Sobald eine Modellkonfiguration festgelegt ist, besteht das Tunen darin, Parameterwerte so zu wählen, dass die Abweichung der Modellausgaben von Beobachtung oder Theorie minimiert oder auf ein akzeptables Maß reduziert wird. Wenn man es so definiert, wird Tuning in anderen Anwendungsbereichen komplexer numerischer Modelle gewöhnlich als ‚Kalibrierung‘ bezeichnet (Kennedy und O‘Hagan 2001). Einigen Klimamodellierern widerstrebt es jedoch, diesen Begriff zu verwenden, da sie wissen, dass sie durch die Parameteranpassungen, absichtlich oder nicht, auch (oft unbekannte) Defekte in der Modellformulierung selbst kompensieren.“

Dieselbe Veröffentlichung enthält auch eine Umfrage unter Klima-Modellierungs-Gruppen, die die Notwendigkeit des Tunings eindringlich unterstreicht – von den 23 Befragten geben 22 an, dass sie ihre Modelle tunen. Die einsame Ausnahme lässt sich wohl mit der Tatsache erklären, dass unter die ganzen Klimamodelle auch eines für die Wettervorhersage geraten war – dort hat man im Gegensatz zur Klimagemeinde nicht den Luxus, nachträglich noch Schummelkorrekturen anwenden zu können, hier werden korrekte Vorhersagen erwartet.

Als Stellschrauben zur Klima-„Korrektur“ werden insbesondere Parameter im Zusammenhang mit Wolken und Konvektion, der Interaktion beim Auftreffen von Wind auf Bergen, der ozeanischen Wassermischungsverhältnisse und der Reflektivität von Schnee und Meereis verwendet. So führt beispielsweise eine Erhöhung der Rate, mit der beim konvektiven Aufsteigen von Wolken deren Feuchtigkeit als Niederschlag ausfällt, zu weniger Wolken, was weniger Rückreflektion der Sonneneinstrahlung ins Weltall bedeutet, und damit zu einer höheren Temperatur. Hier Mauritsen et al. mit einem konkreten Beispiel: „An diesem Punkt war klar, dass das neue gekoppelte Modell im Vergleich zu der von uns angepeilten vorindustriellen Temperatur zu warm war. Verschiedene Maßnahmen zur Senkung der globalen Durchschnittstemperatur durch Änderung der konvektiven Entrainment-Raten, des Anteils überschießender Konvektion und der Wolkenhomogenitätsfaktoren wurden getestet. Letztlich wurde entschieden, vorwiegend einen von 0,70 auf 0,77 erhöhten Homogenitätsfaktor für flüssige Wolken kombiniert mit einer leichten Reduzierung des Anteils der überschießenden Konvektion von 0,22 auf 0,21 zu verwenden, was eine Erhöhung der Wolkenreflektivität in niedrigeren Höhen und damit eine Reduzierung der Abweichung der Oberflächentemperatur bewirkte. Jetzt war die weltweite Durchschnittstemperatur genügend nahe an unserem Zielwert und das Abdriften nur mehr sehr schwach ausgeprägt.“

Angesichts der Tatsache, dass sich in der Klima-„Wissenschaft“ seit Jahrzehnten fast ausschließlich alles darum dreht, einen menschlichen Einfluss auf das Klima zu demonstrieren, ist es nicht verwunderlich, dass beim Modell-„Tunen“ neben natürlichen klimatischen Prozessen auch vermeintliche menschliche Einflüsse bemüht werden. Hierbei geht es insbesondere um die durch Emissionen von Industrie, Kraftwerken und Verkehr in die Atmosphäre gelangenden sogenannten Aerosole. Ihre angebliche Klimawirksamkeit wurde bereits unter anderen Vorzeichen in den 70er Jahren propagiert – damals wurden sie beschuldigt, durch Blockade der Sonneneinstrahlung für das Kommen einer neuen Eiszeit verantwortlich zu sein. Ihre heutige Bedeutung ergibt sich dadurch, dass sie verwendet werden, um das offensichtliche Versagen der Treibhausmodelle bei der Beschreibung des Klimas des 20. Jahrhunderts zu kaschieren; wie bereits erwähnt, soll eine Verdopplung der Kohlendioxidkonzentration seit dem Beginn der Industrialisierung eine Temperaturerhöhung von etwa drei Grad Celsius bewirken. Von dieser Verdopplung ist knapp die Hälfte bereits eingetreten; da die Auswirkung nicht linear, sondern (annähernd) logarithmisch ist und andere Treibhausgase wie Methan ebenfalls zugenommen haben, sollte der größte Teil dieser Drei-Grad-Celsius-Erwärmung bereits jetzt geschehen sein. Aber selbst mit allen Tricks und intensivster Massage von historischen Temperaturdaten kommt man gerade einmal auf eine Erhöhung von 0,85 Grad Celsius. Als Retter in der Not kommen nunmehr die Aerosole zum heldenhaften Tuningeinsatz – ihre vermeintlich kühlende Wirkung auf das Klima soll die fehlende Erwärmung erklären: „Einer der wenigen Tests, denen wir Klimamodelle unterziehen können, ist, ob sie in der Lage sind, den beobachteten Temperaturverlauf seit dem Beginn der Industrialisierung bis hin zur Gegenwart zu reproduzieren. Die Modelle schneiden hierbei überraschend gut ab (Räisänen 2007), wenn man die breite Spanne an Klimasensitivitäten bedenkt – ein Verhalten, das auf eine Kompensation durch anthropogenen Einfluss im 20. Jahrhundert zurückgeführt wird (Kiehl 2007): Modelle mit einer hohen Klimasensitivität tendieren dazu, einen schwachen anthropogenen Einfluss zu haben, und umgekehrt. Weiterhin wurden als Ursache für einen Großteil der Abweichungen zwischen den Modellen unterschiedliche Aerosoleinflüsse bestimmt.“

Dass menschlich verursachte Aerosole überhaupt irgendeinen nennenswerten Einfluss auf das globale Klima ausüben, erscheint aufgrund der Tatsache, dass sie lediglich im unteren Bereich der Atmosphäre verbreitet werden, mit daher kurzer Verweildauer in der Atmosphäre und einer räumlich begrenzten Verbreitung, unplausibel. Messungen der Durchlässigkeit der Atmosphäre für Sonneneinstrahlung für das letzte Jahrhundert zeigen denn auch mit Ausnahme von größeren Vulkanausbrüchen, bei denen Material hoch in die Stratosphäre geschleudert wurde – was zu jeweils kurzzeitigen Einstrahlungssenkungen mit entsprechender weltweiter Abkühlung führte –‍, keine nennenswerten Veränderungen an. Es ist nicht einmal sicher, dass, insofern die Aerosole überhaupt einen Einfluss ausüben, dieser tatsächlich, wie behauptet, abkühlend ist – es gibt auch Aerosole, die die Sonneneinstrahlung nicht reflektieren, sondern absorbieren und damit erwärmend wirken.

Im obigen Zitat wird auch ein weiteres wichtiges Problem mit den Klimamodellen berührt, nämlich die großen Abweichungen der verschiedenen Modelle voneinander. Es geht also nicht nur darum, ob man den Modellen Glauben schenken will – sondern auch darum, welchem denn nun. Oben haben wir festgehalten, dass bei einer Verdopplung des Kohlendioxidgehalts in der Atmosphäre eine Einstrahlungserhöhung um 3,7 Watt pro Quadratmeter behauptet wird, was laut IPCC-Konsenswert zu einer Temperaturerhöhung um drei Grad Celsius führen soll. Was sich hinter der Nennung solcher Modell-„Durchschnitte“ verbirgt, sehen wir etwa bei Hourdin et al.: „Dieses Tunen des Energiegleichgewichts ist von entscheidender Bedeutung, da eine Änderung um ein Watt pro Quadratmeter des Energiegleichgewichts in globalen Klimamodellen, je nach Sensitivität des jeweiligen Modells, typischerweise zu einer Änderung um 0,5 bis zu 1,5 Kelvin in der weltweiten Durchschnittstemperatur führt.“

Also mal ganz locker Unterschiede um den Faktor drei. Und das auch nur, wenn wir im „typischen“ Bereich bleiben – die Bandbreite ist also eher noch größer. Bei Mauritsen et al. wird aufgezeigt, was das für Auswirkungen hat: „Jedoch beträgt die Spanne zwischen dem kältesten und dem wärmsten Modell fast drei Grad Kelvin (Celsius), mit gleichem Abstand nach oben und unten zu den tatsächlichen Werten, wobei die Mehrheit der Modelle nach unten tendieren. Obwohl die Spanne nur ein Prozent relativ zum absoluten Nullpunkt beträgt, ist dies kaum ein Grund zur Beruhigung. Relativ zu der Erwärmung im 20. Jahrhundert ist die Spanne um den Faktor vier größer, während sie in etwa unserer besten Abschätzung der klimatischen Auswirkung einer Verdopplung der Kohlendioxidkonzentration und etwa der Hälfte des Unterschieds zwischen dem letzten eiszeitlichen Maximum und der Gegenwart entspricht.“

Dem ist wohl nichts hinzuzufügen. Dennoch regen sich nur vereinzelt Stimmen in der Modellierungsgemeinde, die die Konsequenzen ziehen und es wagen, wie hier, prinzipielle Kritik an der Praxis des Tunings zu üben (Dommenget und Rezny, „A Caveat Note on Tuning in the Development of Coupled Climate Models“): „Aktuelle globale Klimamodelle weisen wesentliche Fehler in ihren Simulationen des Klimas auf. Insbesondere können diese Fehler zu großen Unsicherheiten in den simulierten Auswirkungen (sowohl global als auch regional) einer Kohlendioxid-Verdopplung führen. Zur Zeit werden globale Klimamodelle durch umfangreiches Tunen der Modellphysik im Rahmen von Parametrisierungen entwickelt. Es ist nicht klar, ob solches Tunen die Modelle tatsächlich verbessert. Der Prozess des Tunens ist (im Allgemeinen) weder dokumentiert noch reproduzierbar.“ – „Das Tunen mag die Modellergebnisse verbessern (wie etwa die Reproduktion beobachteten vergangenen Klimas), erzielt jedoch keine Annäherung an die ‚wahre‘ Physik; ebenso wenig werden dadurch Prognosen des zukünftigen Klimawandels nennenswert verbessert.“

Tatsächlich macht das Tunen das Modell nur noch schlechter, da beim Tunen eines Teilbereichs des Modells auch andere Teilmodelle von den dadurch verfälschten Werten beeinflusst werden: „Innerhalb der globalen Klimasimulation verursachen die Fehler in den jeweiligen Teilmodellen – zum einen Fehler in der Parametrierung des Teilmodells selbst, zum anderen falsche Eingabewerte, die es von anderen Teilmodellen erhält – Folgefehler. Beim Tunen des globalen Klimamodells werden die Parameter in allen Teilmodellen so eingestellt, dass beides kompensiert wird. Wenn sich zum Beispiel in einer globalen Simulation Abweichungen in der Wolkenbedeckung in einer bestimmten Region zeigen, so kann dies sowohl von einem Fehler im Wolkenmodell als auch von einem falschen Eingabewert herrühren (abweichender Durchschnittszustand in anderen klimatischen Variablen). Das Entwicklungsteam des Modells könnte zu dem Entschluss kommen, die Parameter des Wolkenmodells zu tunen, obwohl eigentlich falsche Eingabewerte in das Wolkenmodell aufgrund von Problemen in anderen Teilmodellen verantwortlich sind.“ – „Tatsächlich erschwert das Tunen die Modellentwicklung (und Verbesserung): Das Tunen von Klimamodellen führt zu Kompensationsfehlern, die effektiv alle Teilmodelle des globalen Modells voneinander abhängig machen. Deshalb ist es so gut wie sicher, dass das Ersetzen oder Austauschen von Teilmodellen die Simulation des Gesamtklimas verschlechtern wird und weitere Optimierung notwendig ist. Die Optimierung wird dann (ein weiteres Mal) die Modellphysik von der ‚Wahrheit‘ entfernen.“

Durch Tunen mag man es zwar so hintricksen, dass die von einem Modell gelieferten Resultate für ein ganz bestimmtes Szenario zumindest halbwegs mit dem real beobachteten Klima übereinstimmen. Die Wahrheit kommt aber spätestens dann ans Licht, wenn man versucht, das Modell für eine andere Situation einzusetzen als für die, für die es „optimiert“ wurde: „Damit hat der Optimierungsansatz es zwar geschafft, den indirekten Fehler zu reduzieren, hat aber gleichzeitig die direkten Fehler für die Reaktion zu einer Kohlendioxid-Verdopplung erhöht. Er hat Kompensationsfehler erzeugt, die nur sichtbar werden, wenn er auf ein Problem angewandt wird, das sich wesentlich von dem unterscheidet, für das er getunt wurde.“ – „Der Tuning-Prozess wird die Verlustfunktion reduzieren, aber die Physik, die wir dadurch erhalten, ist nicht näher an der ‚wahren‘ Physik. Danach scheint es zwar so, als ob die Modelle das Klima besser reproduzieren können, aber wenn eine detaillierte Analyse auf Basis der physikalischen Prozesse oder unter anderen klimatischen Szenarios (zum Beispiel erdgeschichtlich weiter zurückliegende oder zukünftige Klimawandelszenarios) durchgeführt wird, so werden gravierende Modellierungsfehler auftreten.“

Die Autoren kommen deshalb zu dem Schluss, man solle doch besser wieder mit offenem Visier schummeln und zu den heute verpönten Flusskorrekturen zurückkehren: „Flusskorrekturen sind eine nützliche Alternative: Sie bewirken keine Veränderung der Modellphysik, weshalb keine Optimierung notwendig ist. Weiterhin tritt keine Fehlerkompensation aufgrund des Tuning-Prozesses auf. Ein weiterer Vorteil ist, dass Flusskorrekturen leicht zu dokumentieren und zu quantifizieren sind – die Korrektur ist einfach ein Eingabewert für das Modell (und kann abgeschaltet werden).“

Flusskorrekturen sind insofern das kleinere Übel, als sie zumindest deutlich signalisieren, wo die Fehler im Modell liegen, während Tuning diese nur vertuscht, aber nicht nur nicht behebt, sondern sogar noch vermehrt. Natürlich setzt dies voraus, dass man wirklich an der „wahren“ Physik des Klimas interessiert ist – etwas, was bei der heutigen Treibhaus-Klimaindustrie in der Regel mit Fug und Recht bezweifelt werden darf.

Es muss betont werden, dass selbst nach dem „Tunen“ immer noch genügend Abweichungen zwischen den Modellen und der Realität übrigbleiben (Schmidt et al., „Practice and philosophy of climate model tuning across six U.S. modeling centers“): „Die Grenzen des Tunens sind wohlbekannt (Mauritsen et al. 2012; Schmidt und Sherwood 2014; Hourdin et al. 2016). Zunächst einmal ist es bemerkenswert wenig hilfreich, wenn es um die Verbesserung der allgemeinen Modellfähigkeiten geht, sobald ein ausreichender Teil des Parameterraums identifiziert wurde – zum Beispiel war Tuning nicht in der Lage, das hartnäckige Problem der sogenannten ‚Doppelten Innertropischen Konvergenzzone‘ zu lösen (Lin 2007; Oueslati und Bellon 2015). Zweitens werden Verbesserungen in einem Bereich oftmals von Verschlechterungen in einem anderen begleitet, weshalb die letztendliche Parameterwahl subjektive Bewertungen über die relative Wichtigkeit verschiedener Aspekte der Simulationen beinhaltet. Zum Beispiel benutzt der australische Beitrag zu CMIP5 (ACCESS v.1) eine Variante des britischen Met-Office-Atmosphärenmodells mit kleineren Modifikationen, um Problemen in den Tropen und der südlichen Hemisphäre, die die Vorhersagen für Australien betreffen, entgegenzuwirken, auf Kosten der Leistung anderswo (Bi et al. 2013). Es gibt viele weitere offensichtliche Abweichungen von der Realität in Modellsimulationen, die über Modellgenerationen erhalten bleiben, was darauf schließen lässt, dass diese Aspekte resistent gegen Änderungen im Rahmen der Modellentwicklung sind (das schließt das Tunen ein) (Masson and Knutti 2011).“

Die Unzulänglichkeiten der Klimamodelle bieten schier endlosen Diskussionsstoff, aber wir wollen es bei den bisherigen Punkten belassen, die ganz bewusst zu einem Großteil in Form von Zitaten der Worte der Klimamodellierer selbst dargelegt wurden; sie sind mehr als ausreichend, um die völlige Ungeeignetheit der sogenannten Klimamodelle für einen vermeintlichen Treibhausgas-induzierten Klimawandel – oder sonst irgendetwas – zu belegen: Sie sind nicht nur nicht dazu imstande, das tatsächlich beobachtete Klima zu reproduzieren (geschweige denn vorherzusagen), sie zeigen auch noch massive Abweichungen untereinander; und selbst das „Tunen“ schafft es nur, die allergröbsten Abweichungen von der Realität zu kaschieren.

Auch gibt es keine Anzeichen dafür, dass sich die von den Modellen gelieferten Ergebnisse trotz der massiven Fortschritte in der verfügbaren Computerleistung über die letzten Jahrzehnte in irgendeiner Weise verbessert haben. Eine interessante Frage ist, ob die oftmals stark nichtlinearen Prozesse im irdischen klimatischen System eine prinzipielle Barriere für den Einsatz von Klimamodellen darstellen, oder ob diese bei einem Wegfall der ihnen aufgezwungenen politischen „Zielorientierung“ doch noch eine nützliche Rolle spielen könnten. Das hängt natürlich auch davon ab, ob man sich der „offiziellen“ Position in der Klimaforschung anschließt, dass klimatische Variabilität im Wesentlichen intern im irdischen Klimasystem bestimmt wird, oder ob man externe Einflüsse – etwa Sonnenaktivität – als wichtige Faktoren in Betracht zieht.

Für die Beantwortung der Frage der Korrektheit der Treibhaus-Klimawandelhypothese spielt das aber keine Rolle. Um diese zu widerlegen, benötigen wir keine Modelle, sondern lediglich die empirischen Beobachtungen des irdischen Klimas. Das wird das Thema des nächsten Artikels sein.

Mauritsen et al. 2012, „Tuning the climate of a global model“

Hourdin et al. 2017, „The Art and Science of Climate Model Tuning“

Dommenget und Rezny 2017, „A Caveat Note on Tuning in the Development of Coupled Climate Models“

Schmidt et al. 2017, „Practice and philosophy of climate model tuning across six U.S. modeling centers“


Artikel bewerten

Artikel teilen

Facebook Icon Twitter Icon VZ Icon del.icio.us Logo Reddit Logo

Anzeigen

Kommentare

Die Kommentarfunktion (lesen und schreiben) steht exklusiv Abonnenten der Zeitschrift „eigentümlich frei“ zur Verfügung.

Wenn Sie Abonnent sind und bereits ein Benutzerkonto haben, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, nutzen Sie bitte das Registrierungsformular für Abonnenten.

Mit einem ef-Abonnement erhalten Sie zehn Mal im Jahr eine Zeitschrift (print und/oder elektronisch), die anders ist als andere. Dazu können Sie dann auch viele andere exklusive Inhalte lesen und kommentieren.

drucken

Dossier: Klima

Mehr von Gerhard Grasruck

Autor

Gerhard Grasruck

Anzeige

ef-Einkaufspartner

Unterstützen Sie ef-online, indem Sie Ihren Amazon-Einkauf durch einen Klick auf diesen Linkstarten, oder auf ein Angebot in der unteren Box. Das kostet Sie nichts zusätzlich und hilft uns beim weiteren Ausbau des Angebots.

Anzeige