Der Modellierungswahn

Hanns Graaf

Die Behauptung, dass uns eine Klimakatastrophe bevorstehe, ja dass sie sogar heute schon zu spüren sei, gründet sich auf drei Säulen: erstens auf tatsächlich zu beobachtenden klimatischen Phänomenen wie dem Anstieg des Meeresspiegels, dem Steigen der Temperaturen seit ca. 150 Jahren oder verstärkter Eisschmelze in bestimmten Regionen. Diese Entwicklungen, die sich aber alle innerhalb „normaler“, sich zyklisch wiederholender Schwankungen des Erdklimas vollziehen und keinesfalls besonders dramatische Ereignisse darstellen, werden einfach mechanisch linear in die Zukunft verlängert, was „natürlich“ zu beunruhigenden Ergebnissen führen muss. Zweitens werden Theorien (v.a. die Treibhaustheorie nach Arrhenius und die Annahme der besonderen Erwärmungswirkung des CO2) als bewiesen angenommen, die jedoch keineswegs – weder theoretisch noch empirisch – bewiesen sind (was selbst das IPCC mitunter einräumt). Drittens schließlich werden auf dieser „theoretischen“ Basis Computer-Modelle entwickelt, die angeblich in der Lage wären, das grundsätzliche Klimageschehen zu beschreiben und für Jahrzehnte oder gar Jahrhunderte voraus zu sagen.

Wir zeigen im Folgenden, dass diese Computer-Klima-Modelle ihren behaupteten Zweck aber überhaupt nicht erfüllen und auch nicht erfüllen können – weder als argumentative Grundlage der „Klimapolitik“ noch gar zur Vorhersage der Klimaentwicklung.

Methodisches

Immer wieder wird betont, wie genau und immer genauer die Computer-Modelle klimatischer Prozesse wären und welch große Fortschritte durch noch größere Rechner möglich seien. Schon vor Jahren behaupteten die Klima-Modellierer, dass sie die Klimaentwicklung „zu 95% genau“ voraussagen könnten. Durch noch größere Rechner wären sogar noch genauere Voraussagen möglich. Jeder denkende Mensch wird sich hier sofort fragen, was die fehlenden Prozente an „Erkenntnis“ da überhaupt noch substantiell hinzufügen könnten.

Und natürlich fragt man sich auch, wie es denn überhaupt möglich sein soll, ein System wie das irdische Klimageschehen, das von sehr vielen, z.T. noch wenig oder gar nicht bekannten Faktoren, die zudem noch in sehr komplizierten Wechselwirkungen miteinander stehen, geprägt wird, exakt zu beschreiben. Ein sowohl zyklisch wie chaotisch bestimmtes System wie „das Klima“ (es gibt kein globales Klima, sondern nur Klimazonen) kann nicht einmal annähernd genau modelliert werden. Selbst andere, wesentlich weniger komplexe Systeme, können oft nur mit großen Unsicherheiten und Fehlerbreiten dargestellt werden.

Es sollte jedem kritischen Menschen eigentlich aufgefallen sein, wie erstaunlich weit von der Realität entfernt schon bisher Computer- oder Statistik-basierte Voraussagen künftiger Entwicklungen waren, denken wir z.B. an die Voraussagen zur Bevölkerungsentwicklung, zum drohenden Hungertod der Menschheit, zur Erschöpfung bestimmter Ressourcen (z.B. peak oil) u.a. Szenarien. V.a. die Prophezeiungen des Club of Rome haben mit der Realität wenig gemein. Dessen Prognosen folgen in der Methode und in manchen Schlussfolgerungen durchaus der Theorie von Malthus und seinen diversen Jüngern. Dessen reaktionäre und pessimistische Auffassungen wurden schon von Marx heftig kritisiert und als unwissenschaftlich entlarvt. Heutzutage aber haben alle Grünen und Linken diesen Katastrophismus a la Club of Rome oder IPCC übernommen. Die  „marxistischen“ Zauberlehrlinge scheinen die Erkenntnisse ihres Altmeisters vergessen zu haben …

All diese, angeblich auf wissenschaftlichen Analysen beruhenden, Entwicklungsszenarien pendeln zwischen zwei Extremen: einerseits der Anerkenntnis banaler Fakten, z.B. des Umstands, dass bestimmte Ressourcen begrenzt sind oder dass die Menschheit weiter wächst. Andererseits sind sie meist nichts weiter als die Verlängerung aktueller Trends in die Zukunft. Und genau hier liegt der Hase im Pfeffer. Die gesamte Methode ist eine rein mechanische, keine dialektische. So können zwar sehr begrenzte Voraussagen und Modellierungen u.U. korrekt sein, doch bei längerfristigen und komplexeren Prozessen funktioniert das eben nicht.

Die „mechanische“ Sicht der Modelle geht von einem bestimmten Wirkungszusammenhang von Faktoren aus, der bestimmte Folgen zeitigt. Trotz Berücksichtigung bestimmter Veränderungen dieser Konstellation beruht die Prognose meist grundsätzlich auf einer wesentlich als unveränderlich angesehen Situation. Mit „unveränderlich“ soll hier gemeint sein, dass durchaus quantitative Veränderungen beachtet werden, jedoch keine qualitativen. Philosophisch gesprochen äußert sich hier eine Unkenntnis der Dialektik.

Ein Beispiel

Die Behauptung, dass die Menschheit schon bald (der Zeitpunkt wurde immer wieder hinausgeschoben) kein Öl mehr haben würde, und dass der Umschlagpunkt (peak oil), von dem an der Verbrauch größer ist als die Ölreserven, wie der Moment, an dem sie aufgebraucht sein würden, bestimmbar wären, beruht auf der Annahme eines bestimmten Verhältnisses von Ressourcen und Verbrauch. Unter dieser Prämisse ist ein peak oil tatsächlich auch bestimmbar. Doch die Prämisse ist falsch! Die Methode berücksichtigt eben nicht die tatsächliche Produktivkraftentwicklung. Die Realität zeigt hingegen, dass die (bekannten) Ölreserven relativ und absolut zugenommen haben, wodurch allein schon der peak oil weiter in die Zukunft verschoben und die Prognose des Club of Rome als Unfug entlarvt wurde – als Unfug nicht deshalb, weil die Ölreserven unendlich wären, sondern weil sie erstens nicht so schnell verbraucht sein werden, wie behauptet wurde, und zweitens, weil das Ende der Ölvorräte keine Energie- oder Rohstoffkrise auslösen wird.

Die Realität besteht z.B. darin, dass a) die Technologie zum Aufspüren von Ölvorräten sich verbessert hat, also mehr Lagerstätten entdeckt werden; b) darin, dass mittels besserer Technik die Ausbeute der Förderung höher wird; c) durch neue Erschließungsmethoden bestimmte Vorräte überhaupt erst genutzt werden können, die früher praktisch nicht verwendet werden konnten oder deren Förderung zu teuer war. Das betrifft v.a. das Fracking von Öl und Gas aus härteren Gesteinsschichten. Allein durch das Fracking haben sich z.B. die nutzbaren Gas-Reserven der USA um etwa 50% vergrößert. Dazu kommt noch die Nutzung von Tiefseevorräten oder von Ölsanden. D) gibt es einen permanenten Trend der Verbesserung der technischen Effizienz, was den Verbrauch von Öl pro Einheit erbrachter physikalischer Arbeit beständig absenkt.

Diese Aufzählung zeigt, dass immense Veränderungen des Wirkungszusammenhangs eintreten, die exakt natürlich von niemand vorausgesehen werden können. Eine wirkliche Verknappung des Öls würde sich zudem sofort in einem höheren Preis niederschlagen, was den Verbrauch drosseln und alternative Techniken und Verfahren billiger und lukrativer machen würde, welche eine Ersetzung des Öls als Energiequelle einleiten würden. Die behauptete Situation, dass der Kapitalismus ratlos und verzweifelt ohne Öl dastehen würde, wird also kaum eintreten.

Wenn wir nun noch einkalkulieren, dass mit der Weiterentwicklung der Kernenergie oder etwa der Nutzung der riesigen Vorräte an Methanhydrat enorme neue Energiequellen vorhanden sind, so erweist sich diese Endzeit-Hysterie des Club of Rome wie die seiner „grünen Schwestern im Geiste“ einfach nur als lächerlich.

Jeder, der mit dialektischem Denken einigermaßen vertraut ist, weiß, dass aktuelle „Trends“ und die Konstellation von Faktoren von anderen, aktuell vielleicht noch unbekannten Wirkungen beeinflusst werden (können), er weiß, dass Trends zugleich neue Faktoren erzeugen und alte verändern können. Jeder Dialektiker weiß, dass Trends sogar ins Gegenteil umschlagen können. Vor allem aber besagt die Dialektik, dass es in der Natur, in der Gesellschaft und im Denken keine Entwicklungen gibt, die nur auf „mechanischen“ Wirkungsbeziehungen beruhen. Profan ausgedrückt: Jede Sache kann nur in ihrer Entwicklung und in ihren Wechselbeziehungen verstanden werden.

Die Klimamodelle

Klima ist das durchschnittliche, „typische“ Wettergeschehen eines Gebietes über einen Zeitraum von mindestens 30 Jahren. Es wird von sehr vielen Faktoren beeinflusst, die in komplizierten Wechselbeziehungen stehen. Klima und Wetter tragen stark chaotischen und zyklischen Charakter.

Die Klimaforschung ist noch weit davon entfernt, genau und umfassend alle Klima-Faktoren zu kennen oder gar zu verstehen. So ist z.B. erst seit einigen Jahren bekannt, dass auch Partikelströme aus dem Weltraum, die nicht von unserer Sonne kommen, Wetter und Klima beeinflussen. Dieser, nach seinem Entdecker Svensmark bezeichnete, Effekt beeinflusst die Wolkenbildung. Noch ist sich die Wissenschaft aber unsicher, wie stark dieser Effekt wirkt. Dieses Beispiel – und es ließen sich hier viele andere nennen – zeigt, dass Behauptungen, man „wisse zu 95% genau“ über das Klimageschehen Bescheid und könne es für Jahrzehnte oder Jahrhunderte voraussagen, schlicht Unfug, wenn nicht bewusster Betrug sind.

Wir wissen aus der Modellierung anderer, wesentlich weniger dynamischer und komplexer Systeme als dem Klima, dass schon kleinste Ungenauigkeiten zu völlig unterschiedlichen, ja tw. gegensätzlichen Trends führen, also keine belastbaren Ergebnissen zulassen. Daher ist es nichts als Hochstapelei, zu behaupten, dass man dazu gerade beim Klima in der Lage sei.

Doch die Probleme sind nicht nur „allgemeiner“ Art. Ein konkreter Blick auf einzelne, wichtige Klimafaktoren offenbart sehr schnell, dass und warum Computer-Modelle nicht in der Lage sein können, deren Dynamik auch nur annähernd zu erfassen.

Wir wollen hier einige Beispiele anführen. Art und Ausmaß der Bewölkung sind von zentraler Bedeutung für Wetter und Klima – und speziell auch für die Temperatur in der unteren Atmosphäre. Die Klimaforschung ist heute mit Müh und Not in der Lage, die aktuelle Bewölkung einigermaßen zu erfassen. Für die weitere Klima-Vergangenheit ist das schier unmöglich. Die – hier entscheidende – Frage der Bewölkung in der Zukunft ist nicht annähernd so genau vorhersagbar, dass daraus irgendwelche Schlüsse gezogen werden könnten. Jeder Meteorologe weiß das.

Schätzungen und Beobachtungen der 1980er und 90er Jahre, als es insgesamt eine Erwärmungstendenz gab (oder gegeben haben soll), gehen davon aus, dass der Anteil „Blauen Himmels“, also wolkenfreier Bereiche, etwa 10% höher war als zuvor. M.a.W.: die Erwärmung war mit einer signifikant geringeren Bewölkung verbunden. Es stellt sich also zumindest die Frage, ob die Erwärmung dadurch stärker ausfiel – oder aber im Gegenteil vielleicht sogar schwächer? Klar ist nur, dass die Bewölkung ein wichtiger Faktor ist und dass ohne Kenntnis der genauen Wirkung der Wolken – mehr Erwärmungs- oder mehr Abkühlungswirkung – überhaupt keine gesicherten Aussagen über Ursachen und Ausmaß von Temperaturänderungen getroffen werden können. Und selbst im Lager des IPCC gibt es (auch) darüber keinen Konsens. Selbst dann, wenn man die Wolken-Wirkung genau kennen würde, benötigte man exakte Daten über das Ausmaß der Bewölkung – die aber gibt es eben nicht. Diese Situation ist umso absurder für eine Klima-Theorie, die ja davon ausgeht, dass durch Re-Emission von elektromagnetischer Strahlung durch die Wolken 2/3 des Treibhauseffektes erzeugt werden.

Ähnlich ist die Situation auch bei den Meeresströmungen, die in den Modellen keine oder nur eine geringe Rolle spielen. Die El Ninos, die von großer Bedeutung für das Klima v.a. der Nordhalbkugel sind (Erwärmungswirkung), und die La Ninas (Abkühlungswirkung) können weder bezüglich des Zeitpunktes noch der Intensität genau vorausgesagt werden.

Diese Beispiele zeigen allein schon, dass Klimamodelle, die solch evidente Faktoren nicht annähern genau darstellen können, niemals exakte Voraussagen treffen können.

Die Daten

Ein Hauptproblem der Klimamodelle (wie jeder Modellierung) ist die Qualität der zugrundeliegenden Daten. Das Klima ändert sich in und unterliegt großen zeitlichen Zyklen von hunderten, tausenden, zehntausenden oder Millionen Jahren. Das Problem ist, dass es für die wesentlichen, also langfristigen und lange zurückliegenden Klimazustände nur indirekte, sog. Proxydaten wie Sedimente, Eisbohrkerne usw. gibt, also Daten, die viel zu ungenau sind, um damit genaue Modelle erstellen zu können, die als argumentative Basis für „Klimapolitik“ diesen könnten. Andererseits liegen selbst direkte Daten, also gemessene Werte, nur für die kurzen Zeiträume der letzten Jahrzehnte vor, die keinesfalls ausreichend sind, um daraus grundsätzliche Aussagen zum Klimageschehen abzuleiten. So gibt es systematische Thermometer-Messungen erst etwa seit Ende des 18. Jahrhunderts, Satellitendaten erst seit Ende der 1970er und die einigermaßen umfängliche Datenerhebung durch Meeresbojen wurde noch später eingeführt.

Dazu kommt, dass noch heute das Netz der Klimadatenerfassung sehr löchrig ist, so dass für viele Gebiete der Erde fast gar keine direkten Daten oder nur sehr wenige existieren (Wüsten, Hochgebirge, Pole, Urwälder, Meere usw.) bzw. sehr großflächige „Mittelwerte“ gebildet werden müssen. Die Landstationen stehen überwiegend in Ballungszentren, wo der Wärmeinsel-Effekt für höhere Temperaturen sorgt.

In einer Veröffentlichung der United States Historical Climatology Network (USHCN), wurden die Abweichungen von 948 untersuchten der 1221 Messstationen in einer Studie veröffentlicht.

Das Ergebnis:

* nur 2% der Stationen haben die richtige Umgebung mit 100 m Abstand zu Wärmequellen;
* 8% stehen wie vorgeschrieben 30 m von einer Wärmequelle entfernt: Fehlerquote bis 1 Grad;
* 22% stehen nur 10 m von einer Wärmequelle entfernt, was Fehler von mehr als 1 Grad bewirkt;
* bei 61% war der Abstand sogar kleiner als 10 m, wodurch die Fehler größer als 2 Grad sind;
* 8% der Stationen stehen direkt neben einer Wärmequelle, was bis zu 5 Grad Abweichung bewirkt.

Die Beispiele mit Nachweisen der (bewusst) in Kauf genommenen Messungenauigkeiten sind fast unübersehbar. Es versteht sich von selbst, dass diese Fehlerbandbreite enorm ist angesichts des angenommenen globalen Temperaturanstiegs von nur ca. 1 Grad Celsius in ungefähr 150-200 Jahren. Daneben müsste noch beachtet werden, dass durch die Einführung digitaler Messtechnik Ende der 1990er die Messergebnisse sich änderten, d.h. etwas wärmer ausfielen.

Ein Hauptproblem aller Modelle ist die falsche und willkürliche, weil nicht durch Fakten untermauerte Gewichtung verschiedener Klimafaktoren. Während dem CO2 eine überragende Rolle zugestanden wird, werden andere Faktoren (Sonne, Wasserhaushalt, Meeresströmungen, Bewölkung) systematisch unterbewertet oder gar ignoriert (z.T., weil sie eben nicht gemessen, tw. noch nicht einmal geschätzt werden können).

Klimamodelle (wie alle Modelle) hängen wesentlich davon ab, wie es um die Datengrundlage bestellt ist und welche Algorithmen zugrunde liegen. Wie es um die Datenbasis bestellt ist, haben wir beschrieben. Bei den Algorithmen sieht es noch schlimmer aus. Im Grunde beruhen alle Modelle (wie die gesamte Theorie) auf zwei Annahmen: auf der Erwärmungswirkung von CO2 und auf der sog. Wasserdampfrückkopplung. Als Heizwirkung von CO2 wird allgemein angenommen, dass diese etwa 1 Grad Celsius bei Verdopplung des CO2-Levels in der Atmosphäre beträgt (sog. Klimasensitivität). Kritiker setzen sie eher etwas niedriger an. Das CO2 allein würde also nicht zu einer Klimakatastrophe führen, sondern nur zu einer sehr mäßigen (und aufgrund physikalischer Gesetze zudem auch nicht endlos linear weiterführbaren) Erwärmung.

Der entscheidende Faktor in den Modellen ist tatsächlich die Wasserdampfrückkopplung. Sie soll die Wirkung des CO2 doppelt oder sogar dreifach verstärken. Nur dadurch ergibt sich überhaupt eine bedrohliche Erwärmung von 4, 6 oder noch mehr Grad. Dieser Effekt ist jedoch weder theoretisch noch empirisch belegt und daher nichts weiter als eine Annahme, die aber von den Alarmisten trotzdem wie eine Monstranz vor sich hergetragen wird. Die mangelnde Beweisführung ergibt sich schon aus der Tatsache, dass es bisher überhaupt keine genaue quantitative Erfassung des Wassergehaltes in der Atmosphäre, des Wasserkreislaufs und der Bewölkung gibt, wodurch die Wasserdampfrückkopplung und ihre Veränderung natürlich gar nicht genau bestimmt werden kann. Erst in den letzten Jahren hat sich der Erkenntnisstand hierzu verbessert. Es gab inzwischen auch mehrere Forschungsprojekte zur Wasserdampfrückkopplung. Haben diese nun die Theorie bestätigt? Nein, im Gegenteil!

Wenn in den Simulationen der CO2-Effekt geringer angenommen und die verstärkende Wolkenrückkopplung wegfallen würden, so ist klar, dass die Klimaprognosen gar keine besorgniserregende Erwärmungstendenz zeigen könnten.

Auch andere – vergangene und aktuelle – Klimaphänomene, die gemäß der Theorie und der Modelle des IPCC feststellbar sein müssten, sind in der Realität nicht vorhanden, so z.B. vorausgesagte Temperaturtrends in bestimmten Atmosphärenschichten oder der hot spot über den Tropen. Auch die sehr warme Phase der Mittelalterlichen Warmzeit (MWZ), die noch im bekannten Hockeystick-Diagramm von M. Mann geleugnet wurde, ist inzwischen durch viele Studien als globales Phänomen bestätigt. Sogar im letzten IPCC-Bericht AR 5 wird eingeräumt, dass die gängigen Klimamodelle die heute empirisch gut belegte MWZ u.a. Klima-Phänomene nicht reproduzieren können.

Wenn wir uns die Frage stellen, warum trotz der großen Probleme an der zentralen Bedeutung der Modellierung festgehalten wird, dann ist die Antwort darauf so kurz wie einfach: die Theorie von  der anthropogen bewirkten Klimakatastrophe deckt sich überhaupt nicht mir den realen Daten und klimatischen Vorgängen, v.a. der Klimageschichte. So bleiben als „Beweis“ nur die Behauptungen und Projektionen der Modelle. Was die Realität nicht liefert, findet man im Orakel.

Lug und Trug

Es erscheinen fast im Monatstakt wissenschaftliche Studien, die zeigen, wie fragwürdig viele Daten und Modellierungen sind. Selbst das IPCC hat zuletzt immer wieder eingeräumt, dass die Modelle nicht stimmen. Im 4. IPCC-Bericht, Abschnitt WG1 8.6 geht es um Antriebe, Rückkopplungen und Klimasensitivität. Es heißt dort in Abschnitt 8.6.4. u.a.: „Außerdem ist noch nicht klar, welche Tests kritisch sind hinsichtlich der Zukunfts-Projektionen, konsequenterweise mit einem Satz von Modellmetrik, der herangezogen werden könnte, um die Bandbreite plausibler Klimawandel-Rückkopplungen und der Klimasensitivität einzuengen. Ein solcher Satz muss noch entwickelt werden“.

All diese Ungenauigkeiten und Schätzungen werden von Politik und Medien sowie einem – dem „offiziellen“ – Teil der Wissenschaft als „seriöse“ Beweise ausgegeben. Die innerwissenschaftliche Diskussion, die immer mehr zunimmt, wird ignoriert.

Es gibt inzwischen viele Erklärungen und Umfragen, die klar zeigen, dass ein erheblicher Teil der relevanten Fachwissenschaften die Theorien, Voraussagen und Modelle des IPCC ablehnen oder sehr kritisch sehen. So z.B. die Oregon-Petition aus den USA (Link), mit der sich weit über 30.000 WissenschaftlerInnen (keine Bevölkerungsumfrage) gegen das Kyoto-Protokoll und den Klimaalarmismus gewandt haben. In der „Leipzig Proklamation“ von 1995 kritisieren ca. 100 der wichtigsten Klimaforscher, die vom IPCC veröffentlichten Papiere als unrealistisch und unwissenschaftlich (Link), darunter der Thermodynamiker Peter Dietze, der die Modelle des IPCC per Rechnung als falsch und übertrieben entlarvt. (Link).

Auch eine ganze Reihe von Nobelpreisträgern in Physik o.a. Naturwissenschaften haben in z.T. scharfen Worten die IPCC-Wissenschaft abgelehnt. All diese Zeugnisse von Kritik und wissenschaftlicher Debatte werden totgeschwiegen. Stattdessen wird von einem 97%-Konsens in der Klimawissenschaft fabuliert, den es nicht gibt (und selbst wenn es ihn gäbe, wäre er kein Beweis).

Einige weitere Beispiele sollen die Kritik an der Modell-Gläubigkeit illustrieren.

Todd Lane, Präsident der australischen Meteorologischen und Ozeanographischen Gesellschaft, äußerte sich so: „Die Klimaforschung ist nicht beendet. Die meiste Ungewissheit in den Klimaprojektionen gibt es wegen der Ungewissheit über die Art und Weise, um physikalische Prozesse in Klimamodellen darzustellen.“

Spiegel Online (SPON) brachte ein Interview ein Interview mit Eduardo Zorita vom Helmholtz-Zentrum in Geesthacht, dem Co-Autor einer Studie:

„Zorita: Unsere Studie aber zeigt, dass die Klimamodelle Probleme haben, Veränderungen des Niederschlags zu berechnen.

SPON: Das würde den Kern der Klimaprognosen treffen, denn die wichtigsten Prognosen handeln ja von Veränderungen des Niederschlags. Was ist von den Warnungen vor mehr Dürre zu halten?

Zorita: Diese Prognosen sind wenig vertrauenswürdig. Unsere Arbeit zeigt, dass die Ergebnisse der Klimamodelle deutlich abweichen von den Klimadaten zum Niederschlag.“ (zitiert aus dem blog kaltesonne, 14.4.16).

Die ZAMG, Zentralanstalt für Meteorologie und Geodynamik, schreibt auf ihrer Seite: „Wenn der Anteil der einzelnen Klimaantriebe an der Entwicklung der globalen Temperatur von den Klimamodellen falsch eingeschätzt würde (…), wären Zukunftssimulationen verfälscht. Darüber hinaus sind andere Klimaantriebe als der anthropogene in Zukunftsszenarien gar nicht berücksichtigt – sie lassen sich nicht vorhersagen.“

Der Physik-Nobelpreisträger Richard Feynman sagt: Stimmt eine Theorie nicht mit Daten oder Experimenten überein, dann „ist sie falsch! In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft. Es ist völlig belanglos, wie schön die Hypothese ist; (…) Falls ein Experiment Ihrer Hypothese widerspricht, ist sie falsch! Punkt!“ Auch Einstein meinte einst: „Ein Modell oder eine Hypothese kann gar nichts ,beweisen‘. Aber Daten können eine Hypothese oder ein Modell ungültig machen. Es bedarf nur eines einzigen Experimentes, um zu zeigen, dass ich falsch liege“.

Untersuchungen von über 100 Klimamodellen zeigen, dass über 90% davon deutlich von der realen Entwicklung abweichen und eine viel zu starke Erwärmung zeigen. V.a. der Stillstand der weiteren Erwärmung seit etwa 2000 (die auch vom IPCC inzwischen zugeben wird) kommt in den Modellen nicht vor. Dass dieses (vorläufige) Ende der Erwärmung trotz des seit 2000 besonders stark gestiegenen CO2-Ausstoßes stattfand, verweist zudem darauf, dass die offizielle Annahme einer CO2-getriebenen Erwärmung – mindestens in der Form, wie sie aktuell vertreten wird – offenbar falsch ist.

Fazit

Wir haben versucht zu zeigen, dass Klima-Modelle aus verschiedenen Gründen nicht in der Lage sind, die Klimaentwicklung der Zukunft, ja noch nicht einmal der Vergangenheit, darzustellen. Es gelingt oft genug nicht einmal, einzelne Phänomene genau zu modellieren, trotzdem behaupten die Klima-Alarmisten, dass nicht nur das „globale Klima“ (das real nicht existiert und eine reine Abstraktion ist), sondern sogar dessen künftige Entwicklung bezüglich wesentlicher Parameter (globale Durchschnittstemperatur) vorausgesagt werden könne.

Selbst das immer offenkundigere Auseinanderdriften von Modellen und Klimarealität wird nicht zum Anlass genommen, den Hype um die Modellierung in Frage zu stellen. Immerhin räumt das IPCC immer offener und immer öfter ein, dass die Zuverlässigkeit und Aussagekraft der Modelle – gelinde gesagt – geringer ist, als man früher dachte. So werden die bedrohlichen Temperatur-Szenarien auch immer weiter nach unten korrigiert. Wenn das so weitergeht, wird selbst das IPCC letztlich bei jenen Positionen landen, welche die bösen „Klimakritiker“ schon immer vertreten haben.

Kritik an der Klima-Modellierung heißt jedoch nicht, dass diese grundsätzlich abgelehnt werden soll. Ohne Frage ist die Modellierung ein wissenschaftliches Verfahren, das legitim und nützlich ist und neue Möglichkeiten eröffnet. Es geht vielmehr darum, dass auch die besten Modelle nur so gut sein können, wie die Daten und die Algorithmen, auf denen sie beruhen. Auch das beste Modell wird nur fehlerhaft sein können, wenn die zugrundeliegende Wissenschaft von falschen Prämissen ausgeht.

Es geht also nicht etwa darum, wie genau die Klimamodelle sind oder ob sie weiter verbessert werden können, was sicher möglich ist. Es geht darum, dass sie grundsätzlich nicht in der Lage sind, ein derart komplexes und tw. chaotisches System wie das Klima überhaupt darzustellen.

Paradigmenwechsel

Doch die Fokussierung auf die Klimamodellierung offenbart auch einen methodischen Bruch in der Klimawissenschaft. Der Klimaforscher und „Klimakritiker“ Prof. Dr. Karl-Otto Weiß beschreibt den vom IPCC massiv betriebenen Paradigmenwechsel in der Klimawissenschaft wie folgt:

„Historisch stellte sich die Haupttätigkeit der Klimatologie als möglichst breite Sammlung von weltweiten Klimadaten dar. Die Wissenschaft blieb dabei aber weitgehend deskriptiv, zum Ziel einer Vorhersage auf der Basis verlässlicher historischer Messungen und Daten gab es kaum Fortschritte.

Mit dem Aufkommen der Informationstechnik löste sich die Arbeit mehr und mehr von realen Messungen. Es bildete sich die Vorstellung, mittels großer Rechenleistung ließe sich die Gesamtheit der Klimavorgänge abbilden, und das Klima sich sozusagen „ab initio“ berechnen und voraussagen (lasse), auch ohne Bezug zu Messdaten. Diese Vorstellung gewann in naiver Fehleinschätzung von Computerleistungen viele Anhänger, so dass die Untersuchung von historischen Klimadaten verdrängt wurde.

Warnen hätte sollen das historische Beispiel von Laplace. Dieser vertrat ja die Vorstellung, das gesamte Universum lasse sich, zumindest prinzipiell, mittels ausreichend hoher Rechenleistung in seiner gesamten Entwicklung berechnen (die Einsicht „chaotischen“, d.h. zufallsgesteuerten, Verhaltens vieler Systeme widerlegte ihn dann bekanntlich). Auch die ähnlichen Modellrechnungen des Club of Rome, die sich als kompletter Reinfall erwiesen, hätten nachdenklich stimmen sollen.

In der Folge wurde und wird der aussichtslose Versuch unternommen, durch immer größere Systeme von Differentialgleichungen das gesamte Klimageschehen von Atmosphäre, Ozeanen und Kontinenten zu simulieren. Die Ergebnisse der Versuche werden mit Hilfe einflussreicher Gruppen (…) als zuverlässige Voraussage verkauft, aus geopolitischen Gründen mit ihr zerstörerische planwirtschaftliche (besser: staatskapitalistische, d.A.) Maßnahmen begründet, und die Öffentlichkeit auf den Transfer von (… ) Milliarden Euro zu diesen Gruppen eingestimmt.

Das Grundparadigma dieser Versuche ist die Vorstellung eines an sich konstanten Weltklimas, welches nur durch Zufallsereignisse, etwa Vulkanismus oder eben menschliche CO2-Emission „gestört“ wird. In Wirklichkeit hat das Klimasystem Eigendynamik, bewirkt durch den Energieeintrag seitens der Sonne.

Dies Paradigma wird offiziell vom IPCC als Tatsache verkündet: „Alle natürlichen Einflüsse sind kleine Störungen, die gegen den menschlichen Einfluss vernachlässigbar sind.“

Die Misserfolge dieser Aktivitäten offenbaren sich täglich in immer neuen Befunden, dass die Modellrechnungen in keiner Weise mit den Messungen übereinstimmen oder je übereingestimmt haben.

Als Physiker stockt einem der Atem ob dieses aberwitzigen Vorhabens und der Naivität, das ganze Klimageschehen der Welt in allen Einzelheiten modellieren zu wollen. Man weiß doch, dass nur Modelle von bis zu 3, 4 partiellen Differentialgleichungen vernünftiges mathematisches Verhalten zeigen. Darüber hinaus sind sie gewöhnlich „chaotisch“, d.h. bei jedem Wiederholen der Rechnung bekommt man ein anderes Ergebnis. Wie sollen dann wohl Klimamodelle mit vielen tausend gekoppelten Differentialgleichungen verlässliche Ergebnisse liefern?“ (Website des Europäischen Instituts für Klima und Energie, EIKE, Ein Nachruf auf Hubert Lamb, 17.2.14).

Dieser Paradigmenwechsel ist auch Ausdruck eines „neuen“ bürgerlichen Wissenschaftsverständnisses. Für diese Wissenschaftsauffassung ist nicht mehr die Wechselwirkung von theoretischer Beweisführung, Experimenten und empirischen Daten bestimmend für den wissenschaftlichen Wahrheitsgehalt. Viel wichtiger – und das wird auch immer wieder so argumentiert – sind andere Faktoren: der Grad der Verbreitung bzw. der Akzeptanz von Auffassungen in der Wissenschaft und in der Gesellschaft sowie die „soziale Relevanz“. Diese Auffassung von Wissenschaft degradiert sie tendenziell dazu, sich bestimmten Interessengruppen anzudienen und Ideologien unterzuordnen – umso mehr, als die Wissenschaft bzw. die Wissenschaftler sich immer intensiver um die Finanzierung kümmern müssen. Und wir wissen ja: Wess´ Brot ich ess´, dess´ Lied ich sing. Dieser Vorwurf wird aber immer nur den „Klimakritikern“  gemacht, hinter denen das Kapital stünde. Die um ein Vielfaches größeren Mittel der IPCC-treuen Klima-Alarmisten, die vom imperialistischen Staat (!) oder direkt von bestimmten Teilen des Kapitals kommen, bleiben dabei außerhalb der Betrachtung.

Wie die gesamte Entwicklung der Klimawissenschaft ungefähr im letzten halben Jahrhundert zeigt, waren es eben nicht primär inner-wissenschaftliche Entwicklungen, welche zum aktuellen, auf Treibhaustheorie und Modellierungs-Fetischismus beruhenden Klima-Katastrophismus führten, sondern ganz handfeste Interessen von Teilen der bürgerlichen Politik und des Kapitals, die sich für die Umsetzung ihrer ideologischen, politischen und wirtschaftlichen Interessen bestimmter Auffassungen in der Klimawissenschaft bedienten und massiv versuchten, die Wissenschaft in ihrem Sinne zu beeinflussen. Daneben gab es auch wichtige Veränderungen in der Welt (Zusammenbruch des Ostblocks), im Klassenkampf und in der Linken, die zu deren spezifischer Hinwendung zum Umwelt- und Klimakatastrophismus führten.

Wie sich diese Entwicklungen genau vollzogen und warum die grüne Bewegung wie die Linke sich dabei zu nützlichen Idioten bestimmter bürgerlicher Kräfte machten und machen und das mit vermeintlich anti-systemischen, anti-Industrie oder anti-kapitalistischen Ambitionen verbinden, wird in späteren Beiträgen genauer dargestellt werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert