Die Gletscher lügen nicht

30. Januar 2010 | Von | Kategorie: Blog

Im Januar 2010 wurde bekannt, dass sich der Weltklimarat der UN (IPCC) im Bezug auf das Abschmelzen der Himalaya-Gletscher geirrt hat. Die Prognose zum Abschmelzen der Himalaya-Gletscher basiert auf einem Zahlendreher. Man hatte offensichtlich die Jahreszahl 2350 mit der Jahreszahl 2035 verwechselt und ungeprüft Daten im IPCC-Bericht von 2007 übernommen. Der Klimaberater der Kanzlerin Prof. H. J. Schellnhuber hat offensichtlich auch falsch gerechnet und der Öffentlichkeit “wissentlich” falsche Zahlen präsentiert. (Siehe Berichterstattung). Am 30.10.2009 verkündete er in der ZDF-Sendung “Die lange Nacht des Klimas”, dass die Himalaya-Gletscher in 30 bis 40 Jahren zum größten Teil verschwunden sein könnten. Damit ist allerdings vor 2350 nicht zu rechnen.

Gegen den Trend der globalen Erwärmung wachsen weltweit einige Gletscher

Es klingt zunächst paradox, aber global sind nicht alle Gletscher auf dem Rückzug, sondern einige auch am Vorstoßen.

Schon immer zog sich durch die Klimageschichte von Warm- und Kaltzeiten eine ausgeprägte Gletscherdynamik. Die Dynamik der Gletscher ist von vielen unterschiedlichen Faktoren abhängig, wie z.B. Temperatur, Höhenlage/ Hanglage, Luftfeuchtigkeit/ Niederschläge, Pressdruck, etc.. Ein höchst komplexes System. Selbst lokal sind deutliche Unterschiede zu verzeichnen.

Aus diesem Grund sind Gletscher als globale Klimaindikatoren, speziell für den Nachweis einer vom Menschen gemachten Klimaerwärmung eher ungeeignet. Das zeigen auch die folgenden Beispiele von wachsenden Gletschern auf.

So wachsen in Neuseeland z.B. der Fox- und Franz-Josef-Gletscher, seit Jahrzehnten. Verantwortlich dafür sind vor allem die Niederschläge. Auch der Perito Moreno Gletscher in Patagonien profitiert von den Niederschlägen und ist am wachsen. Selbes gilt für einige Gletscher in Skandinavien und Norwegen. Selbst der Mont-Blanc-Gletscher in den Alpen ist am wachsen. Zuletzt wurde für die Tauerngletscher in den Alpen eine Jahresbilanz 2009 erstellt, die sehr wahrscheinlich positiv ausfallen wird. Verantwortlich dafür werden das kalte Frühjahr 2009 und die reichlichen Niederschläge gemacht.

Auch einige Gletscher in Alaska, Kanada, in Nordkalifornien, im Himalaya und in Pakistan wachsen aufgrund steigender Niederschläge. Das alles hätte Herr Schellnhuber wissen müssen, zumal es Peer-Review-Veröffentlichungen in der Fachliteratur dazu gibt.

Selbst das Abschmelzen zwei der größten Gletscher Grönlands hat sich verlangsamt. Am Kangerdlugssuaq-Gletscher kam 2006 das Abschmelzen zu einem Stillstand. Die Ausdünnung ging gegen Null. Ausdickungen an der Gletscherbasis wurden festgestellt. Eine wichtige Erkenntnis um Rückschlüsse über den zukünftigen Meeresspiegelanstieg zu gewinnen. Herr Schellnhuber geht hingegen von einem drastischen Meeresspiegelanstieg, aufgrund eines beschleunigten Abschmelzens der Grönlandgletscher, aus.

Wohlwissend, dass sich das Abschmelzen der Gletscher in Grönland und in der Westantarktis schwer kalkulieren lässt, verzichtet das IPCC, im Gegensatz zu Herrn Schellnhuber, auf eigene Prognosen

Die Meeresspiegel steigen – nur wie schnell? 18 bis 59 Zentimeter bis zum Ende des Jahrhunderts, schätzte der Weltklimarat IPCC im Jahr 2007. Im Jahr 2001 waren es noch neun bis 88 Zentimeter. Der Knackpunkt: In den Klimamodellen zum Meeresspiegelanstieg wird nicht die Eisdynamik der polaren Gebiete berücksichtigt, zu unvorhersehbar erscheint diese dem IPCC. “Wir müssen uns auf einen Anstieg des Meeresspiegels um einen Meter noch in diesem Jahrhundert einstellen”, verkündet Prof. Schellnhuber, aufgrund neuerer Erkenntnisse. Dabei verweist er auf eine deutlich beschleunigte Schmelze von Grönlandeis und Gletschereis. Dieses geht zumindest aus den von ihm zitierten Klimamodellen hervor. Andere Modelle widersprechen diesen Prognosen und verkünden genau das Gegenteil, nämlich eine Stabilisierung der Glönland-Getscher, z.B. des Helheim-Gletschers. Die Realität zeigt: der Kangerdlugssuaq-Gletscher in Grönland hält sich seit 2006 nicht an die Modellrechnungen “von” Herrn Schellnhuber. Der Anstieg des Meeresspiegels könnte sich mit einer Stabilisierung der Grönland-Gletscher sogar verlangsamen und verringern. Auf einen beschleunigten Meeresspiegelanstieg deutet bisher jedenfalls nichts hin. In Dubai werden den Prognosen von Herrn Schellnhuber zum Trotz gar Palmeninseln ins Meer gebaut und viele Prominente besitzen Immobilien auf diesen Inseln. Den Prognosen von Herrn Schellnhuber wird dort also wenig Glauben geschenkt.

Die Klimageschichte der Alpengletscher

Die Alpengletscher wachsen und weichen und das schon seit Jahrtausenden. Aus Gletscherfunden in den Alpen lässt sich auf das lokale Alpen-Klima schließen. Von besonderer Bedeutung für die Klimarekonstruktion sind unter anderem Funde von Hölzern und Torfstücken aus Gletschervorfeldern der Alpen. Die Datierung dieser Funde zeigt, dass während der letzten 10.000 Jahre die Gletscher über mehr als die Hälfte dieser Zeit deutlicher kleiner waren als heute (Hormes et al., 2001; Schlüchter & Jörin, 2004). Dieser Befund scheint gerade im Zusammenhang mit der Entwicklung der heutigen Gletscher eine wichtige Erkenntnis zu sein.

Noch vor 5.000 bis 8.000 Jahren lag die Waldgrenze in den Alpen rund 200 bis 300 Meter über dem jetzigen Niveau. Die Gletscher hatten sich gar stärker zurückgezogen als heute, und die nördliche Sahara war grün. Dann setzte eine langsame Abkühlung ein, wie eine publizierte Übersichtsstudie von Berner Klimatologen zeigt.

Durch das Mittel- und Jung-(Spät)-Holozän – die letzten Warmzeit – zieht sich eine ausgeprägte Gletscherdynamik mit Phasen des Wachstums und des Rückgangs. Warmzeiten, in denen Pflanzen gewachsen sind, wo bis heute Gletscher sind, finden sich z.B. in den Alpen vor ca. 1.200 Jahren (Mittelalterliches Optimum), vor ca. 2.000 Jahren (Optimum der Römerzeit) und vor ca. 4.000-5.000 und 7.000 Jahren (2. und 1. Optimum des Holozän). (Holzhauser et al. 2005).

Die Katastrophenszenarien der “Klima-Apokalyptiker” halten einer wissenschaftlichen Überprüfung nicht stand: Zum einen wird immer wieder behauptet, dass die Temperatur auf den höchsten Stand seit langem gestiegen ist. Und zum anderen ist immer wieder zu hören, dass die momentane Erwärmung schneller vor sich geht denn jemals zuvor. Beides ist falsch, wie die Alpengletscher zeigen.

Wissenschaftler haben anhand von Gletscher- und Waldgrenzenschwankungen, durch Jahresring-Analyse von Holzresten und mit Hilfe von Pollenanalysen, die Klimageschichte der Alpen der letzten 10.000, bzw. 16.000 Jahre rekonstruiert. Es zeigte sich: Temperaturschwankungen um 1,5 bis zwei Grad innerhalb einiger Jahrzehnte waren in den letzten Jahrtausenden völlig normal.

Alpenklima nach Nicolussi & Patzelt 2006

Nicolussi & Patzelt 2006

Alpenklima nach Bortenschlager aus Kral 1979

Die Legende von Ötzi als Beleg für das heutige, warme Klima

Von “Klima-Apokalyptikern” wird gerne der Ötzi-Fund als Beleg für das einzigartig, warme heutige Klima herangezogen. Dieser Vergleich hinkt allerdings:

Ötzi hat vor etwa 5.300 Jahren gelebt, im 2. Klimaoptimum des Holozän. Diese Warmzeit ist auf der Nordhalbkugel (Alpen) und der Südhalbkugel (Anden) durch Pflanzenfunde unter den Gletschern gut belegt. Zu dieser Zeit war die Sahara noch eine Savanne in der Ackerbau betrieben wurde. Die Wüstenbildung setzte am Ende des Klimaoptimums ein und ist bis heute fortschreitend. In der heutigen Warmzeit könnte die Sahara nach den Aussagen der Klimawissenschaftler aber wieder feuchter und grün werden, wie zu Zeiten des Holozän-Optimums.

Im März 1991 hatten Stürme feinsten ockerfarbenen Sand aus der Sahara bis in die Alpen geweht, welcher sich im Mai auf dem Similaun Gletscher ablagerte. Unter der Sommersonne schmolzen die mit diesem höchst wirksamen Lösungsmittel bestäubten Gletscher nur so dahin, mit bis zu 10 cm pro Tag. Allein in Tirol gab das vermeintlich ewige Eis ein halbes Dutzend Leichen frei, Ötzi als sechste am 19. Sep. 1991. Der Saharastaub einhergehend mit der starken Sonneneinstrahlung war der Grund dafür, dass Ötzi freigelegt wurde und nicht die “außergewöhnliche” Wärme. Der Similaun Gletscher unterhalb der Ötzifundstelle ist heute noch vorhanden, somit kann der Ötzi-Fund nicht als Beleg für ein einzigartig, warmes heutiges Klima heran gezogen werden.

Zuerst erschienen bei Readers Edition

Ähnliche Beiträge (Automatisch generiert):

Print Friendly

9 Kommentare
Hinterlasse einen Kommentar »

  1. Auch dieser Videoausschnitt von Joachim Bublath aus bereits dem Jahre 2003
    belegt die unbegründete Gletscherschmelze-Hysterie:

  2. Auch dieser Videoausschnitt von Joachim Bublath aus bereits dem Jahre 2003
    belegt die unbegründete Gletscherschmelze-Hysterie:

  3. Es ist schon erstaunlich, mit welcher Hartnaeckigkeit hier Modelle vor Beobachtung gehen.

  4. Lieber Herr Krüger,
    sehr informativer Artikel. Danke schön.
    Ich empfinde das als sehr typisch. Die Klimaforschung schaut ja mit ihren Computern auch nur mit einem sehr groben Raster auf das geschichtliche Erdklima. Mit den Modellen kann man eben auch für die Vergangenheit nur Projektionen machen. Dass die Warmzeit nicht existiert ist eben auch nur eine Projektion für ein mögliches Erdklima soweit es die Computermodelle betrifft.
    Wenn dann wirkliche spezialisierte Naturwissenschaftler lokal die Gegebenheiten untersuchen kommen sie zu anderen Ergebnissen. Die empirischen Ergebnisse vieler Spezialisten zusammengesetzt wird wissenschaftlich entscheiden, ob es eine globale Warmzeit gab oder nicht. Computermodelle können das nicht.
    Man sollte ebenfalls nicht vergessen, dass es zu einer auf eine Zahl reduzierte globale Mitteltemperatur nicht nur eine einzige Projektion gibt. Viele Projektionen können die gleiche globale Mitteltemperatur aufweisen, aber lokal eine andere Temperaturverteilung, Wolkenbedeckung und Niederschlagsverteilung zeigen. Insofern könnte es im MWP ja im globalen Mittel durchaus kälter gewesen sein, aber es könnte ein anderes Klima geherrscht haben. Schließlich wird das Klima ja nicht nur durch einen einzigen Faktor bestimmt, auch wenn die Klimapolitiker uns das immer einreden.
    Insofern ist die Frage globale oder lokale mittelalterliche Warmzeit oder Römerzeit oder Bronzezeit sicherlich offen.
    Meine Beobachtung ist, dass der lokale Anstieg von etwa 1.5°C in Deutschland unser Wetter nicht so dramatisch beeinflusst hat, als dass wir uns in Deutschland Sorgen machen müssten, wir würden nicht auch mit 2 -3°C fertig werden. Das ist für unser Land ja schon mal beruhigend.
    Für die restliche Welt scheint die Temperaturerhöhung der globalen Mitteltemperatur um 0.8°C auch keinen besonders großen Einfluss zu haben, sonst müsste das IPCC nicht Berichte von Greenpeace und dem WWF benutzen um Schwarz zu malen, sondern könnte direkte Auswirkungen zeigen und statistisch und physikalisch signifikant nachweisen. Allerdings sind Dürren, Stürme, Starkregen, Schneechaos und Überflutungen eben nachwievor in der Bandbreite der natürlichen Variation.
    Wenn ich mir das Winterwetter und das „Schneechaos“ in Deutschland so anschaue, dann frage ich mich allerdings, ob viele Gemeinden aufgrund der Kassenlage und der Klimawandeldiskussion nicht ihre Investitionen in Winterdienste zurückgefahren haben.
    Mit freundlichen Grüßen
    Günter Heß

  5. Studentenarbeit als IPCC-QuelleStudentenarbeit als IPCC-Quelle

    Der IPCC-Klopper des Tages betrifft heute den Rückzug des Eises in den Anden, den Alpen und afrikanischen Bergregionen. Eine der Quellen für die Passage war ein Bericht in einem Bergsteigermagazin mit rein anekdotischen Beobachtungen, eine andere eine Examensarbeit eines Geographie-Studenten an der Universität Bern, der für seine Arbeit Bergführer befragte. Sie genügen aber mit Sicherheit nicht als Basis für ein weltweit so einflussreiches Papier wie den IPCC-Bericht (und schon gar nicht für den von dieser Organisation für sich in Anspruch genommenen hohen Standard). Empirische Wissenschaft sieht anders aus. So verdichten sich die anekdotischen Beobachtungen, dass wesentliche Teile des IPCC-Berichtes das Papier nicht wert sind, auf dem sie gedruckt wurden.

  6. Allmählich zerschellen die Daten und die Art und Weise, wie sie erhoben, verarbeitet, ausgewertet und aus Ihnen Schlußfolgerungen abgeleitet wurden, an der eigentlichen Grundlage der Wissenschaft: der Beobachtung -- wie hier am Turnover der Gletscher, gleichgültig ob im Himalaya, den Anden oder Alpen.

    Wenn wir einmal -- unvoreingenommen und bar einer differenzierten physikalischen Realität -- davon ausgehen, daß eine globale Durchschnittstemperatur eine im Überblick brauchbare Hilfsgröße zur Beurteilung des historischen Temperaturverlaufs, und im 30-jähriger Glättung (per definitionem) einer Klimaveränderung darstellt, so kann diese doch nur gültig sein im Falle a) einem ausreichend engem Raster der Erde mit lückenlosen Temperaturmessungen vorliegt, b) einer annähernden Normalverteilung der Werte (ansonsten können wir uns „Mittelwerte“ an die Backe schmieren).
    Weder a) noch b) sind erfüllt: a) auf Grund der technischen Unerfüllbarkeit bei den terrestrischen Temperaturmessung und b) weil ein Thermometer auf 2000 m Höhe einer anderen Grundgesamtheit angehört als ein auf NN. Interpolationen sind selbstredend nicht zulässig.

    Sehen wir einmal von diesen Voraussetzungen ab und begnügen uns mit dem vorliegenden Pfusch als Grundlage.
    Dann sollten mit der Zeit immer mehr und zuverlässige Meßstellen zur Verfügung stehen, die sich dem Rasterideal annähern. Wie jedoch wurde verfahren? Die Zahl der Meßstellen verringerte sich, und sie verringerte sich selektiv auf Kosten der „kälteren“ Meßstellen (zu beobachten hier -- man beobachte die geographische „Nivellierung“.
    Damit ist eine selektive Auswahl zu Gunsten von Wärmeinselnseln, wie sie a. a. O. bemängelt wurde noch nicht einmal berücksichtigt.
    Letztlich gab Hansen (oder war’s Jones? -- ist eh wurst, sowieso die gleiche Spezies) zu, daß nur ca. 10…20 % der Erdoberfläche in die Daten Eingang finden! Und dann auch noch selektiv (siehe o. g. Video)!

    Daraus folgt, daß die Datenbasis einen statistischen Hintertreppenwitz darstellt und leider -- trotz der enormen Kosten und der offenbaren Unmöglichkeit einer „Heiliung“ -- auf den Müll gehört. Als Konsequenz für die Playstation-Klimatologie gehören die Modelle und ihre Ergebnisse ebendorthin, weil: Garbadge in -- garbadge out.

    Oder bin ich einem Irrtum aufgesessen?

    Allmählich gehörte es sich, daß die steuergeldfinanzierten Quellcodes der Modellierungsprogramme offengelegt werden. Eine Ausrede, daß alle anderen zu blöd seien sie zu verstehen, gilt nicht.
    Allerdings, sowohl eine Verweigerung als auch eine Veröffentlichung liefen sicherlich -- wetten wir! -- aufs gleiche hinaus: ein „Modellgate“

  7. Lieber Theobald Tiger,

    Daraus folgt, daß die Datenbasis einen statistischen Hintertreppenwitz darstellt und leider – trotz der enormen Kosten und der offenbaren Unmöglichkeit einer “Heiliung” – auf den Müll gehört.

    Eben wollte ich dazu auch meinen Senf dazu geben, so bleibt mir nur, den Cursor Home zu setzen und nochmal von vorn -- denn der Inhalt entsprach zu sehr dem ihren.
    Zwei Gedanken noch zur Vertiefung:
    1. Jede Region der Erde hat auf Grund vielfältiger Faktoren sein eigenes, lokales, aber nicht mal zeitlich konstantes Klima. Jede Messung ist somit eine Momentaufnahme, viele davon ein Muster einer weitgehend zufälligen Verteilung in nicht einmal genau bekannten Grenzen.
    Welchen Wert hat der Mittelwert eines Rauschens?
    Dazu kommt noch, dass der Begriff Temperatur zwar physikalisch genau definiert ist, in Verbindung mit der Messung in offenen Systemen aber sofort bestimmte Messbedingungen erforderlich sind, um nicht ständig Äpfel mit Birnen zu vergleichen. Genau dies wird aber getan.
    Die Meteorologie rechnet z.B. mit Lufttemperaturen, üblicherweise in 2m Höhe in einer genau definierten Messumgebung.
    Diese Werte geben aber genau nur den Zustand dieser Luftschicht an. Allein auf die Bodentemperatur zu schließen ist daraus bereits unmöglich. Für Wetter-Modellrechnungen mag die Annahme von auf Meereshöhe reduzierte Daten praktisch sein- aber versuchen sie mal, mit solchen Daten dann die tatsächlichen örtlichen Klimabedingungen am Boden zu rekonstruieren…
    2. Die globalen Strömungsmuster sind über die Dekaden derart unterschiedlich, dass sich für eine bestimmte Globaltemperatur die unterschiedlichsten Temperaturverteilungen -- von Eiszeit bis Wüste- annehmen lassen. Vorhersage? Fehlanzeige. Selbst wenn die Temperaturdaten korrekt wären und wenn sie homogen wären und wenn … und wenn…

    Wasserdampf der Stratosphäre könnte 30% zur Erwärmung ab 1990 beigetragen haben (hier).
    Jooo, und CO2 ist für mehr als 100% der Erwärmung verantwortlich (S.Rahmstorf), mega-lol.
    Das CO2-Feedback ist immerhin recht genau bestimmt, zwischen „1.7-21.4 p.p.m.v. CO2 per degree Celsius, with a median value of 7.7…“ (hier), gestern waren’s noch 40… oh ja. Wir wissen Bescheid.

    Na, seien wir jedenfalls sicher, wir werden nasse Füße bekommen… oder doch nicht:

    „Rising and falling sea levels over relatively short periods do not indicate long-term trends. An assessment of hundreds and thousands of years shows that what seems an irregular phenomenon today is in fact nothing new,“ explains Dr. Dorit Sivan, who supervised the research.

    hier

    Ich bin mir also sicher, morgen wird wieder Wetter sein, einmalig, natürlich, eindrucksvoll.
    Und anstrengend, bestimmt muss ich wieder eine Stunde die Überbleibsel der globalen Erwärmung wegräumen.
    Habe fertig.
    MfG

  8. Lieber Herr Tiger,
    Ich will das was Herr Wetterfrosch gesagt hat noch mal anders ausdrücken.
    Die Grundproblematik in der Identifizierung eines „anthropogenen Beitrags“ an der globalen Erwärmung ist eigentlich nicht die Genauigkeit der Bestimmung einer globalen Mitteltemperatur, sondern die Bestimmung der natürlichen Variabilität des irdischen Klimas. Dazu genügen 150 Jahre oder weniger an Temperaturdaten eigentlich nicht, im Grunde egal wie genau sie gemessen werden.
    Man bräuchte da sicher tausend Jahre Messdaten oder so. Mit den Proxymessungen kommt man nicht weit, da die meistens nur lokal und/oder nur saisonal sind.
    Dazu muss man eigentlich auch die Niederschläge und die Wasserkonzentration für jeden Ort und als Funktion der Höhe, sowie die Wolkenbedeckung lokal aufgelöst bestimmen und ihre natürliche Variation über lange Zeiträume kennen, um nur einige Beispiele für unser „Unwissen“zu nennen.
    Es ist meiner Meinung eigentlich nur peinlich, dass wir es nicht schaffen über alle Zweifel erhabene standardisierte Temperaturmessungen zu bekommen.
    Was man so liest sind wohl die meisten Klimaforscher der Meinung, dass der Mensch einen Beitrag zur Erwärmung leistet. Meiner Meinung nach ist der Fokus auf CO2 als einzige Ursache fragwürdig.
    Selbst dass es die Hauptursache im 20. Jahrhundert war scheint mir nicht quantitativ befriedigend geklärt, da wir zum Beispiel die Entwicklung der Wolkenbedeckung nicht kennen.
    Ich glaube aber auch nicht, dass die meisten Klimaforscher so eindimensional denken. Nur die selbsternannten Politiker unter Ihnen erwecken in der Öffentlichkeit aus politischen Gründen den Eindruck, dass CO2 die einzige Ursache ist. Auf eine konkrete Nachfrage würden selbst diese „Klimawissenschaftspolitiker“ differenzierter antworten. Es spricht nicht für unsere Journalisten, dass diese konkreten Fragestellungen ausbleiben.
    Mit freundlichen Grüßen
    Günter Heß

  9. Lieber Günter Heß,
    alles richtig, doch um die Variabilität (ich würde mich hier zunächst ganz simpel schon mit dem 2s-Bereich zufriedengeben) zu bestimmen, benötigen wir eine robuste Datenbasis über einen (wie sie auch richtig schreiben) Zeitraum -- ebenso wie auch der statistische Mittelwert eine Datenbasis verlangt, an deren Grundgesamtheit im Zeitverlauf nicht laufend herumgeschraubt wird, vor allem nicht zielgerichtet (cherry picking), wie aus dem genannten Video hervorgeht.
    Es bleibt dabei: Die terrestrischen Temperaturdaten sind kompletter Murks, und jeder, der diesen teuer erworbenen Dreck anfaßt, disqualifiziert sich eigentlich schon.

    Es ist meiner Meinung eigentlich nur peinlich, dass wir es nicht schaffen über alle Zweifel erhabene standardisierte Temperaturmessungen zu bekommen.

    Klar, aber „weg“ oder „nie gemessen“, ist eben „nicht vorhanden“. Die Zeit läßt sich nicht zurückdrehen.
    Die Schwächen der unterschiedlichen paläoklimatischen Proxydaten wurden wiederholt aufgezeigt und führen ebenfalls zu keinem sowohl zeitlich als auch geographisch stimmigen Raster. Davon abgesehen sind sie auch nicht zuverlässig „kombinierbar“, weil sie unterschiedlichen Grundgesamtheiten (wenige Auffindungsterritorien, Baumringe, Eisbohrkerne, Tropfsteine und was es vielleicht noch in der Zukunft geben mag) enstammen.
    Leider verfügen wir gerade einmal seit Dezember 1978 über die UAH-MSU-Satellitendaten, die noch das größte Vertrauen genießen dürften, wenn die Zeitachse nicht so verdammt kurz wäre…

    Zum anthropogenen Einfluß auf die Temperatur und zum CO2:
    Für den Laien (und auch damit für den überwiegenden Teil der Journalisten) ist es sehr schwer, zuweilen unmöglich in Größenordnungen zu denken.
    10^6 ist eben nicht das Doppelte von 10^3 🙂
    Doch wenn man ein paar „verständliche“ Vergleichszahlen anführt, sollte der Groschen schon bei Nutzanwendung gesunden Menschenverstandes auch beim Laien rutschen, ohne daß er mit Differentialgleichungen erschlagen wird:
    -- Auf 3000 Luftmoleküle kommt 1 (in Worten: --ein--) CO2-Molekül. In der mittleren und oberen Troposphäre etwas weniger.
    -- Der Mensch produziert mit allen seinen Aktivitäten etwa 1% der CO2-Menge, die die taxonomische Klasse der Insekten abatmet. Mit Mega- und Giga-Absolutzahlen zu argumentieren, dient nur dazu, unerfahrene Leser einzuwickeln.
    -- Der Rückstrahlungskoeffizient -- als Zünglein an der Waage für den atmosphärischen Treibhauseffekt -- ist nicht exakt bekannt (jeder hält natürlich seine eigene Schätzung für das Gelbe vom Ei). Sowohl Erwärmung als auch Kühlung sind im Ergebnis möglich. Warten wir mal auf die korrigierte Arbeit von Lindzen, die in der ersten Fassung reichlich zerpflückt wurde.
    -- Jack Barret zeigte die weitgehende Sättigung der Strahlenabsortion durch CO2 bei 15nm. Eine Verdopplung der CO2-Konzentration brächte gerade einmal eine Erhöhung von 0,7%.
    -- Der Mauna Loa erscheint als dümmster anzunehmende „Standard“-Meßort für CO2.
    Soviel bloß ein paar Aspekte zum „Fokus aufs CO2“.

    *schnurr*
    TT

Schreibe einen Kommentar