So verschwinden unbequeme Wahrheiten – Weltklimarat passt seine Modelle nachträglich an

1. Oktober 2013 | Von | Kategorie: Artikel, Klimawandel, Politik, Wissenschaft

Nachdem am Freitag bereits die Zusammenfassung für politische Entscheidungsträger des neuen Weltklimarat-Berichts erschienen war, wurde gestern der Bericht der Arbeitsgruppe 1, Wissenschaftliche Grundlagen, der Öffentlichkeit vorgestellt.

Bereits im Vorfeld der Veröffentlichung war in der Presse und in Internetforen ein Aspekt ganz besonders intensiv diskutiert worden. Wie würde das IPCC mit dem unangenehmen Umstand umgehen, dass es in den letzten 15 Jahren nicht wie erwartet wärmer geworden ist. Vor allem der Umstand dass 98 Prozent der für die Vorhersagen verwendeten Klimamodelle einen solchen Stillstand nicht vorhergesehen haben, sollte Anlass genug sein, die Methodik und die für die Modelle verwendeten Parameter einmal gründlich zu überdenken. Bereits im Juni hat einer der führenden deutschen Klimaforscher, Hans von Storch, in einem Spiegel-Interview auf die Diskrepanz zwischen Modellen und Wirklichkeit hingewiesen:

„Es gibt zwei denkbare Erklärungen – und beide sind für uns wenig erfreulich. Erste Möglichkeit: Die Erwärmung fällt schwächer aus, weil die Treibhausgase, insbesondere das CO², eine geringere Wirkung haben als angenommen. Das bedeutet nicht, dass es keinen menschengemachten Treibhauseffekt gibt; nur wäre unser Einfluss aufs Klimageschehen nicht so stark wie vermutet. Die andere Möglichkeit: In unseren Simulationen haben wir unterschätzt, wie sehr das Klima aufgrund natürlicher Ursachen schwankt.“

Eine unbequeme Wahrheit

Da diese unbequeme Wahrheit nicht so einfach wegzudiskutieren ist, war bereits die Zusammenfassung für Entscheidungsträger (Summary for Policymakers, SPM) mit Spannung erwartet worden. Wer dort allerdings einen offenen Umgang des Weltklimarats mit diesem brenzligen Thema erwartet hatte, der wurde enttäuscht. So wurde etwa ein Zentraler Satz, mit dem im Entwurf für den Bericht noch auf die schlechte Abbildung der Wirklichkeit durch die Modelle hingewiesen wurde, einfach weggelassen.

Diese Taktik des unter den Tisch kehrens kann man bei einer Zusammenfassung möglicherweise noch irgendwie rechtfertigen. War halt nicht so wichtig, das Thema. Anders ist das bei einem Bericht, in dem auf über 2.000 Seiten der aktuelle Wissensstand möglichst allumfassend dargestellt werden soll.

Auch war seit längerem bekannt, dass die Diskrepanz zwischen den Modellen und der Wirklichkeit in IPCC-Kreisen durchaus thematisiert wurde. So wurde Im Dezember letzten Jahres eine vertrauliche Rohfassung des IPCC-Berichts publik gemacht. In diesem war bereits in der Einleitung die Abbildung 1-4 zu finden (nächste Grafik). Und auf dieser war eindeutig zu erkennen, wie groß der Unterschied zwischen dem was die Modelle erwarten ließen und dem was in der Realität gemessen wurde wirklich ist.

figure-1-4-models-vs-observations-annotatedDie schwarzen Quadrate stellen die Ergebnisse der Temperaturmessungen unterschiedlicher Institute dar (Die amerikanischen NASA und NOAA und das britische Hadley Center). Die roten Quadrate sind nachträglich eingefügte Werte (HadCrut 4 von 2012 und 2013 vorläufig). Der farbig hinterlegte Hintergrund zeigt die Vorhersagen der bisherigen Berichte des Weltklimarats. Der bislang aktuellste war AR4 (Forth Assesment Report) von 2007. Die Vorhersagen daraus sind als roter Hintergrund dargestellt. Die graue Hinterlegung hat keine Bedeutung.

Tarnen und Tricksen

Seit Veröffentlichung des letzten Weltklimaberichts im Jahr 2007 lag also nur eine gemessene Temperatur überhaupt innerhalb der Vorhersagen. Der Rest darunter. Dass dieser Umstand nicht für die Qualität der Klimamodelle sprechen würde, lag auf der Hand. Spannend war jetzt die Frage, wie das IPCC damit umgehen würde. Die Antwort darauf gibt die Abbildung 1-4, wie sie letztendlich im aktuellen Sachstandsbericht gezeigt wird.

figure-1-4-final-models-vs-observations

Man reibt sich verwundert die Augen. Plötzlich erscheinen die gemessenen Temperaturen innerhalb des Bereichs der Projektionen. Das IPCC schreibt dazu:

„Even though the projections from the models were never intended to be predictions over such a short time scale, the observations through 2012 generally fall within the projections made in all past assessments.“

„Obwohl die Projektionen aus den Modellen niemals dazu gedacht waren, Vorhersagen über einen so kurzen Zeitabschnitt zu machen, liegen die Messungen bis 2012 im allgemeinen innerhalb der Projektionen aller bisherigen Berichte.“

Man kann darüber diskutieren ob es Zufall ist, dass das IPCC für die endgültige Version der Abbildung 1-4 eine andere Skala benutzt hat, als bei der ursprünglichen Version. Jedenfalls ist die jetzt gewählte Art der Darstellung besser geeignet, das Auseinanderdriften von Modell-Welt und Wirklichkeit gerade nicht darzustellen. Die folgende Abbildung zeigt einen Vergleich der ursprünglichen und der finalen Version von Abbildung 1-4 bei gleicher Skalierung. Die Pfeile markieren die Ober- und Untergrenze des A1B-Szenarios aus dem 4. Sachstandsbericht und wurden von Steve McIntyre eingefügt, der in seinem Blog ClimateAudit als erster auf das Verschwinden der  Diskrepanz hingewiesen hat. Die gelben Punkte in der rechten Grafik zeigen die Jahrestemperaturen aus HadCrut 4.

 Vergleich

Es muss offen bleiben, welchen „Trick“ das IPCC genau angewandt hat, um aus einer Abbildung, die das offensichtliche Versagen der Modelle zeigt eine zu machen, die eine heile Welt vorgaukelt in der Modell und Wirklichkeit plötzlich wieder zusammen passen. Was sofort ins Auge fällt ist, dass die Projektionen aus dem 2. Und zweiten und dritten Sachstandsbericht nach unten verschoben wurden. Weitere Veränderungen kann man wegen des unübersichlichen „Spaghetti-Graphen“ nicht erkennen.

Was bleibt ist der Eindruck, dass von Seiten des IPCC ausdrücklich nicht an einer Aufklärung darüber gelegen ist, warum Modelle und Wirklichkeit auseinanderklaffen. Dieser Diskussion wird durch diese Eigenwillige Art der Darstellung und offenbar auch durch Manipulation der Daten aus dem Wege gegangen.

 

Ähnliche Beiträge (Automatisch generiert):

Print Friendly

113 Kommentare
Hinterlasse einen Kommentar »

  1. Besonders lustig ist in meinen Augen die Aussage

    “Obwohl die Projektionen aus den Modellen niemals dazu gedacht waren, Vorhersagen über einen so kurzen Zeitabschnitt zu machen…“

    Da wird suggeriert, Modelle seien so beschaffen, dass die zwischen Startund Ziel praktisch beliebige Tmeraturpfade beschreiben, die in keinem notwendigen Zusammenhang mit der realen Entwicklung stünden, bis sie dann wunderbarerweise am geplanten Zielpunkt, in 50 oder 100 Jahren aufs genaueste die zu erwartende Realität beschreiben würden.
    Also etwa so, als wäre das eine Wettervorhersage, bei der man zwar das Wetter für morgen und die nächsten 5 Tage nicht prognostizieren könnte, aber dafür genau weiss, dass am siebten folgenden Tag die Sonne scheinen wird.

    Diese Modelle sind aber ITERATIV, jede Berechnungssequenz baut auf der vorhergehenden auf! Kurz, das ist eine besonders plumpe Ausreden, typische Bauernfängerei, mit der man vielleicht mathematische Analphabeten über Ohr hauen kann, aber sonst niemand.

    Vor allem aber drängt sich natürlich die Frage auf, warum denn niemand Interesse daran hat, kurzfristige Klimaprognosen über 5, 10 oder 20 Jahre zu modellieren, das wäre doch höchst interessant und auch sehr, sehr wertvoll für die Volkswirtschaften der Welt UND solche Prognosen, wenn korrekt, wären nicht nur eine finanzielle Goldgrube (Genau so wertvoll wie eine Vorschau des Dow Jones, man denke nur mal an Terminspekulationen an Agrarbörsen!), sondern auch das überzeugendste Argument für die eigene Glaubwürdigkeit, die sich denken lässt.

    Aber, ach ja, damit könnte man sich ja blamieren, wie schon so oft, wenn man mal etwas nachprüfbares von sich gibt, wie Mojib Latif, der sich im Jahr 2000 zu 95% sicher war, dass es ab sofort keine kalten Winter mehr geben wird.
    Also denkt man gar nicht daran das naheliegende zu tun. Die typische Ausrede von Scharlatanen; so glaubwürdig wie ein Goldmacher, der Geld verlangt um Gold zu machen, obwohl er doch nur Gold machen müsste, um so viel Geld zu haben wie er will.

  2. Soweit ich das sehe sind beide Grafiken identisch. In beiden Fällen hat die gemessene Temperatur den AR4-Bereich verlassen, es wurde nur mit den Spaghetti-Kurven verdeckt.

    Die mit „AR4“ bezeichneten Balken (A1B, A1, B2) zeigen den Temperaturbereich der AR4-Vorhersage, für heute (unteres Balkenende) und für die Zukunft (dicke Querstriche im Balken). Die „Observations“ liegen konstant darunter, es wird aber nicht darauf hingewiesen, im Gegenteil, man behauptet, das diese im Modell liegen würden.

    Die Temperaturkurve liegt aber noch im SAR- und TAR-Bereich, wie in der Ursprungsgrafik eben auch. Ich glaube aber, dass man die Untergrenze von SAR und TAR nach unten „korrigiert“ hat. In der Ursprungsfassung liegt die Untergrenze bei 0,4 im Jahr 2000, im neuen Bericht bei 0,3 wenn ich mich nicht irre….

    Gruß vom Segelboot

  3. @Tritium:
    Die Aussage ist ja, dass man nur (über 30 Jahre) geglättete Vorhersagen machen kann, aber eben nicht auf den Tag genau. Etwa so, wie der Siebenschläfertag ja auch nicht das tageweise Wetter der nächsten Wochen angibt, aber schon den allgemeinen Trend.

    Das Problem besteht eher darin, dass man auch nach 15 Jahren schon mit gewisser Wahrscheinlichkeit (ich behaupte jetzt mal mit 141% des Fehlers der 30-Jahres-Prognose) etwas über den Klimatrend sagen kann. Der Zufall muss sich in den nächsten 15 Jahren also ordentlich Mühe geben, diesen Trend wieder „aufzuholen“. Aber dem Zufall ist das leider egal, denn -- da haben Sie recht -- er arbeitet iterativ. Hinzu kommen noch Dinge wie Autokorrelation, die Trends verstärken bzw. fortsetzen -- bei Temperaturreihen nichts ungwöhnliches, ohne dass man die Mechanismen kennt.

    Insofern ist es wirklich beschämend, wenn im AR5 tatsächlich dieses nichtssagende Spaghetti-Diagramm abgedruckt wurde. Alle interessanten Aspekte sind dort verwässert, dafür die Punkte der Prognosen durch sinnlos fette Linien verbunden. Hätte mir ein Student so ein Gekritzel für einer Auswertung vorgelegt, wäre er wohl mit heißen Ohren nach Hause gegangen.

  4. @ Götz Ruprecht:
    Es muss nicht ‚auf den Tag genau‘ sein.
    Der Trend muss stimmen. Schon das hätte z.B. auf die Landwirtschaft oder auch für Versicherungen einen enormen Wert.
    Deshalb habe ich es ja auch mit dem Dow Jones verglichen, dem Aktienindex, nicht mit einer spezifischen Aktie.

  5. @ Segelboot #2

    Es sieht tatsächlich so aus, als wenn die Verschiebungen von den Untergrenzen von SAR und TAR um etwa 0,1 °C nach unten den Haupteffekt ausmacht. Gleichzeitig scheinen die gemessenen Temperaturwerte leicht nach oben verschoben zu sein. Der Messwert von GISTemp (schwarze Punkte) für 1998 fehlt. Das ist zwar nur ein Punkt, aber optisch würde er den Eindruck der Stagnation verstärken, beziehungsweise das Weglassen verstärkt den Effekt eines vermeintlichen Anstiegs.

    Das ganze garniert mit überlagerten Spaghetti-Kurven macht die Übersichtlichkeit vollends zunichte. Die Darstellung dass der SAR und TAR Bereich den AR4 überlagern lässt den Umstand völlig verschwinden, dass seit Erscheinen des AR4 nur ein Messwert überhaupt innerhalb des Vorhersage-Bereichs lag.

    Dieser Graph ist ganz sicher nicht dazu gemacht, Klarheit zu schaffen. Er soll vernebeln. Und es ist eben nicht nur die unmögliche Art der Darstellung sondern auch das nachträgliche Verschieben der Untergrenzen von früheren Projektionen. Wenn es dafür keine plausible Erklärung gibt (und der Text liefert keine), dann setzt man sich schnell dem Verdacht vorsätzlicher Manipulation aus. Glaubwürdigkeit und Transparenz geht anders.

  6. Traurig, mit welchen Mitteln hier eine Diskrepanz herbeigeredet wird, die es so nicht gibt. Nicht umsonst haben sowohl Messwerte als auch theoretische Modelle Fehlerbalken -- beruecksichtigt man diese, stellt man ploetzlich fest, dass einzig der Wert von 2008 unterhalb der Vorhersage liegt. Ueber die Werte ab 2011 ist dagegen mangels Angabe der Unsicherheit keine Aussage moeglich.
    Fuehrt man sich dann noch vor Augen, dass diese Fehlerbalken keine absolute Wahrheit sind, sondern auch nur den Bereich angeben, in dem der wahre Wert wahrscheinlich (ueblicherweise mit einer etwa 68% Chance) liegt, ist es voellig normal, dass es auch mal den eine oder anderen Ausreisser gibt.

  7. @ Wissenschaftler #6

    Und weil mit den Daten alles in bester Ordnung ist greift das IPCC zu solchen „Tricks“ wie Vernebelung und nachträglicher Datenmanipulation?

  8. Traurig, mit welchen Mitteln hier eine Diskrepanz herbeigeredet wird, die es so nicht gibt.

    Traurig, wie man eine Klimakatastrophe herbeiredet ohne stichhaltige Beweise vorzulegen. Die Beweißlast liegt bei ihnen.

    Ueber die Werte ab 2011 ist dagegen mangels Angabe der Unsicherheit keine Aussage moeglich.

    Was schließen sie daraus?

    Fuehrt man sich dann noch vor Augen, dass diese Fehlerbalken keine absolute Wahrheit sind, sondern auch nur den Bereich angeben, in dem der wahre Wert wahrscheinlich (ueblicherweise mit einer etwa 68% Chance) liegt, ist es voellig normal, dass es auch mal den eine oder anderen Ausreisser gibt.

    Der ein oder andere Ausreisser? Allein mit der Folgenabschätzung hat man sich so derb verkalkuliert. Aber da können ihnen die anderen hier sicherlich mehr zu erzählen als ich.

    Aber bezichtigen sie uns nur der häresie. Nur hat das nichts mit Wissenschaft zu tun.

    Grenzenloses Wachstum ist nur nach Innen möglich?

  9. @segelboot
    „Die mit “AR4″ bezeichneten Balken (A1B, A1, B2) zeigen den Temperaturbereich der AR4-Vorhersage, für heute (unteres Balkenende) und für die Zukunft (dicke Querstriche im Balken). Die “Observations” liegen konstant darunter, es wird aber nicht darauf hingewiesen, im Gegenteil, man behauptet, das diese im Modell liegen würden.“
    Die eingefaerbten Bereiche in 1 „zeigen“ genau die gleichen Spaghettigrafen wie in der Abbildung 2 (Annahme einer statistischen Verteilung und dann einen Vertrauensbereich). Deswegen ist es natuerlich auch falsch zu sagen, dass 98% der Modelle etwas nicht beschreiben. 1) Sind es die Simulationen und nicht die Modelle. 2) Ist es eine Wahrscheinlichkeit berechnet eben mit dieser Annahme der Gausschen Verteilung und nicht eine Anzahl von Modellen. Das nur nebenbei.

    @Tritium
    „Der Trend muss stimmen.“ Ueber welchen Zeitraum denn? 2 Jahre, 10, 15, 20 oder einfach wann es Ihnen beliebt?

    „schon das hätte z.B. auf die Landwirtschaft oder auch für Versicherungen einen enormen Wert.“
    Ich wuesste nicht eine einzige Massnahme „auf“ (?) der Landwirtschaft oder in der Kostenberechnung von Versicherungspolizen, die momentan auf den Trend der globalen Temperaturen abgestimmt waere. Gibt es da vielleicht ein Beispiel?

  10. @Wissenschaftler:

    Nicht umsonst haben sowohl Messwerte als auch theoretische Modelle Fehlerbalken — beruecksichtigt man diese, stellt man ploetzlich fest, dass einzig der Wert von 2008 unterhalb der Vorhersage liegt.

    Wenn der Fahlerbalken für eine 30-Jahres-Prognose schon 1° Unsicherheit hat, ist das auch nicht schwer. Damit kann praktisch jeder Temperaturverlauf im Modell liegen. Tipp an das IPCC: den Fehlerbalken um 0,5° absenken -- dann liegt garantiert auch 75 Jahre lang alles drin.

    Ueber die Werte ab 2011 ist dagegen mangels Angabe der Unsicherheit keine Aussage moeglich.

    Ich dachte die Klimakatastrophe kommt erst an 2011? Oder ist sie schon da?

    @Hoffmann: Abgesehen von Semantik: 1) Halten sie die Darstellung für übersichtlich? 2) Meinen sie nicht, das SAR- und TAR- Untergrenzen um 0,1° nach unten verschoben wurden? 3) Muss ich politische und gesellschaftliche Konsequenzen aus einem Bündel von Vorhersagen ziehen, die nur zu 2% richtig liegen?

    @Kipp: Danke für die Darstellung. Das Absenken der SAR/TAR-Fehlerbereiche ist gut erkennbar. Der Temperaturverlauf wurde wohl durch einen 5/10-Jahres-Mittelwert ersetzt, um das Absacken um 1990 zu vermeiden. Auch das Auswandern nach 2010 kann so gut verdeckt werden, obwohl -- durch das Absenken von SAR/TAR wandert ja nichts mehr aus.

  11. @ GH:

    “Der Trend muss stimmen.” Ueber welchen Zeitraum denn? 2 Jahre, 10, 15, 20 oder einfach wann es Ihnen beliebt?

    Ihr Kollege Trenbarth meint, dass 10 Jahre zur Beurteilung des Trendverhaltens ausreichen. Aber das wissen Sie, Sie kennen doch die Climategate-Mails: „The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.“ (2009)
    Die Diskrepanzen zwischen Modellen und Realität sind genau so offensichtlich ein fauer Apfel wie der gefälschte Hockeystick, der nun klammheimlich vom IPCC aufgegeben wurde.

  12. Man könnte ja auch mal positiv denken und sich fragen, welche der Modelle im Spaghetti-Gewusel denn wirklich nahe an den Messungen liegen.

    Ich vermute mal, es sind die mit einer niedrigen Klimasensitivität…

  13. Die letzte animierte Grafik zeigt sehr schön, wie nicht nur der Anfangspunkt geschickt auf den Punkt gelenkt wird, wo der Trend passt. Außerdem sind die Observationen, die nicht so in den Trend passen, den man zeigen möchte, hellgrün gemacht worden.

    Wissenschaft funktioniert aber eigentlich sowieso grundsätzlich anders. Wenn man eine neue Theorie („der Mensch verursacht eine starke Erwärmung der Erde“) „beweisen“ möchte, muss man eigentlich die alte bis dahin gängige Theorie („Klima ist chaotisch und ständige drastische Veränderungen sind normal, die Variabilität ist hoch.“) widerlegen und zeigen, dass die neue Theorie die Daten besser erklärt.

    All das kann ich nicht erkennen. Mir scheint dies sind alles Scheinduelle, CO2 befindet sich auf einem langzeit Tief, wenn man das ganze mal in Perspektive betrachtet, also die letzten 500 mio Jahre betrachtet, in denen es immer wieder deutlich Kälter und Wärmer war als heute. Mehrere 100 mio Jahren war der CO2-Gehalt der Luft mehr als 15 mal so hoch wie heute.

    Auch in den letzten 2000 Jahren gab es Kalt- und Warmphasen, die wohl nichts mit dem CO2-Gehalt der Luft zu tun haben, es gab Zeiten in denen in Südengland Wein angebaut wurde und in denen Grönland seinen Namen bekommen hat als grünes Land und Zeiten in denen man auf der Themse Schliffschuh laufen konnte und Ernten ausfielen mit großen Hungersnöten.

    Man kann in einem System mit starken Schwankungen nicht aus den letzten 15 oder 30 Jahren einen Trend ablesen. Man kann auch nicht aus der letzten Minute des Euro Dollar Wechselkurses einen Trend bestimmen auch wenn man es schafft in die Minute weit über 60 Stützstellen oder Messwerte rein zu kriegen.

    Auch die implizit unterstellte These, dass eine Erwärmung auf jeden Fall negativ ist und katastrophale wirtschaftliche und menschliche Folgen hat, sehe ich nicht belegt. Das Risiko einer Abkühlung ist wahrscheinlich viel gefährlicher für die Menschheit, wenn die großen Agrarflächen in USA, Europa und Russland ausfallen. Dennoch werden alle Modelle, die eine Abkühlung zeigen von vornherein als falsch verworfen und ignoriert. Wo steht im Bericht, welche Kosten und welches Leid heute angemessen sind um spätere Unkosten und späteres Leid aufzuwiegen?

    So ist das keine Ernstzunehmende Wissenschaft. Und die Politik versagt auch auf ganzer Linie, denn es wird im Rahmen des EU-CO2-Zertifikatehandels kein Gramm CO2 durch Wind und PV-Subventionen vermieden. Alles was die Deutschen einsparen (falls sie dass mit diesen Technologien überhaupt tun) wird irgendwoanders in der EU dann in die Luft geblasen. Somit erleben wir nur eine Verteuerung der Energie, die dem Wirtschaftswachstum und somit dem Wohlstand in Deutschland entgegensteht, ohne auch nur im Geringsten der Natur zu nutzen.

    Wenn es wirklich darum ginge CO2 zu verringern, täte das kleine Deutschland besser daran anderen zu helfen CO2 zu vermindern, indem sie hocheffiziente Kohlekraftwerke exportieren.

    Der Export von vielen Kernkraftwerken würde natürlich auch zu weniger CO2 und weniger Luftverschmutzung führen.

    Stattdessen schaltet Deutschland aber seine AKWs ab und baut 25 Kohlekraftwerke, die dann wohl die nächsten 60 Jahre laufen werden. Angesichts der Gefahren einer Abkühlung wohl nicht die schlechteste Vorgehensweise, wenn man glaubt das CO2 die Temperatur erhöhen kann. Jeder Biologe wird bestättigen, das 2 Grad mehr und mehr CO2 den Ertrag in der Landwirtschaft verbessert. Leider werden wir wohl nicht durch CO2 die Temperatur erhöhen können, wie es aussieht.

  14. @segelboot
    „1) Halten sie die Darstellung für übersichtlich?“ Ich halte beide fuer uebersichtlich.
    „2) Meinen sie nicht, das SAR- und TAR- Untergrenzen um 0,1° nach unten verschoben wurden?“ Muss ich erst nach schauen. Grundsaetzlich sind SAR und TAR Vorhersagen nicht einfach zu vergleichen. Es gab keine oder kaum Klimamodelle und nicht weiss so ohne weiteres nicht, wie ueberhaupt diese Unsicherheitsbereiche zustande gekommen sind. Wenn ich es weiss melde ich mich nochmal.
    „3) Muss ich politische und gesellschaftliche Konsequenzen aus einem Bündel von Vorhersagen ziehen, die nur zu 2% richtig liegen? “
    Sie MUESSTEN auch eine Konsequenzen ziehen wenn das Buendel zu 100& richtig liegt und tatsaechlich hat weder in den 90er noch in den 00ern irgendeine Regierung irgendwelche Konsequenzen gezogen, ganz unabhaengig, wo denn nun eine Beobachtung in der Mitte, am Rande oder ausserhalb eines Vorhersagebuendels liegt. Die Grundlage der Scenariorechnungen und des Treibhauseffekts sind so vielfaeltig, man kann den IPCC Bericht auch ohne diese Klimamodelle schreiben, wenn man sie denn nun absolut nicht will. Das aendert nichts an den Grundaussagen des IPCC und seinen natuerlich existierenden Unsicherheiten.

    @Tritium
    „Ihr Kollege Trenbarth meint, dass 10 Jahre zur Beurteilung des Trendverhaltens ausreichen. Aber das wissen Sie, Sie kennen doch die Climategate-Mails: “The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.” (2009)“

    Das hat aber auch rein gar nichts mit der Frage danach zu tun, wie sehr Klimasimulationen Trends ueber welche Laenge
    beschreiben muessen. Es ist zum Verzweifeln. Trendberth will die Energiebilanz der Erde schliessen und zeigt sich genervt, dass es mit den existierenden Beobachtungssystemen nicht geht. Vielleicht mal beim eigenen Thema bleiben?

  15. @Heller
    „Ich vermute mal, es sind die mit einer niedrigen Klimasensitivität…“
    Was bedeutete, dass sich die Klimasensitivitaet bei den existierenden Unsicherheiten im Forcing auf einer 10 Jahresintervall auswirkt. Das ist nicht so. Die interne Variabilitaet der Modelle ist viel wichtiger.

  16. @Hoffmann:

    Die Grundlage der Scenariorechnungen und des Treibhauseffekts sind so vielfaeltig, man kann den IPCC Bericht auch ohne diese Klimamodelle schreiben, wenn man sie denn nun absolut nicht will. Das aendert nichts an den Grundaussagen des IPCC und seinen natuerlich existierenden Unsicherheiten.

    Ohne die Klimamodelle würde das IPCC aber schnell als ökoreligiöse Organisation entlarvt werden, nicht? Die Grundaussagen des IPCC basieren schließlich auf diesen. Mir scheint, als des es für die Klimamodellierer langsam eng wird.

    Ich habe in diversen Foren auf IPCC-Kritik auch schon Sätze gelesen wie „Glaubst du wirklich, dass die Menschheit tausende Tonnen von Gasen in die Atmosphäre pusten kann, ohne dass es Einfluss auf das Klima hat?“ Menschen die solche Sätze von sich geben haben die Grenze zum Glauben schon längst überschritten. Wenn kausale Zusammenhänge wie Ursache und Wirkung keine Rolle mehr spielen, und nur noch argumentiert wird „Handlung A muss eine Reaktion auslösen, wir müssen diese nur noch finden“ läßt sich alles mit allem in Zusammenhang bringen, wenn’s sein muss mit 0,01%-Wahrscheinlichkeiten.

    Fakt ist, dass sich weder Wetter noch Klima irgendwie ungewöhnlich verhalten oder entwickeln. Damit fällt jeder politische Handlungsauftrag weg. Es würde auch niemand auf die Idee kommen Fische in der Nordsee zu füttern, wenn dazu keine Notwendigkeit besteht.

  17. @segelboot
    „Die Grundaussagen des IPCC basieren schließlich auf diesen. “
    Noe. Weder die meisten Aussagen noch und schon gar nicht die Grundaussagen.

    „Glaubst du wirklich, dass die Menschheit tausende Tonnen von Gasen in die Atmosphäre pusten kann, ohne dass es Einfluss auf das Klima hat?“
    Natuerlich voellig richtig, mal vorrausgesetzt, dass es sich um GHG handelt.

  18. Traurig, wie man eine Klimakatastrophe herbeiredet ohne stichhaltige Beweise vorzulegen. Die Beweißlast liegt bei ihnen.

    Wieso sollte die „Beweißlast“ bei mir liegen? Ich ueberlasse die Klimaforschung lieber denjenigen, die sich damit auskennen.

    Was schließen sie daraus?

    Dass keine Aussage ueber moegliche Diskrepanzen moeglich ist, solang keine Fehlerabschaetzung vorliegt. Mehr kann man daraus nicht schliessen, ohne irgendwelchen Verschwoerungstheorien zu froenen.

  19. @ #19

    Dass keine Aussage ueber moegliche Diskrepanzen moeglich ist, solang keine Fehlerabschaetzung vorliegt.

    Das ist so weit sicher richtig. So gesehen kann man auch keinesfalls behaupten (wie das IPCC) die Modelle wären in guter Übereinstimmung mit den Messungen. Auch bei Aussagen zur Erwärmung oder wann welches Jahrzeht das heißeste,trockenste oder was auch immer war, müsste man deutlich zurückhaltender sein.

    Nur leider findet sich eine solche Zurückhaltung viel zu selten. Beim IPCC ist man sich ja trotz der vielen Unsicherheiten jetzt sogar „zu 95% sicher“, dass der Mensch einen Großteil der Erwärmung seit 1950 zu verantworten hat.

    Etwas eindeutiger liegt der Fall vielleicht beim Erwärmungstrend, oder des Fehlens eines solchen in den letzten 15+ Jahren. Keine Erwärmung über einen so langen Zeitraum haben laut von Storch 98% der Modelle nicht kommen sehen. Da kann man sehr eindeutig von einem Versagen der Modelle sprechen. Was aber für die IPCC-Wissenschaftler nicht weiter von Bedeutung zu sein scheint und an der 95%igen Sicherheit ganz gewiss nicht rütteln kann.

  20. @segelboot
    Nochmal zu Punkt zwei. Anscheinend war die erste Grafik falsch. Sie startet mit einem konkreten Jahr 1990, sollte aber besser mit einem Mittel anfangen, sonst ist jede Darstellung durch das konkrete „wetter“ des Jahres 1990 beeinflusst. Die Modelle kennen jedenfalls kein exaktes Jahr. Sie laufen aus einem mittleren Zustand los.
    http://tamino.wordpress.com/2012/12/20/fake-skeptic-draws-fake-picture-of-global-temperature/

  21. @ Hoffmann:
    Danke fuer den Link, auf jeden Fall lesenswert.

  22. Trendberth will die Energiebilanz der Erde schliessen und zeigt sich genervt, dass es mit den existierenden Beobachtungssystemen nicht geht. Vielleicht mal beim eigenen Thema bleiben?

    *Gähn*
    Das IST das Thema: Trenbarth wundert sich, warum die Realität sich anders verhält als die Modelle. Es wird nicht wärmer
    Er sucht verzweifelt eine Erklärung in Form einer Energiesenke und findet sie nicht.
    Ergo verstehen wir zu wenig vom Klima, um es zu modellieren.

    Hoffmann der Gaul den Sie reiten, ist tot, schon seit Jahren. Lassen Sie’s gut sein.

  23. @Tritium
    Sie sind hier wirklich der einzige, bei dem absolut jeder Satz Unsinn ist. Jeder.

    Nehmen wir an die Temperatur waere in den zehn Jahren die Trenberth interessierten angestiegen, dann haette er auch den winzigen Waermemengenanteil (=ca. 2% der zusaetzlichen GHG Waerme) mit hinzuzaehlen koennen und die Messungen haetten ihm immer noch nicht erlaubt die Energiebilanz exakt zu schliessen.
    Er hat auch keine Energiesenke gesucht (was soll das sein?).
    Wir verstehen auch beim Thema Sternenbildung, Masernausbreitung und turbulenter Stroemung um Catamarane herum nicht alles und trotzdem macht man Modelle, die sogar sehr gut funktionieren. Was ein „Argument“!

    Aber lassen wir das. Ich hatte zu diesem ihren Satz kommentiert: Der Trend muss stimmen. Warum muss der Trend und ueber welche Laenge stimmen?

  24. Eines ist zumindest sicher. Immer wenn der Hoffmann auftaucht ist etwas dran an der „IPCC“-Kritik. Berechtigte Kritik kann er nicht vertragen.

    Ich frage mich wirklich was das für „Klimawissenschaftler“ oder Handlanger des IPCC das sind, die sich für derartige „Überarbeitungen“ wie bei Abb. 1.4 noch hergeben. Aber da scheint es noch genügend ambitionierte Freiwillhelfer zu geben wie der Fall Hoffmann zeigt.

  25. @Tritium
    Jetzt weiss ich was das mit der „Energiesenke“ soll. Ha.
    Sie haben missing heat (nicht Energie, aber geschenkt) im Zusammenhang mit Trenberth und missing sink (von den CO2 Fluessen, bei denen man lange Zeit nicht wusste, wo so ca 1 GTC abblieb) irgendwie mental zusammengebunden und zu einem neuen Wort gebuendelt: Energiesenke.

    Lustig.
    Das ist fast so wie Allegres beruehmte Klimaforscherin Georgia Tech.
    http://scienceblogs.de/primaklima/2010/02/27/herzlich-lachen-mit-claude-allegre-teil-i/

  26. @Hoffmann: Die erste Grafik war nicht „falsch“, da sie die Bandbreite der Vorhersage von SAR und TAR abbildete, so wie diese eben lagen. Das die neue Grafik nicht mit einem Punkt, sondern mit einem Fehlerbereich beginnt liegt in der Natur der Sache, denn die Fehlergrenzen der Vor-2000-Zeit sind unwichtig. Auch der Link hat mit meiner Frage nichts zu tun. Deshalb nochmal: Meinen sie nicht, das SAR- und TAR- Untergrenzen zwischen beiden Bildern um 0,1° nach unten verschoben wurden?

    Noe. Weder die meisten Aussagen noch und schon gar nicht die Grundaussagen.

    Auf was dann, ihrer bescheidenen Meinung nach? Und stört es sie nicht, dass die gemessene Temperatur in den Grafiken den Fehlerbereich von AR4 verläßt, was durch die Spaghettikurven verdeckt werden soll?

    Natuerlich voellig richtig, mal vorrausgesetzt, dass es sich um GHG handelt.

    Wenn ich einen Eimer Wasser abkoche, habe ich keinen Einfluss auf den H2O-Kreislauf der Erde und das Weltklima. Gleiches gilt für CO2 und eine Autofahrt. Es kommt immer auf die Verhältnisse an. Die Gläubigen sehen das natürlich anders, denn Sünde ist und bleibt Sünde, und wird von höherer Instanz in Zukunft bestraft.

    Das ist fast so wie Allegres beruehmte Klimaforscherin Georgia Tech.

    So ists recht, jeden Kritiker als inkompetent darstellen, hihihi und hahaha. Niemals auf eine Sache eingehen, den die wahre Materie ist viiiieeel zu kompliziert, um von Laien verstanden zu werden. Und wenn mal ein Modell, dass auf 30 Jahre einen Fehlerbalken so groß wie mein Unterarm hat danebenliegt, macht nichts, eh alles egal, denn die Wahrheit steht fest, sie muss nur bewiesen werden.

    Statt sich mit Kleinkriegen aufzuhalten wäre es sinnvoll festzustellen, dass zwar SAR und TAR den gemessenen Temperaturverlauf erfassen, AR4 aber seit ein paar Jahren nicht mehr (jaja, 98% CI usw…geschenkt). Herr Storch hat auf diese -- in ihren Augen natürlich bedeutungslose -- Diskrepanz hingewiesen. Offensichtlich war diese Diskrepanz so bedeutungslos, dass die Spaghettikurven das Makel verdecken mussten.

    Es steht jedem Menschen natürlich frei zu Glauben was ihm beliebt. Ich denke aber nicht, dass man die Menschen mit so einer Beliebigkeit, wie sie sie an den Tag legen, für Klimathemen sensibilisieren kann. Natürlich heizen GHG die Atmosphäre auf. Das ist aber kein Grund zum Katastrophismus, der hinterher zur Massage von Messdaten führt.

  27. Was schließen sie daraus?

    Dass keine Aussage ueber moegliche Diskrepanzen moeglich ist, solang keine Fehlerabschaetzung vorliegt. Mehr kann man daraus nicht schliessen, ohne irgendwelchen Verschwoerungstheorien zu froenen.

    Die können noch nicht einmal eine Fehlertoleranz für ihr Modell nennen?
    Wie groß ist die Sensitivität der Modelle bei geringen Abweichungen der im System vorhandenen (unsicheren) Parameter?
    Lassen sie mich raten: „Wenn man nur kleinste Änderungen vornimmt, kommt etwas ganz anderes raus“
    Es ist ja wohl ein chaotisches System. Wahrscheinlich hat sogar die Rundung von Rechnern eine Auswirkung auf das Ergebnis weil es chaotisch ist.
    Und dann wollen sie damit die Zukunft vorraussagen? Eine der Königsdisziplinen überhaupt? Vielleicht sollte man das besser erst einmal mit Tieren versuchen!!!
    Auch tut mir leid, mein Chef schmeißt mich raus wenn ich mit solch einer „Zahl“ ohne Toleranz komme.

    Traurig, wie man eine Klimakatastrophe herbeiredet ohne stichhaltige Beweise vorzulegen. Die Beweißlast liegt bei ihnen.

    Wieso sollte die “Beweißlast” bei mir liegen? Ich ueberlasse die Klimaforschung lieber denjenigen, die sich damit auskennen.

    Dann sind sie nur ein Jünger, der die Thesen seines Weltenretters verbreitet? Gott, die Welt ist wieder in das Mittelalter zurückgefallen. Aber solche Menschen glaub(t)en auch an das Waldsterben, das Ozon, die Mondphasen und Schamane. Es wäre mir egal, doch man nimmt uns das bisschen verbliebene Freiheit und greift uns in die Tasche.
    Deshalb müssen Beweise vorgelegt werden! Transparent und nicht hinter verschlossenen Türen.
    Und nicht mit einer Verlegung von Messstellen oder Umrechnung, Neubewertung etc. Wenn es nur mit solchen Maßnahmen gelingt den Klimawanden zu beweisen, dann kann das alles nicht viel Wert sein. Auch allgemein kann der Erkenntnissgewinn einer solchen Wissenschaft nicht sehr groß sein.

    Jetzt weiss ich was das mit der “Energiesenke” soll. Ha.
    Sie haben missing heat (nicht Energie, aber geschenkt) im Zusammenhang mit Trenberth und missing sink (von den CO2 Fluessen, bei denen man lange Zeit nicht wusste, wo so ca 1 GTC abblieb) irgendwie mental zusammengebunden und zu einem neuen Wort gebuendelt: Energiesenke.

    Wärme ist Energie solange eine Senke da ist. Ich bewerte das o.g. einmal als dummes Geschwätz.

    1 GTC sind vielleicht 200+/-50 mio. Eichen oder Buchen (bei 5to. je Baum). Ganze Landstriche die zuwachsen, vielleicht Taiga oder Tundra vielleicht auch Djungle? Die Welt ist viel größer als das von der Wohnzimmercouch aus aussieht.

    Wenn der letzte Kapitalist Sozialhilfe bezieht, werdet ihr sehen das man Sozialismus nicht essen kann!

  28. @ Hoffmann:
    Tut mir ja leid, dass ihr kleiner Trick verpufft ist.
    Das da

    Sie sind hier wirklich der einzige, bei dem absolut jeder Satz Unsinn ist. Jeder.

    rettet Sie ganz bestimmt nicht mehr.
    Fassen wir einfach noch mal der Einfachheit halber zusammen:
    Trenberth sah bereits im Jahr 2009 eine so große Diskrepanz zwischen Modell und Realität, dass seiner Meinung nach dringender Erklärugsbedarf bestand.
    Leider gibt es aber bis heute keine Erklärung; neuerdings wird die fehlende Energie ja in der Tiefsee verortet, aber wer’s glaubt, wird selig.

    Aber lassen wir es; Sie führen keine Diskussion, sondern betätigen sich als Bauernfänger. Das ist mir zu langweilig und unergiebig.

    Einen schönen Abend noch.

  29. Ersatz für Glaubwürdigkeit

    Schlagt doch den Klima-Wissenschaftler vor sie mögen ihre Pensionen auf ihrer Theorien verwetten. Das könnte uns davon überzeugen, dass sie wirklich glauben was sie sagen.
    Beispiel
    Wenn die mittlere globale Temperatur in den nächsten 5 Jahren nicht einen neuen Rekord von mindestens 0,2 grad höher dem Alten (Rekord) liefert dann werden Pensionen an eine gemeinützige Organisation gestiftet.
    Vermutlich ist dann Ruhe
    oder Greenpeace (gemeinnützig?) kann sich freuen.

  30. Wir verstehen auch beim Thema Sternenbildung, Masernausbreitung und turbulenter Stroemung um Catamarane herum nicht alles und trotzdem macht man Modelle, die sogar sehr gut funktionieren. Was ein “Argument”!

    Der war gut!
    Ja, gegen funktionierende Modelle ist ja nichts einzuwenden.
    Aber wenn sie nicht funktionieren?
    Ich frage mich ja immer, warum die IPCC-Klimamodellierer nicht ihren Job hinwerfen und ihre Software lieber zu Börsenspekulationen nutzen -- Das wäre sogar viel einfacher, denn die Parameter und Regeln sind weitaus besser bekannt als die des Klimas und die Börse ist ein viel einfacheres System.

    Das wäre doch ein richtig guter Test, nicht wahr?
    ‚Hic Rhodos, hic salta!‘
    Nix ‚in hundert Jahren werden wir alle sterben wenn ihr mir nicht glaubt…‘ sondern ‚Ich hab‘ mit meinen Dow-Jones-Prognosen in den letzten drei Jahren 150 Millionen Gewinn gemacht, ihr WISST, dass ich ein richtig guter Prognostiker bin! Also hört zu…!‘

  31. Die können noch nicht einmal eine Fehlertoleranz für ihr Modell nennen?

    Nochmal die Abbildung angucken, drueber nachdenken, und verstehen was gezeigt ist. Dann geht vielleicht auch Ihnen auf, dass die fehlenden Fehlerangaben nicht bei der Modellvorhersage sind, sondern bei den Messwerten.

  32. Ein Korinthenkacker, wer wohl?
    Glaubt, die Wahrheit lässt sich aufgrund seiner Völlegfühle irgendwie umdeuten.
    Die Fehler beziehen sich auf die Einzelwerte und nicht auf den Trend.
    Wenn Fehler einen Trend aufweisen dann handelt es sich um einen systematischen Fehler, sprich das Modell stimmt nicht.

  33. @segelboot

    Die erste Grafik war nicht “falsch”, da sie die Bandbreite der Vorhersage von SAR und TAR abbildete, so wie diese eben lagen. Das die neue Grafik nicht mit einem Punkt, sondern mit einem Fehlerbereich beginnt liegt in der Natur der Sache, denn die Fehlergrenzen der Vor-2000-Zeit sind unwichtig.

    Ich weiss nicht was falsch in Anfuehrungszeichen bedeutet, aber fuer mich ist das ziemlich offensichtlich. Wenn Sie genau an einem Punkt in einem Jahr den Vergleich mit Modelllaeufen ansetzen, die ueberhaupt nichts mit dem Klima dieses Jahres zu tun haben, dann ist das eben nicht optimal (um es mal netter zu sagen). Die Modelle kennen vom Jahr 1990 nur seinen CO2 gehalt, sonst nichts. Kein Niño, kein Niña.
    Das Argument von Tamino ist nun, dass man also mit dem Klima definierte als Mittel ueber dreissig Jahre vergleichen muesste. Das aber liegt ca. 0.1 unter der Temperatur des Jahrs 1990 und dadurch verschiebt sich eben alles relativ zueinander.
    All das (und sie haben ganz recht, das ist keine rocket science) haette man hier schreiben koennen. Hat man aber wie immer nicht. Verschwoerungstheorien sind ja nicht nur deshalb so beliebt, weil sie alles erklaeren und keine Unsicherheiten kennen, sie sind es auch, weil sie so bequem sind. Die Welt fuer Denkfaule und Unsicherheitsphobiker.

    Wahrscheinlich gibt es darueber hinaus noch andere Probleme mit der Graphik. Relativ zu welcher Zeitraeumen sind eigentlich die FAR und SAR Projektionen genau gemacht? Ich weiss es nicht. Es gab im FAR und eigentlich auch im SAR keine Modelle im heutigen Sinne. Ich weiss auch nicht, wie da argumentiert und gerechnet wurde. Das kann man sich natuerlich alles mal genau anschauen.

    Und obendrein aendert das alles nichts am eigentlichen Problem der Modelle. Ob man nun wie hier den wahrscheinlich korrekteren Vergleich mit den Messdaten macht (also den 1990 Wert etwas absenkt) oder nicht. Das Entscheidende ist, dass der TREND der letzten Jahre am Rande dessen ist, was die Modelle noch aus natuerlicher Variabilitaet darstellen koennen. Und das ist ein Problem, nicht (wie anscheinend hier allgemein gedacht) so sehr die Absolutwerte.

    Auf was dann, ihrer bescheidenen Meinung nach?

    Allgemeine Physik, Strahlungstransport, allgemeine Ueberlegungen zu Feedbacks, Paleobeobachtungen, Modelle (Radiative-Transpot-Model) die eigentlich nichts mit den eigentlichen Klimamodellen zu tun haben. Streicht man absolut alles, was mit Klimamodellen direkt zu tun hat aus dem IPCC bleibt ca zwischen 80-70% uebrig.
    Darum konnten ja ueberhaupt der SAR Scenariorechnungen machen.

    Und stört es sie nicht, dass die gemessene Temperatur in den Grafiken den Fehlerbereich von AR4 verläßt, was durch die Spaghettikurven verdeckt werden soll?

    Klar, alles wird vertuscht. Man wird belogen und betrogen Ich sag nur Florite!
    http://www.youtube.com/watch?v=sCjPPyEgpj4

    Wenn ich einen Eimer Wasser abkoche, habe ich keinen Einfluss auf den H2O-Kreislauf der Erde und das Weltklima. Gleiches gilt für CO2 und eine Autofahrt.

    Die CO2 Konzentrationen haben sich um 42% erhoeht. Nicht ganz das Gleiche wie ein EImer in den Atlantik schuetten.

  34. @Hoffmann 24

    Wenn mananderswomodelliert,dann hat man einExperiment, an dem sich das modell ersteinmal beweisen muss!

    Man hat Windkanäle, Teilchenbeschleuniger, etc…
    Braucht man nicht. Man hat ja ein Modell. …
    Das ist eine der unwissenschaftlichsten Aussagen, die man machen kann.

    btw: Man sollte dann auch noch zwischen Modellierung und Theorie unterscheiden.
    Ein Modell das passt krieg ich auch, wenn ich irgendwas wild zusammenfitte…

    mfg

  35. @Wissenschaftler

    Die Fehlerbalken der globalen Mitteltemperatur sind sehr sehr klein. Bei der Punktgroesze der Daten oben, kann man sie wahrscheinlich nichtmals sehen. Ich habe jetzt nicht nachgesehen, aber etwas in der Groeszenordnung 0.05 und kleiner. Das ist, glaube ich, nicht das Problem hier.

  36. @ Leser #33:
    Schon mal davon gehoert, dass auch Messungen systematische Fehler haben? Und woher haben Sie die Information, dass die eingezeichneten Fehlerbalken rein statistischer Natur sind? Sind die systematischen Fehler der Messwerte ueberhaupt bekannt?

  37. @ Hoffmann: Was bedeuten dann die Fehlerbalken an den Messwerten bis einschliesslich 2010?

  38. @mrotz

    Wenn mananderswomodelliert,dann hat man einExperiment, an dem sich das modell ersteinmal beweisen muss!

    Ganz genau. Die Klimamodelle sind strukturell und inhaltlich fast identisch mit Wettervorhersagemodellen. Ich selbst arbeite etwa mit dem EC-Earth , was identisch mit dem Wettermodell des ECMWF in Reading ist und das die Basis aller europaeischen Wettervorhersagen ist. Es gibt also ein Experiment alle 6 Stunden.

    Ferner werden die Modelle natuerlich auf allen moeglichen Zeitskalen getestet. Das sollte man sich vielleicht auch mal anschauen, bevor man einfach mal so dahinphilosophiert.

  39. @Georg Hoffmann #34:

    Wenn Sie genau an einem Punkt in einem Jahr den Vergleich mit Modelllaeufen ansetzen, die ueberhaupt nichts mit dem Klima dieses Jahres zu tun haben, dann ist das eben nicht optimal (um es mal netter zu sagen). Die Modelle kennen vom Jahr 1990 nur seinen CO2 gehalt, sonst nichts. Kein Niño, kein Niña.
    Das Argument von Tamino ist nun, dass man also mit dem Klima definierte als Mittel ueber dreissig Jahre vergleichen muesste. Das aber liegt ca. 0.1 unter der Temperatur des Jahrs 1990 und dadurch verschiebt sich eben alles relativ zueinander.

    Das ist ein Argument, aber woher kommt es dann, daß in der Abbildung der von Wissenschaftlern erstellten Vorabversion die Temperatur von 1990 unkorrigiert als Ausgangspunkt genommen wurde? Es ist ja (hoffentlich) nicht so, daß das Bild vom ersten besten unerfahrenen Diplomanden gemacht wurde, oder? Schließlich ist das ja auch nicht der erste IPCC-Bericht, solche Unterschiede wie der, auf dem das genannte geistreiche Argument beruht, sollten doch mittlerweile im allgemeinen Bewußtsein der Autoren sein.
    Oder könnte es sein, daß man, als die zufälligen Abweichungen nach unten der letzten Jahre noch nicht so auffällig waren, gern von einem heißen Jahr ausging, um die langfristige Vorhersage besonders prägnant ausfallen zu lassen, und der Fehler deshalb passiert ist?

    Noch eine technische Frage: Kann man die Modelltemperaturen wirklich einfach um einen Offset verschieben? Das ist irgendwie seltsam, weil doch einige der Grundgesetze, auf denen die Modellierung beruht (?), z.B. Stefan-Boltzmann, da empfindlich reagieren. Oder ist der Effekt einer Verschiebung um 0.1K im Bereich der ohnehin schwammigen Unsicherheiten?

    Das Entscheidende ist, dass der TREND der letzten Jahre am Rande dessen ist, was die Modelle noch aus natuerlicher Variabilitaet darstellen koennen. Und das ist ein Problem, nicht (wie anscheinend hier allgemein gedacht) so sehr die Absolutwerte.

    „hier allgemein gedacht“? Da haben Sie offenbar nicht sehr aufmerksam gelesen. Oder Moment mal, waren es nicht Sie selbst, der mit Tritium um den Trend gestritten hat, als der eine der eben zitierten auffallend ähnliche Bemerkung gemacht hat?

  40. @Wissenschaftler
    Die habe ich gar nicht gesehen. Ich habe diesen ersten Draft nicht und kenn die Beschriftung der Grafik auch nicht.
    In http://www.st-andrews.ac.uk/~rjsw/papers/Brohan-etal-2006.pdf kann ich die verdammten Unsicherheiten (obwohl das Paper ueber nichts anderes geht) auch nicht sofort finden. Von Fig 10b wuerde ich die Unsicherheit bei den Jahreswerten mal auf ±0.07 oder so schaetzen. Wahrscheinlich ist es ganau das in Bild 1 und das kann man sehr wohl mit blossem Auge sehen. Ich hab Bloedsinn erzaehlt.

  41. @Fluminist

    Das ist ein Argument, aber woher kommt es dann, daß in der Abbildung der von Wissenschaftlern erstellten Vorabversion die Temperatur von 1990 unkorrigiert als Ausgangspunkt genommen wurde?

    Keine Ahnung. Shit happens. Ich war gestern bei einem Dissertationsvortrag zum Thema Urbanisierung und die Doktorandin, die 3 Jahre nichts anderen gemacht hat, als sich damit zu beschaeftigen, Zeigte Ergebnisse von Nachtbildern (nicht Nacktbildern!), um abzuschaetzen wo eine Stadt ist und wo nicht. Sie gab die Einheit des mit diesen Lichtern verbundenen Energieflusse in Watt/cm2 und hatte Werte von ueber 300Watt/cm2 bei den meisten Staedten. Das waeren ca 3 Millionen Watt pro m2. Und sie hatte davon ca 10 Folien.

    Oder könnte es sein, daß man, als die zufälligen Abweichungen nach unten der letzten Jahre noch nicht so auffällig waren, gern von einem heißen Jahr ausging, um die langfristige Vorhersage besonders prägnant ausfallen zu lassen, und der Fehler deshalb passiert ist?

    Zu Verschwoerungstheorien habe ich oben schon geschrieben. Der erste IPCC Bericht kam 1990 heraus. Seitdem rechnen alle Modelle ab dem CO2 Wert von 1990 drauf los.

    Kann man die Modelltemperaturen wirklich einfach um einen Offset verschieben?

    Es ist noch viel schlimmer. Jedes Modell liegt teilweise um bis zu zwei Grad falsch bei der globalen Mitteltemperatur (also hat etwa eine globale Mitteltemperatur von 14 Grad anstatt der beobachteten 14.5 Grad, wobei dieser Absolutwert eben auch eine Unsicherheit von mehr als 0.5Grad hat. Die kleineren Unsicherheiten die ich oben erwaehnte gelten bzgl der Anomalien, nicht der Absolutwerte). Die meisten Modelle weniger als 2 Grad, aber immerhin. Es werden also immer Anomalien angegeben, zb relativ zu den letzten 30 Jahren bevor das Modell mit dem CO2 Wert von 1990 losrechnet. In Grafik 2 ist also der Mittelwert der Modelle von 1960-1990 null und der Beobachtungswert des warmen Jahres 1990 nicht nur ueber dieser Nulllinie sondern auch ca 0.1 ueber dem Modellmittelwert.

  42. Schaut man sich die Spaghettigrafik des IPCC an, so ist es einfach nur logisch, hier eine bewusste Täuschungsabsicht zu unterstellen.
    Der Verlauf und die Bandbreite einer iterativen Modellierung ergibt sich aus der Summe vieler Simulationsläufe, deren Anfangsbedingungen selbstverständlich die natürliche Variabilität abbilden müssen.
    Aus der Menge der Simulationsläufe lassen sich dann statistische Daten gewinnen, insbesonders der Mittelwert und das Konfidenzintervall, das man üblicherweise mit 2 Standardabweichung (95%) ansetzt, was auch zum IPCC-Sprech („Zu 95% sicher, dass…“) passt.
    Daraus ergibt sich als Darstellungsmethode natürlich zwangsläufig ein ‚Trichter‘ wie in der ursprünglichen Abb. 1, dessen Begrenzung eben das Konfidenzintervall ist. Die einzelnen wild zackenden Simulationsläufe sind dagegen zur Darstellung völlig ungeeignet, vor allem, wenn sie in der Masse nur einen so unübersichtlichen, sich dutzendfach überlagernden Brei ergeben wie in der IPCC-Version 2.
    Man kann Götz Ruprecht nur zustimmen, wenn er sagt:

    Hätte mir ein Student so ein Gekritzel für einer Auswertung vorgelegt, wäre er wohl mit heißen Ohren nach Hause gegangen.

    Die Macher des IPCC-Diagramms sind jedoch keine keine minderbegabten Erstsemester, sondern, zumindest nach eigenem Selbstverständnis, Elitewissenschaftler. Daran müssen sie sich messen lassen und dann gibt es nur eine plausible Schlußfolgerung für dieses Geschmiere: Die Absicht, etwas zu vertuschen.

  43. @Tritium,Tritium

    Es wird nicht besser.

    Daraus ergibt sich als Darstellungsmethode natürlich zwangsläufig ein ‘Trichter’ wie in der ursprünglichen Abb. 1,

    Noe, der Trichter kommt von den unterschiedlichen Klimasensitivitaeten der Modelle. Die spielen am Anfang (da von natuerlicher Variabilitaet dominiert) keine Rolle und werden dann immer wichtiger. Zuut alors. Das war wieder nichts.

    So oder so beantwortet das nicht die Frage, wo denn der Nullpunkt ist, wenn doch die Modelle kein Jahr 1990 kennen. Ich dachte bislang, die These waere hier, der Betrug liege in der Verschiebung der Scenariotrichter relativ zu den Beobachtungen. Jetzt anscheinend ist es das Fakt schlechthin, dass ein Spaghettidiagramm gezeigt wird. Am Ende ist es wahrscheinlich die Farbskala, die in betruegerischer Absicht aus Ocker und Mauve (ein blasses Lila) Toenen besteht.

  44. #44

    Am Ende ist es wahrscheinlich die Farbskala, die in betruegerischer Absicht aus Ocker und Mauve (ein blasses Lila) Toenen besteht.

    Ja, genau das ist es! Wenn meine Doktoranden die Datenpunkte in Olivgrün auf einem kräftig graublauen Hintergrund plotten würden, dann würde ich ihnen was husten.
    Es geht ja auch anders, wie die erste Abbildung zeigt.

  45. @ ‚Wissenschaftler‘ # 37:

    Und woher haben Sie die Information, dass die eingezeichneten Fehlerbalken rein statistischer Natur sind? Sind die systematischen Fehler der Messwerte ueberhaupt bekannt?

    Das ist jetzt erst mal Unfug. Unbekannte systematische Fehler kann man ja wohl schlecht quantifizieren.

    Aber mir stösst da tatsächlich etwas sauer auf: Die Fehlerbalken der gemessenen Temperaturen (Schwarze Quadrate) sollten sich ja logischerweise auf das Konfidenzintervall der ‚wahren‘ Temperatur beziehen, das sich aus den verschiedenen Messungen der diversen Institute ergibt.
    Aber das ist nicht der Fall, wie man besondes deutlich in den Jahren 1999 und 2000 sieht: 1999 zeigt große Differenten zwischen den Messungen, im Jahr 2000 sind die Messungs-Quadrate jedoch so eng beieinander, dass sie überlappen; die Fehlerbalken sind jedoch (wie auch in allen anderen Jahren) gleich groß!
    Whow, was für ein Pfusch!
    Hier fehlt tatsächlich eine Angabe darüber, was diese Balken denn überhaupt sein sollen und das ist ein unverzeihlicher Fehler.

  46. Noe, der Trichter kommt von den unterschiedlichen Klimasensitivitaeten der Modelle.

    Blödsinn!

  47. @Tritium

    Aber das ist nicht der Fall, wie man besondes deutlich in den Jahren 1999 und 2000 sieht: 1999 zeigt große Differenten zwischen den Messungen, im Jahr 2000 sind die Messungs-Quadrate jedoch so eng beieinander, dass sie überlappen; die Fehlerbalken sind jedoch (wie auch in allen anderen Jahren) gleich groß!
    Whow, was für ein Pfusch!

    Whow, Tritium, mit welcher Schnelligkeit Sie einen Fehler nach dem anderen aufdecken.

    In jedem Jahr hat man drei Unsicherheiten und drei Mittelwerte. Die Balken ergeben also nicht die Streuung zwischen den Mittelwerten (die dann null waere, wenn alle mal den fast gleichen Wert haetten) sondern die etwa per Fehlerfortpflanzung berechnete Unsicherheit der drei Datensaetze. Das sieht man etwa 2011. Es gibt bereits unterschiedliche Mittelwerte (also nach Ihrer Meinung muesste es einen Fehlerbalken geben), tatsaechlich sind aber wohl die Unsicherheiten noch nicht berechnet. So jetzt den naechsten Skandal und gravierenden Fehler.

  48. @Tritium

    Blödsinn!

    Immer der feine und detailleverliebte Diskutant, wie wir in Lieben.
    Am Anfang des Trichter sieht man interannuale Variabilitaet, dann dekadische Variabilitaet und dann langsam die unterschiedlichen Klimasensitivitaeten. Doch doch.

  49. @ Hofmann:
    Ist schon dumm, wenn man sich selbst widerspricht, wie Sie gerade:

    Am Anfang des Trichter sieht man interannuale Variabilitaet, dann dekadische Variabilitaet und dann langsam die unterschiedlichen Klimasensitivitaeten

    Der Trichter wird also durch die Variabiltät bestimmt. Genau, wie ich sagte:

    Der Verlauf und die Bandbreite einer iterativen Modellierung ergibt sich aus der Summe vieler Simulationsläufe, deren Anfangsbedingungen selbstverständlich die natürliche Variabilität abbilden müssen.
    Aus der Menge der Simulationsläufe lassen sich dann statistische Daten gewinnen, insbesonders der Mittelwert und das Konfidenzintervall, das man üblicherweise mit 2 Standardabweichung (95%) ansetzt, was auch zum IPCC-Sprech (“Zu 95% sicher, dass…”) passt.
    Daraus ergibt sich als Darstellungsmethode natürlich zwangsläufig ein ‘Trichter’ wie in der ursprünglichen Abb. 1, dessen Begrenzung eben das Konfidenzintervall ist.

    Tja, und wenn Sie dem widersprechen, dann ist das eben Blödsinn und verdient keinen weiteren Kommentar. Denn nach Ihren Ausführungen wären es ja keine Trichter, sondern divergierende Linien entsprechend der angenommenen Klimasensitivität.

  50. @Tritium

    Ja, ja, genau wie Sie sagten. Besonders schoen sieht man die Trichter auf Grund der unterschiedlichen Klimasensitivitaeten in Fig 12.5. Das wird schon.

  51. @ Biersack
    Ganz genau -- warum nur wird eine moderate Erhöhung der globalen Temperatur so schlecht/katastrophal geredet ? Lasst es uns doch positiv, nein real , sehen was eine Temperaturerhöhung bedeuten würde:

    Vor 60 – 52 Millionen Jahren lag die CO2-Konzentration zwischen 2000 (zweitausend !) und 3500 ppm. Gemessen wurden diese Werte mit der PEARSON und PALMER – Methode, basierend auf Materialien aus dem „International Ocean Drilling Program“, ODP, das noch heute kontinuierlich läuft.

    Die damals lebenden ersten Säugetiere fühlten sich bei diesen Werten und den damit verbundenen feuchtwarmen Klima offenbar so wohl, dass sie in ihrer Evolution die dominierende WT-Klasse wurde.

    Bei Darmstadt wurde ein Ur-Pferdchen gefunden, das in der Zeit von 50-40 Millionen Jahren lebte; die CO2-Konzentration lag damals noch 6-10 mal höher als heute – was der Entwicklung des Pferdchens und allem anderen höher entwickelten Leben keinen Abbruch tat – wahrscheinlich sogar im Gegenteil.

    Warum nur wird vergessen, dass die heutigen Pflanzen für ihren Stoffwechsel ein extrem niedriges CO2-Angebot vorfinden, ja dass sie geradezu am „Hungertuch nagen“: für eine optimale Photosynthese wäre ein 5 mal höheres CO2-Angebot nötig. Dann würden die Pflanzen als Primärproduzenten einen bis 3 mal höheren Biomassenwert produzieren können. Diese Primärbiomasse würde in der sich anschließenden Nahrungskette quasi zu einem „Schlaraffenland“ führen – wie es wahrscheinlich schon zu Zeiten der Dinosaurier bestand.

  52. @ Hofmann.

    In jedem Jahr hat man drei Unsicherheiten und drei Mittelwerte. Die Balken ergeben also nicht die Streuung zwischen den Mittelwerten (die dann null waere, wenn alle mal den fast gleichen Wert haetten) sondern die etwa per Fehlerfortpflanzung berechnete Unsicherheit der drei Datensaetze.

    Mal abgesehen davon, dass es natürlich pro Jahr natürlich nur einen Mittelwert gibt und keine ‚drei Unsicherheiten‘, sondern ein Konfidenzintervall, habe ich selbstverständlich ähnlich wie Sie gedacht. aber diese Erläuterung gehört in die Legende, wenn man sauber arbeitet!

    Vorausgesetzt, das wäre so richtig, heisst das dann, dass die Bestimmung der Globaltemperatur mit einer Toleranz von ca.0,15° behaftet ist. Das widerspricht allerdings Ihrem Kommentar # 36:

    Die Fehlerbalken der globalen Mitteltemperatur sind sehr sehr klein. Bei der Punktgroesze der Daten oben, kann man sie wahrscheinlich nichtmals sehen. Ich habe jetzt nicht nachgesehen, aber etwas in der Groeszenordnung 0.05 und kleiner.

    Nicht, daß das wichtig wäre, die Globaltemperatur ist ja ohnehin ein höchst subjektives synthetisches Konstrukt, aber ich wollte dennoch darauf hinweisen.

  53. Das ist jetzt erst mal Unfug. Unbekannte systematische Fehler kann man ja wohl schlecht quantifizieren.

    Ach… 😀 Dann machen meiner Kollegen und ich wohl seit vielen Jahren irgendwas falsch, wenn sie die Abschaetzung der systematischen Fehler angeben.
    Aber nehmen wir Sie mal beim Wort und nehmen an, der systematische Fehler sei im Fall der Durchschnittstemperaturmessung voellig unbekannt -- wie kann man dann von einer Diskrepanz mit dem Modell sprechen?

    @ Hoffmann: Danke fuer die Ausfuehrungen 🙂

  54. @Tritium

    habe ich selbstverständlich ähnlich wie Sie gedacht.

    Weiss ich doch. Wir beide. Immer eine Wellenlaenge, gell.

    Vorausgesetzt, das wäre so richtig, heisst das dann, dass die Bestimmung der Globaltemperatur mit einer Toleranz von ca.0,15° behaftet ist. Das widerspricht allerdings Ihrem Kommentar # 36:

    Genau, drum schrieb ich oben auch zermuerbt:

    Von Fig 10b wuerde ich die Unsicherheit bei den Jahreswerten mal auf ±0.07 oder so schaetzen. Wahrscheinlich ist es ganau das in Bild 1 und das kann man sehr wohl mit blossem Auge sehen. Ich hab Bloedsinn erzaehlt.

    Nehmen wir mal an die Zahl 0.07 per Auge waere ok und jder der drei Messnetze haette die gleiche Unsicherheit, dann komme ich auf sqrt(3*0.7^2)=0.12 was so ungefaehr mit Bild 1 uebereinstimmt.
    Wieder ein Betrug weniger.

  55. #52:

    Bei Darmstadt wurde ein Ur-Pferdchen gefunden, das in der Zeit von 50-40 Millionen Jahren lebte; die CO2-Konzentration lag damals noch 6-10 mal höher als heute – was der Entwicklung des Pferdchens und allem anderen höher entwickelten Leben keinen Abbruch tat – wahrscheinlich sogar im Gegenteil.

    Na wer weiß. Seither ist die CO2-Konzentration gesunken, die Größe der Pferde gestiegen. Steht uns als nächstes die menschengemachte Pferdeschrumpfung (anthropogenic horse shrinkage, AHS) ins Haus?

  56. Aber nehmen wir Sie mal beim Wort und nehmen an, der systematische Fehler sei im Fall der Durchschnittstemperaturmessung voellig unbekannt — wie kann man dann von einer Diskrepanz mit dem Modell sprechen?

    😀
    Erwarten Sie auf diesen Unfug wirklich eine Antwort?

  57. Wissen’s, Hofmann,
    genau der Ton, den Sie hier anschlagen, dümmlich, überheblich und egomanisch, machte mir schon Ihren Anstaltsblog unleidlich, in dem sich eine sorgfältige Negativauslese ähnlicher Typen tummelte, was sicherlich kein Zufall ist.
    Lassen wir es also gut sein. Was sinnvolles haben Sie ja eh nicht mehr zu sagen, wenn ich mir Ihre letzten Beiträge anschaue.

  58. @Tritium
    Schade. Gerade jetzt, wo wir wieder so viele Betruegereien durch kurzes Nachdenken aufgeloest haben. Bleibt natuerlich noch die Geschichte mit der Farbskala.

  59. @fluminist

    Na wer weiß. Seither ist die CO2-Konzentration gesunken, die Größe der Pferde gestiegen. Steht uns als nächstes die menschengemachte Pferdeschrumpfung (anthropogenic horse shrinkage, AHS) ins Haus?

    Das ist ein interessantes Thema. Es gibt ja diese Haeckelsche Regel, demzufolge Tiere einer Art unter kalten und polaren Bedingungen groesser sind als ihre Verwandten aus mittleren Breiten. Verhaeltnis von Oberflaeche zu Volumen etc pp.

    Warum gilt das eigentlich zeitlich ueberhaupt nicht? Mal von den kleinen Pferden abgesehen, waren ja generell die meisten Saeuger deutlich groeszer unter waermeren und hoeheren CO2 Bedingungen. Warum eigentlich?

  60. Nehmen wir mal an die Zahl 0.07 per Auge waere ok und jder der drei Messnetze haette die gleiche Unsicherheit, dann komme ich auf sqrt(3*0.7^2)=0.12 was so ungefaehr mit Bild 1 uebereinstimmt.
    Wieder ein Betrug weniger.

    Das glauben sie doch nicht im Ernst? Wie weit liegen die Mittelwerte der drei Netze auseinander? Ich möchte behaupten das die Fehler eher in der Größenordnung dieser Differenzen liegen. Wie Tritium schon sagte, so ein Netz ist sehr subjektiv. Allein über die Platzierung der Messstellen könnte man Jahre diskutieren. Absurd wird es aber erst wenn man Messstellen verlegt.

  61. @Hoffmann

    Die Modelle kennen vom Jahr 1990 nur seinen CO2 gehalt, sonst nichts. Kein Niño, kein Niña.
    Das Argument von Tamino ist nun, dass man also mit dem Klima definierte als Mittel ueber dreissig Jahre vergleichen muesste. Das aber liegt ca. 0.1 unter der Temperatur des Jahrs 1990 und dadurch verschiebt sich eben alles relativ zueinander.

    Schön das man nachträglich alles um 0,1° verschieben kann. Ob das der Sinn einer Vorhersage ist? Fakt ist doch, dass sich die gemessenen Temperaturen am unteren Rand der IPCC-Modelle bewegen. Ein Grund zur Absenkung kam da sicher sehr gelegen. Spätestens mit AR6 wird’s aber eng, wenn es nicht wärmer wird. Da trotz der Verschiebung die gemessene Temperatur außerhalb von AR4 liegt, dürfte das Problemchen schon in den nächsten Jahren interessant werden. Nicht dass es die Gläubigen interessieren würde, aber die Geldgeber des IPCC-Spaßes.

    Das Entscheidende ist, dass der TREND der letzten Jahre am Rande dessen ist, was die Modelle noch aus natuerlicher Variabilitaet darstellen koennen. Und das ist ein Problem, nicht (wie anscheinend hier allgemein gedacht) so sehr die Absolutwerte.

    Das ist eben das Problem. Vielleicht sollte man die Modelle und ihre „natürliche Variabilität“ mal überprüfen. Weniger CO2-Einfluss zb. Die Erwärmungspause kam für die Freunde der Klimakatastrophe auch ziemlich überraschend. Meine Vermutung ist eben, dass man sich in der Vergangenheit beim IPCC vertan hat. Man hat den Einfluss des CO2 überschätzt, und die Katastrophentrommel geschlagen. Nun steht man zwar nicht nackt da, aber kurz davor, und muss verschieben, verdecken usw. Ärgerlich. Ein offenes Eingeständnis über vergange (modellierung- und kommunikations-) Fehler wäre da nicht schlecht.

    Gruß vom Segelboot

  62. @Segelboot

    Das ist eben das Problem. Vielleicht sollte man die Modelle und ihre “natürliche Variabilität” mal überprüfen.

    Pruust. Schenkelklopf, Traenen-aus-den-Augen-streich.
    Man merkt wie intensiv sie sich mit dem Thema beschaeftigen. Hei, das ist ja ne Idee. Man sollte die natuerliche Variabilitaet der Modelle also mal ueberpruefen. Dass da niemals jemand dran gedacht hat.

    Abe, M., H. Shiogama, T. Nozawa, and S. Emori, 2011: Estimation of future surface temperature changes constrained
    using the future-present correlated modes in inter-model variability of CMIP3 multimodel simulations. Journal
    of Geophysical Research-Atmospheres, 116, D18104

    Alexandru, A., R. de Elia, and R. Laprise, 2007: Internal variability in regional climate downscaling at the seasonal
    scale. Monthly Weather Review, 135 3221-3238

    Annamalai, H., and K. R. Sperber, 2005: Regional heat sources and the active and break phases of boreal summer
    intraseasonal (30-50 day) variability. Journal of the Atmospheric Sciences, 62, 2726-2748.

    Balan Sarojini, B., et al., 2011: High frequency variability of the Atlantic meridional overturning circulation. Ocean
    Science, 7, 471-486.

    Breugem, W. P., W. Hazeleger, and R. J. Haarsma, 2006: Multimodel study of tropical Atlantic variability and change.
    Geophysical Research Letters, 33, L23706.

    Cai, W. J., A. Sullivan, and T. Cowan, 2009: Rainfall Teleconnections with Indo-Pacific Variability in the WCRP
    CMIP3 Models. Journal of Climate, 22, 5046-5071.

    Capotondi, A., A. Wittenberg, and S. Masina, 2006: Spatial and temporal structure of Tropical Pacific interannual
    variability in 20th century coupled simulations. Ocean Modelling, 15, 274–298.

    Charlton-Perez, A. J., et al., 2012: Mean climate and variability of the stratosphere in CMIP5 models. Journal of
    Geophysical Research, doi:10.1002/jgrd.50125.

    Chiang, J. C. H., and D. J. Vimont, 2004: Analogous Pacific and Atlantic meridional modes of tropical atmosphereocean
    variability. Journal of Climate, 17, 4143-4158.

    Collins, M., S. Tett, and C. Cooper, 2001: The Internal Climate Variability of HadCM3, a Version of the Hadley Centre
    Coupled Model without Flux Adjustments. Climate Dynamics, 17, 61-81.

    Das sind aber nur die Buchstaben A, B, und C aus dem Kapitel 9.

  63. @netseal

    Das glauben sie doch nicht im Ernst? Wie weit liegen die Mittelwerte der drei Netze auseinander? Ich möchte behaupten das die Fehler eher in der Größenordnung dieser Differenzen liegen. Wie Tritium schon sagte, so ein Netz ist sehr subjektiv. Allein über die Platzierung der Messstellen könnte man Jahre diskutieren. Absurd wird es aber erst wenn man Messstellen verlegt.

    Noch einer, der intensiv nachgedacht hat. Man kann (worauf Sie sich wohl dunkel beziehen) Dinge zum Design und der Praezision der T-Messnetze sagen. Allgemein ist das Thema eigentlich als erledigt angesehen nach den Veroeffentlichungen der Berkeley Gruppe. http://berkeleyearth.org/

    Darum geht es hier ueberhaupt nicht. In Bild eins ist der Jahresmittelwert der drei Netzwerke eingezeichnet. Tritium ortete den naechsten groszen Betrug darin, wie dort die Unsicherheitsmargen angegeben sind. Er nahm an, die Balken zeigen irgendwie die Streung zwischen den drei Werten. Das ist aber falsch. Es ist (wahrscheinlich) die kombinierte Unsicherheit der drei Messnetze. Siehe Formel oben.

  64. Noch ein Artikel vom ehemaligen Skeptiker Richard Muller in er NYT

    When walking up stairs in a tall building, it is a mistake to interpret a landing as the end of the climb

    http://www.nytimes.com/2013/09/26/opinion/a-pause-not-an-end-to-warming.html?_r=0

  65. @Hoffmann: Bevor sie wieder über andere Menschen ablachen: Anscheindend können diese Überprüfungen aber auch nicht erklären, warum die Temperatur der letzten Jahre am Rande dessen ist, was die Modelle noch aus natürlicher Variabilität darstellen können.

  66. @ Tritium:
    Den Unfug mit den unbekannten systematischen Fehlern der Messung haben Sie aufgebracht, nicht ich. Also beschwerem Sie sich nicht bei mir darueber

    Ich geb’s auf -- die Diskussion hat wenig Sinn, solang die einfachsten Grundprinzipien der Statistik nicht verstanden werden (wollen?).

  67. @Segelboot

    Anscheindend können diese Überprüfungen aber auch nicht erklären, warum die Temperatur der letzten Jahre am Rande dessen ist, was die Modelle noch aus natürlicher Variabilität darstellen können.

    Das ist absolut richtig. Die aktuellen Erklaerungen drehen sich um multidekadische Ozeanzirkulation, ein Haufen kleiner Vulkane (von denen ich ehrlichgesagt nichts gehoert habe), schwache Sonne, ENSO produziert Konvektion die Wasserdampf in die Stratosphaere pumpt, wo es kuehlend wirkt, und industrielle Aerosole.

    Das ist ein schoener allgemeinvertraeglicher Artikel von Zeke Hausfather zu all den Moeglichkeieten, die so diskutiert werden.

    http://static.berkeleyearth.org/memos/examining-the-pause.pdf
    Die 255 Zetajoules (klasse Einheit) die nach Messungen in den Ozean seit 1970 gemischt wurden, entsprechen (waeren sie in der Atmosphaere geblieben) einer atmosphaerischen Erwaermung von 36Grad.

  68. #61
    Unter der Prämisse das die Netze statistisch fein verteilt sind.

    Man müsste die Messanweisungen schon vor beginn festgelegt haben. Nachträgliche Änderungen zerbrechen die Daten zum Zeitpunkt der Änderung.

    sqrt(3*0.07^2)=0.12

    Aber das ist ja net der Fehler bei Mittelwertbildung. Bei 3 Werten im Mittelwert mit gleicher Toleranz errechnet sich der mittlere Fehler zu dT/sqrt(3) in unserem Falle also 0.04C.

  69. Als Unbeteiligter hier kann ich es vielleicht wagen mal einige Teilnehmer der „Diskussion“ zu mehr Sachlichkeit anzuhalten. Dies trifft übrigens beide Seiten.

    Denn eigentlich gibt es hier sogar Berührungspunkte wo sich beide Seiten einig sind, so zum Beispiel das der Trend der vergangenen 15 Jahre so nicht erwartbar war aus den Klimamodellierungen. Die sich daraus ergebenden Schlüsse sind zwar wieder völlig unterschiedlich aber auch in dieser Hinsicht sollte man sich doch irgendwie sachlich auslassen können.

    Mich persönlich würde auch sehr interessieren warum denn Klimamodelle verschiedene Absoluttemperaturen berechnen (+-2°C?)? Warum sollte ich Trends dieser Modelle mit sehr großen Abweichungen glauben wenn sie nicht mal das IST beschreiben können?

  70. Wieder ein Fehler beseitigt, der hinterher immer noch da war

  71. Ich geb’s auf — die Diskussion hat wenig Sinn, solang die einfachsten Grundprinzipien der Statistik nicht verstanden werden (wollen?).

    😀
    Das war das vernünftigste, was Sie bisher sagten.

  72. @G. Hoffmann darf hier alles erzählen -- nur nicht --
    dass die Modellergebnisse mit der Realität übereinstimmen

    Die Alarmisten haben nun ein Problem, das sie sogar beim Treppensteigen (#65) mit sich tragen. (versuchts mal mit dem Fahrstuhl)

    @Wissenschaftler
    ich denke man kann voraussetzen, dass vor wissenschaftlichen Experimenten die Tauglichkeit der Meßverfahren überprüft wird.

  73. @netseal

    Man müsste die Messanweisungen schon vor beginn festgelegt haben. Nachträgliche Änderungen zerbrechen die Daten zum Zeitpunkt der Änderung.

    Wirklich keine Ahnung, was das in dem Zusammenhang hier bedeuten soll.

    Bei 3 Werten im Mittelwert mit gleicher Toleranz errechnet sich der mittlere Fehler zu dT/sqrt(3) in unserem Falle also 0.04C.

    Ich bin mir nicht sicher. Ich bin von Gausscher Fehlerfortpflanzung ausgegangen. Da tut man so als wuerden drei Messungen der Groesze T_glob unabhaengig durchgefuehrt. T_globa=1/3(NASA+GISS+CRU). In dem Fall waere die Unsicherheit eben gleich =sqrt(NASA_sigma^2+GISS_sigma^2+CRU_sigma^2).

    Man koennte aber die drei Abschaetzungen wie drei Messungen mit unterschiedlichen Instrumenten betrachten, deren Kalibrierung gegeneinander man nicht kennt. In dem Fall waere der Unsicherheitsbereich doch einfach der Maximalwert (also der groeszte moegliche Wert mit Unsicherheiten inklusive) bis zum Minimalwert. Das wuerde sich nur aendern, wenn man die drei Methoden irgendwie werten koennte, also etwa sagt, dass die GISS Methode n-mal schlechter sei als die NOAA Methode.

    Es wird hier jedenfalls nicht drei Mal gemessen und dann aus der Streuung die Unsicherheit berechnet. Das waere ja die klassische Standardabweichung sqrt(1/N-1* (NASA-Mittel)^2+(GISS-MITTEL)^2 + (CRU-Mittel)^2) was ungefaehr ihre Formel waere, denn das bedeutete ja, dass man mit dem gleichen Instrument (Verfahren etc) die gleiche Groesze gemessen haette.

    Ich gebe aber zu, dass ich mir schon deshalb nicht ganz sicher bin, weil die eigentlich verwandten Temperaturdaten fast die gleichen sind und also entgegen meiner Annahme man nicht sagen kann, dass sie unabhaengig voneinander sind, wie in meiner Formel oben.

    Weiss einer noch was zu dem Thema?

  74. @Helium

    Die sich daraus ergebenden Schlüsse sind zwar wieder völlig unterschiedlich aber auch in dieser Hinsicht sollte man sich doch irgendwie sachlich auslassen können.

    Wuesste jetzt gar nicht, welche Schluesse hier von dem meisten gezogen wuerden, ausser natuerlich, dass alles irgendwie eine grosze Luege ist.

    Mich persönlich würde auch sehr interessieren warum denn Klimamodelle verschiedene Absoluttemperaturen berechnen (+-2°C?)? Warum sollte ich Trends dieser Modelle mit sehr großen Abweichungen glauben wenn sie nicht mal das IST beschreiben können?

    Die unterschiedlichen Modelle machen eben vieles gar nicht mal so schlecht, obwohl meist die tropischen Temperaturen zu kalt sind. Sie haben eine meist realistische Klimatologie und manchmal sind sie nicht schlecht in der Darstellung bestimmter Variabilitaet. Sie koennen Paleo (also immer als Abweichung von ihrem teilweise zu kalten/zu warmen Ist-Zustand. Also hat man ein gewissen Vertrauen und schaut sich mal die Zukunft an. Die wichtigsten Prozesse etwa (es wird waermer, also kommt mehr Wasserdamof in die Atmosphaere etc ) sollten nicht soo super emmpfindlich auf den Istzustand reagieren. So etwa wuerde argumentiert.

  75. @Georg Hoffmann

    T_globa=1/3(NASA+GISS+CRU). In dem Fall waere die Unsicherheit eben gleich =sqrt(NASA_sigma^2+GISS_sigma^2+CRU_sigma^2).

    Nö. Die Varianzen addieren sich (statistische Unabhängigkeit der Fehler vorausgesetzt) auf, also ist sqrt(NASA_sigma^2+GISS_sigma^2+CRU_sigma^2) die Standardabweichung von NASA+GISS+CRU, nicht die von T_globa.
    Sie haben vergessen durch 3 zu dividieren.

  76. @Georg Hoffmann:

    Ich gebe aber zu, dass ich mir schon deshalb nicht ganz sicher bin, weil die eigentlich verwandten Temperaturdaten fast die gleichen sind und also entgegen meiner Annahme man nicht sagen kann, dass sie unabhaengig voneinander sind, wie in meiner Formel oben.

    Für die Fehleranalyse kommt es nur darauf an, daß die zufälligen Fehler der Messungen statistisch unabhängig sind. Das wird, wenn es sich um separat durchgeführte Messungen mit verschiedenen Instrumenten oder gar Methoden handelt, höchstwahrscheinlich der Fall sein.

  77. Ich bin mir nicht sicher. Ich bin von Gausscher Fehlerfortpflanzung ausgegangen. Da tut man so als wuerden drei Messungen der Groesze T_glob unabhaengig durchgefuehrt. T_globa=1/3(NASA+GISS+CRU). In dem Fall waere die Unsicherheit eben gleich =sqrt(NASA_sigma^2+GISS_sigma^2+CRU_sigma^2).

    Nee, http://wwwex.physik.uni-ulm.de/lehre/fehlerrechnung/node15.html

    Man müsste die Messanweisungen schon vor beginn festgelegt haben. Nachträgliche Änderungen zerbrechen die Daten zum Zeitpunkt der Änderung.

    Wirklich keine Ahnung, was das in dem Zusammenhang hier bedeuten soll.

    Ich würde schon sagen, wir brauchen uns über Fehler nach dem Komma garnicht zu streiten, wenn die Ziffern vor dem Komma noch fragwürdig sind. Verstehen sie wie die Messungen entstanden sind, die von 1870 -- 1970 herangezogen wurden. Da sind Werte zwar mit Uhrzeit, jedoch vermutlich größtenteils von Haupthandelsrouten mit irgendeiner Verteilung auf dem Erdball. Wie wollen sie diese vergleichen. Ganz zu schweigen von der Toleranz. Das müsste man erstmal untersuchen, welche Toleranzen sie da haben, ob sie da vielleicht sogar systematische Abweichungen haben. Das ist doch Schwachsinn. Echt jetzt.

  78. hm wenn ich das nun richtig verstanden habe (von dem seitenhieb mit der großen lüge seh ich mal ab) dann gibt es modelle die zwar klimavariabilitäten richtig hinbekommen und andere dinge aber halt nicht mit der richtigen temperatur laufen. gut, nehm ich mal so hin.

    die frage die sich mir aber dann stellt ist die nach positiven rückkopplung mittels wasserdampfs. wenn ein modell wärmer „ist“ als die realität dann müsste es auch mehr wasserdampf in der atmosphäre geben und dieser größere rückkoppelungen ergeben. dabei lasse ich nun mal die ganze wolkenproblematik aussen vor. dabei ist mir bewusst, dass vermutlich die bodennahe schicht nicht wirklich entscheidend ist für diese rückkopplungen, allerdings sollte sich ja auch bei höheren wasserdampfgehalten in der bodennahen schicht sich auch mehr in höhere atmossphärenschichten verirren.

    wie auch immer, das sind nun einfach so überlegungen aus dem hohlen bauch heraus

  79. @56 (Fluminist)

    Na wer weiß. Seither ist die CO2-Konzentration gesunken, die Größe der Pferde gestiegen. Steht uns als nächstes die menschengemachte Pferdeschrumpfung (anthropogenic horse shrinkage, AHS) ins Haus?

    Ich kann mit Ihrer in sich nicht schlüssigen/widersprüchlichen Aussage nichts anfangen – bin zu blöd, bitte um Aufklärung; oder: Witz komm raus ???

    @60 (Georg Hoffmann)

    „… Es gibt ja diese Haeckelsche Regel, demzufolge Tiere einer Art unter kalten und polaren Bedingungen groesser sind als ihre Verwandten aus mittleren Breiten. …“

    Nach der Bergmannschen Regel sind Tiere verwandter Arten tatsächlich in kälteren Gebieten größer als in Wärmeren. Bergmann wie auch Häckel (in anderer Sache) nahmen aber nicht auf CO2 Bezug.

    „… Warum eigentlich?“

    Wie gesagt: Die zur Verfügung stehende Biomasse war damals auf Grund optimaler Photosýnthese (schön warm, viel CO2) sehr groß; die von der Biomasse lebenden/abhängigen Folgeglieder der Nahrungskette hatten, schlicht gesagt, mehr/viel zum Fressen und waren dementsprechend wohlgenährt/größer. Das sind positive Evolutionsparameter. Einfacher aber: sie lebten halt wirklich im „Schlaraffenland“ , einer Klimaperiode, die von uns Menschen über den IPCC in ihrer Wiederkehr als so bedrohlich stigmatisiert wird – und das wider besseres Wissen, armer IPCC inklusive den dort „angestellten“ hochdotierten Spitzenwissenschaftlern.

  80. Also mal als Nicht-Klimatiker und Nicht-Statistiker (schlage mich berufsbedingt gelegentlich mit Medizinstatistik herum) formuliert:
    Das Wettbüro Eibsee International </strong>(EI) -Computersimulationen von künftigen Klimaszenarien sind ja Wetten auf die Zukunft und keine Fakten- bietet folgende Wette an:
    Von einem vom EI festgelegten Elfmeterpunkt aus schießen 50 verschiedene Teilnehmer auf ein Tor mit einem bestimmten Rahmen.
    EI wettet, daß, aufgrund interner Berechnungen, alle Schüsse das Tor treffen, die meisten davon die linke Torhälfte.
    Nachdem alle Teilnehmer auf das Tor geschossen haben, landeten sämtliche Schüsse rechts neben dem Tor.
    EI teilt Ihnen mit, daß Sie die Wette verloren haben, weil man nachträglich festgestellt habe, daß 1.) der Elfmeterpunkt eigentlich weiter links habe liegen müssen und 2.) das Tor nicht weit und hoch genug war.
    Die Wettgebühr wird Ihnen nicht rückerstattet, aber man werde Sie weiterhin gerne als Kunde wertschätzen.
    Natürlich werden Sie weiterhin zum Wettbüro Ihres Vertrauens, EI, gehen.

    Kurz noch zu der These, daß die Atmosphäre sich nicht erwärmt habe, weil die Ozeane die Wärme aufgenommen hätten:
    Sie haben ein Zimmer mit einem Ofen. Sie machen ein Feuer im Ofen. Luft und Wände erwärmen sich. Plötzlich erwärmt sich die Luft nicht weiter, weil jetzt nur noch die Wände die Wärme absorbieren. Rätselhafte Natur!

    Zum ersten Thema noch ein empfehlenswertes Post bei climateaudit.org ziemlich weit unter dem Artikel „Fixing the Facts“, das wie ich finde, die statistischen Malaisen des Themas gut und verständlich erklärt:
    rgbatduke, 1. Okt., 2:17 PM, („Gummibärchen und Akne“)
    Ließ sich aufgrund der Größe des Posts leider nicht hier reinkopieren. MfG

  81. Denn eigentlich gibt es hier sogar Berührungspunkte wo sich beide Seiten einig sind, so zum Beispiel das der Trend der vergangenen 15 Jahre so nicht erwartbar war aus den Klimamodellierungen. Die sich daraus ergebenden Schlüsse sind zwar wieder völlig unterschiedlich aber auch in dieser Hinsicht sollte man sich doch irgendwie sachlich auslassen können.

    Mich persönlich würde auch sehr interessieren warum denn Klimamodelle verschiedene Absoluttemperaturen berechnen (+-2°C?)? Warum sollte ich Trends dieser Modelle mit sehr großen Abweichungen glauben wenn sie nicht mal das IST beschreiben können?

    Beides hat eine gemeinsame Ursache: Die Klimamechanismen sind nicht ausreichend verstanden.

    Die schliche Kritik daran beginnt damit, dass langfristige chaotische Vorgänge ohnehin nicht vorhersehbar sind.
    Wenn sie aber schon kurzfristig nichts taugen, ist das Modell ohnehin diskreditiert.
    Wir haben für die letzten 15 Jahre hochpräzise COO2-Werte, sind also nicht auf Schätzungen unter Einbeziehung möglicher wirtschaftlicher, politischer und technologischer Szenarien angewiesen wie bei Vorhersagen zum Jahr 2100. Dementsprechend genau müssten darauf kalibrierte Modelle arbeiten -- tun sie aber nicht.

    Erschwerend kommt dazu, dass immer wieder betont wird, wie einzigartig die Situation ist, in der wie uns befinden, niemals zuvor in der jüngeren Vergangenheit der Erde, speziell dem Holozän, gab es etwas vergleichbares wie die menschliche CO2-Freisetzung. Damit gibt es auch überhaupt keine Möglichkeit, die Modelle zu testen. Die Wettervorhersage wurde durch tausende von Versuchen optimiert, in denen man Prognose mit Realität abglich und so stetige Verbesserungen fand. Dieser Weg ist für den CO2-Einfluss auf das Klima verwehrt.
    Alles, was wir haben ist EIN Fall, den wir beobachten müssen und wenn dieser eine Fall nun den Modellen widerspricht, müssen die genau daran angepasst werden -- und werden natürlich wieder falsch sein.

    Als letztes muss natürlich die Integrität betrachtet werden. Der IPCC ist eine politische Institution und uns soll etwas verkauft werden. Wir müssen uns deshalb in klaren darüber sein, dass das, was wir hören, die Aussagen von Dr. Marlboros sind, die statt für die Tabakindustrie für die Klimaindustrie arbeiten. Das heisst keineswegs, dass sie lügen. Aber die Statements müssen mit Vorsicht und Mißtrauen betrachtet werden.

  82. Geht Bild einfügen nicht?

    Bild

    Georg,

    noch hören genug zu, sie glauben auch die Verdopplung der Gläubigkeit des IPCC an menschgemachte GW. Also ruhig Blut, deine Chefs haben noch das Sagen. Erst wenn die letzten Gläubigen das Brett verlassen wird es brenzlig, also rechtzeitig abspringen 😉

  83. Nach der Bergmannschen Regel sind Tiere verwandter Arten tatsächlich in kälteren Gebieten größer als in Wärmeren. Bergmann wie auch Häckel (in anderer Sache) nahmen aber nicht auf CO2 Bezug.

    Das hat in der Tat nichts mit CO2 und nicht einmal etwas mit dem Futterangebot zu tun:
    1. Die Tropen sind meist dicht bewaldet, das fördert kleine, ’schlüpfrige‘ Exemplare.
    2. Grosse Warmblüter strahlen im Verhältnis zur Körpermasse weniger Wärme ab (Quadrat-Kubik-Regel), was in kalten Regionen eine Menge Energie spart

  84. (“Gummibärchen und Akne”)

    Da hab‘ ich was schönes für Sie:
    Steven Milloy: Science Without Sense

    (In sagen Sie nicht, Sie wären ein Nicht-Statistiker -- Sie haben nämlich ein gutes Gespür un den Verstand dazu, snst hätten Sie das nicht gepostet)

  85. Na wer weiß. Seither ist die CO2-Konzentration gesunken, die Größe der Pferde gestiegen. Steht uns als nächstes die menschengemachte Pferdeschrumpfung (anthropogenic horse shrinkage, AHS) ins Haus?

    Da kann die Klimawandeldebatte lustig werden. Habe herzlich gelacht.

  86. @ 85 (Tritium)

    1. Die Tropen sind meist dicht bewaldet, das fördert kleine, ‘schlüpfrige’ Exemplare.

    „dicht bewaltet“ ist eine Folge/Luxussache höherer Biomasse in sich (auch im Ökosystem-Kreislaufabschnitt Destruenten —> Produzenten ), aber „schlüpfrige“ Exemplare passt nicht so recht (wenn man z.B. an die damals „in CO2-haltigen Zeiten“ lebenden Dinosaurier denkt (die waren, glaube ich, recht groß, teilweise).

    Ich will aus dieser biologischen Perspektive heraus nur darauf hinweisen, dass wir uns von IPCC und in Folge Politik nicht „so narrisch machen“ lassen sollten; wenn es (moderat) wärmer wird, geht es uns besser !!!

    Lasst doch die gekauften IPCC-ler weiterhin ihre Jahrhundert (komerzdienlichen) -lügen verbreiten: irgendwann bricht das Lügengebäude zusammen wie schon so oft in unserer Geschichte.

    Nochmals: Werden denn die kalten Jahrhunderte /kleine Eiszeit bis 1850 mit der Pestbegleitung / Hungersnöten und Millionen von Toten einfach vergessen; wollen wir wieder in solche Kältezyklen oder nicht lieber in wärmere (ich wiederhole mich: Schlaraffenland-) Zeiten ?!

  87. Habe herzlich gelacht.

    Was gibt’s da zu lachen?

  88. @Helium
    Das sind voellig richtige Ueberlegungen. Wasserdampf geht mit Clausius-Clapeyron und ist also nicht linear. Sind die Feedbacks also noch richtig wenn and einer bestimmten Stelle der Ozean etwa um 1 Grad zu kalt ist?
    Kein Modell ist perfekt, einige sind aber nuetzlich. Ein Blick auf die riesige Zahl von Studien, was man alles nuetzliches damit machen kann, lohnt sich. Sich irgendein Manko herauszusuchen und felsenfest zu behaupten, also jetzt geht gar nichts mehr, ist nicht nur nicht wissenschaftlich sondern geradezu albern (Tritium). Es gibt unzaehlige und vielgenutzte Modelle und bei allen funktioniert irdendetwas nicht so gut.

  89. Sich irgendein Manko herauszusuchen und felsenfest zu behaupten, also jetzt geht gar nichts mehr, ist nicht nur nicht wissenschaftlich sondern geradezu albern (Tritium).

    Naja, diese Modelle sind wohl schon dazu geeignet die Erwärmung herbeizurechnen, von daher ist ihre Anwendung für diesen Zweck ja auch gerechtfertigt.

  90. @Tritium #89

    Was gibt’s da zu lachen?

    Oh Gott, ist es schon so weit? — Übrigens ist nicht nur die Größe, sondern auch die Zahl der Hauspferde in den letzten 100 Jahren mit wachsendem CO2-Ausstoß zurückgegangen. Sehr bedenklich!

    @Rolf Krahmer #81
    Sorry, could not resist. Es war selbstverständlich nicht meine Absicht, Ihre ernstgemeinten Überlegungen in den Kakao zu ziehen.

    @Georg Hoffmann #90

    Kein Modell ist perfekt, einige sind aber nuetzlich.

    Das ist jetzt aber schon ein Witz, oder?

  91. Fassen wir also zusammen: die IPCC-Modelle der Vergangenheit und Gegenwart sind fehlerhaft (=nicht perfekt), werden aber stetig nachgebessert, wenn sich das Wissen der Klimamodellierer erweitert.

    Die Modelle kennen vom Jahr 1990 nur seinen CO2 gehalt, sonst nichts. Kein Niño, kein Niña.

    Das man dann wohl korrigiert. Nun hat man das „Problem“ dass die Globaltemperatur nicht steigt, man also ein Plätzchen für die „verschwundene“ Wärme suchen muss

    Die aktuellen Erklaerungen drehen sich um multidekadische Ozeanzirkulation, ein Haufen kleiner Vulkane (von denen ich ehrlichgesagt nichts gehoert habe), schwache Sonne, ENSO produziert Konvektion die Wasserdampf in die Stratosphaere pumpt, wo es kuehlend wirkt, und industrielle Aerosole.

    Für die Zukunft sind also bessere Modelle zu erwarten. Wenn ich jetzt schließe, dass der Einfluss des CO2 in den Modellen weiter sinken wird (1990 nur CO2, dann noch Niño/Niña, dann noch …Aerosole(?) usw …), liege ich dann so falsch?

    Gruß vom Segelboot

    PS: Das verlinkte Übersichtspaper ist gut

  92. @Fluminist

    Na ja. Das ist doch sogar „very likely“ dass Modelle nützlich sind.

    Die Frage ist ja letztendlich, ob die Modelle geeignet sind die Ursachen des Klimawandels zuzuordnen.

    Wenn ich das jetzt richtig verstanden habe, wird da auf Basis der Klimamodelle unter Klimaforscher abgestimmt.

    So kommt diese „Likely“ Skala zustande.

    Das ganze ist dann ja im Grunde Glaubenssache.

    Grüße
    Günter Heß

  93. @ Hoffmann

    Das Problem ist aber doch, dass man a priori nicht weiss welche Modelle für was taugen. Wenn ich die Feedbacks nicht richtig hinbekomme taugt das ganze vielleicht kurzfristig noch einigermaßen, langfristig stochere ich aber völlig im Nebel. Kurzfristig gibt es jetzt aber auch gewisse Probleme mit den Trends der Modelle. Was heissen kann, dass die Feedbacks nicht richtig erfasst wurden, oder dass ich was anderes Wichtiges übersehen habe.

  94. Übrigens ist nicht nur die Größe, sondern auch die Zahl der Hauspferde in den letzten 100 Jahren mit wachsendem CO2-Ausstoß zurückgegangen. Sehr bedenklich!

    Bedenklich?
    Ganz im Gegenteil!
    Dank der segensreichen Wirkung des CO2- induzierten AHS wurde unsere Zivilisation vor der drohenden HMC (Horse Manure Crisis) gerettet!

    In New York in 1900, the population of 100,000 horses produced 2.5 million pounds of horse manure per day, which all had to be swept up and disposed of.
    (See Edwin G. Burrows and Mike Wallace, Gotham: A History of New York City to 1898 (New York: Oxford University Press,1999).
    In 1898 the first international urban- planning conference convened in New York.
    It was abandoned after three days, instead of the scheduled ten, because none of the delegates could see any solution to the growing crisis posed by urban horses and their output.
    The problem did indeed seem intractable. The larger and richer that cities became, the more horses they needed to function. The more horses, the more manure.
    Writing in the Times of London in 1894, one writer estimated that in 50 years every street in London would be buried under nine feet of manure. Moreover, all these horses had to be stabled, which used up ever-larger areas of increasingly valuable land. And as the number of horses grew, ever-more land had to be devoted to producing hay to feed them (rather than producing food for people), and this had to be brought into cities and distributed—by horse-drawn vehicles. It seemed that urban civilization was doomed.

    Im Jahr 1900 produzierten in New York 100.000 Pferde täglich rund 1,15 Millionen Kilogramm Pferdemist, der entsorgt werden musste.
    Die erste internationale Stadtplanungskonferenz, die im Jahr 1898 in New York abgehalten wurde, endete schon nach drei Tagen statt er geplanten zehn weil keiner der Delegierten eine Möglichkeit sah die drohende Krise abzuwenden, die von den Pferden und ihrem Mist ausging.
    Dieses Problem schien tatsächlich unlösbar zu sein, denn je grösser und reicher die Städte wurden, desto mehr Pferde wurden zur Versorgung benötigt. Je mehr Pferde es aber gab, desto mehr Mist wurde produziert.
    In der Londoner Times schrieb ein Autor 1894, dass in 50 Jahren alle Strassen unter schätzungsweise drei Meter Mist begraben sein würden. Darüberhinaus wurden für alle diese Pferde auch Ställe benötigt die immer mehr des immer wertvolleren Lands in Anspruch nahmen. Und wenn die Zahl der Pferde zunimmt, muss entsprechen mehr Land für die Erzeugung von Pferdefutter statt für Lebensmittel eingesetzt werden und das Pferdefutter muss in die Städte gebracht und verteilt werden -- Mit Pferdefuhrwerken.
    Es schien, als ob die urbane Zivilisation dem Untergang geweiht sei.

  95. @Tritium

    Aber das zeigt ganz klar den Vorteil dezentraler Energieversorgung und erneuerbarer Energie.
    Jetzt hätten die nur noch einen Bioreaktor für die Pferdeäpfel gebraucht und dann hätte man schon damals die Kohlekraftwerke abschalten können und die Atomkraftwerke quasi pränatal verhindern können.

    Und wer ist schuld daran, dass diese nachhaltige Energieversorgung durch Pferde und Pferdeäpfel nicht entstand.
    Die Marktwirtschaft und die böse Automobilindustrie. Die haben damals ein EEG verhindert.

  96. #96. Tritium

    In der Londoner Times schrieb ein Autor 1894, dass in 50 Jahren alle Strassen unter schätzungsweise drei Meter Mist begraben sein würden.

    Ein schönes Beispiel dafür, das Alarmismus kein Produkt der heutigen Zeit ist, sondern schon damals wundersame Blüten trieb 🙂

    karl.s

  97. @ Günter Heß # 97:

    Vor allem wäre die HMC eine Gelegenheit gewesen, alle Register der ‚Transformation‘ zu ziehen und ich bin sicher, dass all das damals auch gedacht und gesagt wurde:

    -- Zuoberst natürlich: Hohe Steuern auf Pferde!
    -- Lob des ökologischen Lebens auf dem Land, wo der Mist in natürlichen Kreisläufen dem Boden wieder gegeben wird.
    -- Abkehr von Luxus und Wohlleben, weil all diese materiellen Dinge nur die HMC verschärfen („Der Transport von nur einer Flasche Wein nach New York verursacht 4,5 Pfund Pferdemist!“)
    -- Ökologisches Zu-Fuß-gehen statt Pferdekutschen, Ausbau von Fußwegen um das zu fördern (Vielleicht sogar Hybrid-Antriebe mit Tretkurbeln für die Passagiere?)
    -- Förderung des Vegetarismus, da Fleischkonsum die schädliche Mistproduktion vermehrt. Zu diesem Zweck Einführung eines Veggie-days pro Woche.
    -- Rikschas statt Droschken, gefördert durch festgelegte höhere Tarife und Vorrang-Einsteigung, d. h. Pferdedroschken dürfen erst dann Fahrgäste mitnehmen, wenn keine Rikschas bereitstehen.

    Oder gleich ein ‚Maßnahmebündel‘?

    Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation:
    -- Den gestaltenden Staat mit erweiterten Partizipationsmöglichkeiten ausbauen
    -- Mist-Bepreisung global voranbringen
    -- Europäisierung der Mistpolitik ausweiten und vertiefen
    -- Ausbau mistfreier Transportmittel durch Transporttarife international beschleunigen
    -- Nachhaltige Mistdienstleistungen in Entwicklungs- und Schwellenländern fördern
    -- Rasante Urbanisierung nachhaltig gestalten
    -- Mistverträgliche Landnutzung voranbringen
    -- Investitionen in eine mistverträgliche Zukunft unterstützen und beschleunigen
    -- Internationale Pferde- und Mistpolitik
    -- Internationale Kooperationsrevolution anstreben
    (Die ‚Internationalisierung‘ ist beim Pferdemist nicht so offensichtlich wie beim CO2-Ausstoß, auf den sie die obigen Forderungen natürlich im Original beziehen. Aber mit etwas guten Willen lässt sich das ohne weiteres konstruieren, z.B. indem man sagt, einseitige, nationale Pferdesteuern würden die Wettbewerbsfähigkeit mindern und ‚Vorreiter‘ benachteiligen, weshalb sie eben überall, europäisch und global, gleichzeitig und gleich hoch eingeführt werden müssen)

    Man sieht sehr gut, dass der aktuelle Anlaß, sei es Energie oder Pferdemist, gar keine Rolle spielt. Er dient nur als Vehikel für ganz andere Interessen.

  98. @Helium

    Das Problem ist aber doch, dass man a priori nicht weiss welche Modelle für was taugen. Wenn ich die Feedbacks nicht richtig hinbekomme taugt das ganze vielleicht kurzfristig noch einigermaßen, langfristig stochere ich aber völlig im Nebel.

    Nun darum machen wir ja was wir machen. Die Modelle sind auf allen nur denkbaren Zeitskalen getestet. Vom Cambrium bis zum Holozaen. Warum glauben Sie so sicher, dass wir da im Nebel herumstochern? Haben Sie sich das schon mal angesehen?

    @Segelboot

    werden aber stetig nachgebessert, wenn sich das Wissen der Klimamodellierer erweitert.

    Man stelle sich nur mal vor, das waere nicht so.

    Das man dann wohl korrigiert.

    Nein. Es gibt Leute die sich fuer Anfangswertprobleme (ie dekadische Voraussagen interessieren). Fuer die IPCC Szenarios ist es voellig irrelevant. Klima soll durch die Modelle in einem statistischen Sinne beschrieben werden. Ob es im ersten Jahr nun ein Niño im Modell gab, ist irrelevant.

    enn ich jetzt schließe, dass der Einfluss des CO2 in den Modellen weiter sinken wird (1990 nur CO2, dann noch Niño/Niña, dann noch …Aerosole(?) usw …), liege ich dann so falsch?

    Ich denke schon. Es gibt eigentlich einen „einfluss des CO2“ in den Modellen. Das CO2 wird in Strahlungsfluesse umgerechnet, die in sich aendernde Temperaturgradienten resultieren. Das gleiche tut aber meinethalben auch die Sonne, das H2O, die Wolken. Es gibt keinen Knopf der den EInfluss des CO2 aenderte.

  99. @Fluminist

    Für die Fehleranalyse kommt es nur darauf an, daß die zufälligen Fehler der Messungen statistisch unabhängig sind. Das wird, wenn es sich um separat durchgeführte Messungen mit verschiedenen Instrumenten oder gar Methoden handelt, höchstwahrscheinlich der Fall sein.

    Der Faktor drei fehlt. Stimmt. Dann verstehe ich nicht wie die Fehlerbalken in Bild1 zu erklaeren sind. Das waere dann nur noch 0,04, also klar weniger als ich so mit dem Auge schaetze.
    Unterschiedliche Institute berechnen T_Global auf unterschiedliche Weise aber mit fast den gleichen Grunddaten. Das sind sicher keine separat durchgefuehrte Messungen einer Groesze. Vielleicht also, wie ich oben vorschlug, haben sie den maximalen Wert und den minimalen Wert der drei T_Globs genommen und als Gesamtunsicherheitsbereich angegeben. Zumindest graphisch passt das.

  100. @segelboot
    Ersetze oben natuerlich: Es gibt KEINEN „EInfluss des CO2“ in den Modellen.

  101. Fuer die IPCC Szenarios ist es voellig irrelevant. Klima soll durch die Modelle in einem statistischen Sinne beschrieben werden. Ob es im ersten Jahr nun ein Niño im Modell gab, ist irrelevant.

    🙂
    Danke für diese Erläuterung. Jetzt weiss ich endlich, warum die finale IPCC-Grafik diese vielen, sich überlagernden und wild zackenden Spaghetti-Graphen hat.
    Weil das IPCC das Klima statistisch beschreibt…

  102. @Hoffmann

    Mal eine Frage. Ich finde eigentlich den AR5 beim überfliegen erstmal deutlich vager als den AR4.
    Mehr „Likely“ statt Ergebnisse.
    Ist da mein Eindruck richtig?
    Mich würde da ihre Meinung interessieren. Wie gesagt ist nur ein Eindruck.

    Mit freundlichen Grüßen
    Günter Heß

  103. @Hoffmann:

    Es gibt eigentlich einen “einfluss des CO2″ in den Modellen. Das CO2 wird in Strahlungsfluesse umgerechnet, die in sich aendernde Temperaturgradienten resultieren. Das gleiche tut aber meinethalben auch die Sonne, das H2O, die Wolken. Es gibt keinen Knopf der den EInfluss des CO2 aenderte.

    Absolut natürlich nicht, aber relativ zu anderen Faktoren. Es macht einen Unterschied, ob die Strahlungsflüsse nun von 7 Faktoren abhängen, oder 27, die sich gegenseitig beeinflussen. Das relativiert natürlich den Einfluss der einzelnen Parameter

  104. @Georg Hoffmann 39
    Wenn man die Zeitskala ändert, hat man ein neues Modell, welches sich ersteinmal Experimenten stellen muß.

    Und wie es aussieht ist der Test gerade negativ ausgefallen und zig Modelle müssen/müssten zurück auf die Werkbank.

    mfg

  105. @Tritium

    Weil das IPCC das Klima statistisch beschreibt…

    Man kann fast nicht glauben, dass jmd der sein halbes Leben damit verbringt, Bloedsinn zu dem Thema zu schreiben, selbst das nicht weiss.

    @Hess

    Ist da mein Eindruck richtig?

    Kann ich erstmal nicht so bestaetigen. Aber ich hab bisher auch nur ein paar Seiten gelesen. Was sich naemlich mit Sicherheit geaendert hat ist das Volumen. Es ist praktisch das Doppelte vom AR4. Unglaublich. Mut zur Luecke, waere da manchmal nicht schlecht.

    @Segelboot

    Absolut natürlich nicht, aber relativ zu anderen Faktoren. Es macht einen Unterschied, ob die Strahlungsflüsse nun von 7 Faktoren abhängen, oder 27, die sich gegenseitig beeinflussen. Das relativiert natürlich den Einfluss der einzelnen Parameter

    So funktioniert das nicht. Ich hab jetzt keine Zeit das vernuenftig zu erklaeren. Aber nur so viel. Der Strahlungsanteil ist an sich unumstritten und fix. Aber im Grunde wird alles dauernd verbessert und weiterentwickelt. Das ist wie eine riesige Werkzeuhalle.

    @mrotz

    Wenn man die Zeitskala ändert, hat man ein neues Modell, welches sich ersteinmal Experimenten stellen muß.

    Ich habe doch gerade gesagt, dass das schon laengst gemacht ist.
    Etwa hier http://pmip.lsce.ipsl.fr/

  106. @Hoffmann tönt mal wieder

    Es ist beruhigend zu wissen, dass die Klimaexperten am realen Klima so gut wie Nix werkeln können.

    Frage an GH:

    Stimmt es, dass die absolute, global gemittelte Temperatur im Winter (NH) um ca. 2 K abfällt?
    Wenn ja, dann müssen wir fürs nächste Halbjahr keine Klimakatastrophe befürchten, oder ist da meine Logik falsch?

  107. @qLeser

    Wenn ja, dann müssen wir fürs nächste Halbjahr keine Klimakatastrophe befürchten, oder ist da meine Logik falsch?

    Welche Logik?

  108. @hoffmann

    Ich bin nicht davon überzeugt, dass Sie (und Ihre Kollegen) mit Ihren Modellen im Nebel stochern. Ich frage, weil mich die Antwort darauf interessiert. Dass Sie Ihre Modelle testen ist mir durchaus bewusst, ebenso wie mir bewusst ist, dass ein Modell natürlich nicht einen in der Zukunft liegenden Vulkanausbruch vorhersehen kann oder auch nur eine exakte Aussage über die zu erwartende Mitteltemperatur im nächsten Jahr. Dies ist für mich auch nicht der Punkt.

  109. Tritium #96,

    In der Londoner Times schrieb ein Autor 1894, dass in 50 Jahren alle Strassen unter schätzungsweise drei Meter Mist begraben sein würden. Darüberhinaus wurden für alle diese Pferde auch Ställe benötigt die immer mehr des immer wertvolleren Lands in Anspruch nahmen. Und wenn die Zahl der Pferde zunimmt, muss entsprechen mehr Land für die Erzeugung von Pferdefutter statt für Lebensmittel eingesetzt werden und das Pferdefutter muss in die Städte gebracht und verteilt werden — Mit Pferdefuhrwerken.
    Es schien, als ob die urbane Zivilisation dem Untergang geweiht sei.

    Hier sieht man schön den Hintergrund unserer vorherrschenden Ideologie von den Grenzen des Wachstums.
    Sie falsifiziert sich selbst, wenn man sie in der Vergangenheit überprüft. Ressourcen sind dank Technologieentwicklung nie endlich, Wachtumsprozesse sind nie exponentiell verlaufend.
    Angst nie notwendig, es sei denn, diese Jünger bekommen die Macht über die weitere menschliche Entwicklung.

    Bei Eike kam mir einmal dieser Ketterer, hat in den USA studiert, mit Boulding.
    ER konnte mir keine Ressource nennen, die in der Vergangenheit endlich war. Er sagte wörtlich, die antiken Wälder und und die Flußauen. Ich sagte ihm, ich war erst am Mittelmeer, die Wälder sind noch da und die Flußauen könne man auch wiederherstellen..
    Auch exponentielles Wachstum konnte er mir praktisch nicht nennen, er sagte Wachstum Bakterien und Zinseszins. Ich sagte ihm, letztlich gab es auch hier nur logistische Funktionen.
    Er konnte mir auch nicht sagen, welche Ressourcen denn unsere Vorfahren vor 150 Jahren für uns heute hätten aufheben sollen, wusste er auch kein Beispiel.

    Mit den Pferden kann er sicherlich auch nichts anfangen. Überbevölkerung und Ressourcenknappheit sind wohl so fest im Gehirn verankert, dass man da nicht mehr rankommt?

  110. @ Rassbach # 111:
    Siehe Von Ressourcen und Rohstoffen – Eine Zeitreise

  111. Scientific Critique of IPCC’s 2013 ‘Summary for Policymakers’
    Posted on October 19, 2013 by Anthony Watts

    (PDF of this report also available below)

    by Craig D. Idso, Robert M. Carter, S. Fred Singer, and Willie Soon*
    Introduction

    The United Nations’ Intergovernmental Panel on Climate Change (IPCC) released a final version of the Summary for Policymakers (SPM) of its Fifth Assessment Report on September 27, 2013. It differs in important ways from a draft SPM dated June 2013 that circulated widely in the preceding months.

    As discussed below, the new SPM reveals the IPCC has retreated from at least 11 alarmist claims promulgated in its previous reports or by scientists prominently associated with the IPCC. The SPM also contains at least 13 misleading or untrue statements, and 11 further statements that are phrased in such a way that they mislead readers or misrepresent important aspects of the science.

Schreibe einen Kommentar