Nachdem ich jetzt ein bisschen Zeit hatte mir das gesamte Paper durchzulesen, bin ich wirklich von der Qualität überrascht. Mr. Watts hat als Privatperson wirklich viel Zeit und Mühe in die detaillierte Ausarbeitung gesteckt und wenn die kritisierten öffentlichen Einrichtungen (NASA, Hardley CRU etc.) nur einen Funken Verstand haben, sollten sie sich das Paper zu Herzen nehmen.
Watts kritisiert zu Recht den Zustand des globalen Oberflächentemperaturmessungs-Netzwerkes, auch wenn er dies ein paar mal mit einem überzogenen Ton macht. Ich bin kein Fan von aggressiver Kritik, in der dann auch noch die geleakten Emails vom Climategate zitiert werden. So etwas passt einfach nicht in ein seriöses wissenschaftliches Paper und zeugt gleichfalls auch von nicht so guten Manieren. Wenn man jedoch davon absehen kann, dann ist diese Zusammenstellung ein Goldsegen für jeden, der einen Überblick über die Situation finden möchte, in der sich das landgestützte Netzwerk befindet.
Watts hat hierbei, im Gegensatz zu GISS und Hardley, einen Haufen Amateure zu seiner Unterstützung und kann auf deren Observationen (nach dem Handbuch für Temperature Stations Siting) zurückgreifen. Dadurch konnte er mit geringen finanziellen Mitteln ein besseres Auditing des Netzwerkes durchführen, als die öffentlichen Institutionen. Dafür sollte man ihm danken und nicht ihn verteufeln. Es ist nicht überraschend, dass interessierte Privatpersonen in eigener Regie hier bessere Arbeit abliefern, als eine dysfunktionale Regierungsbehörde. Es ist auch nicht überraschend, dass diese bei der Maintenance eines solchen Netzwerkes versagt. Man sollte jedoch daraus lernen. Es gibt mehrere Schlussfolgerungen und Punkte, die man aus diesem Paper mitnehmen kann:
- Amateure, die das Siting überprüfen sind billige Arbeitskräfte, die dennoch einen guten Job machen können. Man sollte sich das zu Herzen nehmen und es nicht verteufeln
- Metadaten über Stationen sind sehr wichtig
- Rohdaten müssen aufgehoben werden und sind wichtiger als bearbeitete Daten
- Bearbeitungen der Temperaturdaten führen zu Qualitätsverlusten und sollten überdacht werden.
- Die Qualität des Netzes ist durch Schließung von Stationen erheblich gesunken
- Satellitentemperaturdaten sind präziser und sollten Bodenstationen ablösen
- Unsicherheiten bei 100 Jahre alten Stationen sind sehr groß, damit sind Aussagen über die letzten 100 Jahre unpräzise und wertlos
- 30 Jahre Satellitendaten sind zu wenig für eine sichere Aussage, aber Bodenstationen bieten keine Alternative
- Das gesamte Netzwerk müsste überprüft und neu justiert werden, um Bearbeitungsfehler, Sitingprobleme und UHI (Urban Heat Islands) Probleme zu beseitigen
- Wassertemperaturmessungen vor 2003(Argo-Projekt) sind ungenau und auf die nördliche Hemisphäre begrenzt, d.h. keine globalen Temperaturen vorhanden.
- Messmethode BTX war ungenau, da vom Schiff aus getätigt und erheblich fehlerbehaftet.
- Probleme wurden unter den Tisch gekehrt und Anmerkungen nicht bearbeitet (typisches Bürokratieproblem)
Es gibt noch einen Haufen mehr, aber dies alles reicht schon, um die Datengrundlage der letzten 100 Jahre in schlechtes Licht zu stellen. Ich stimme mit den Jungs von RealClimate überein, wenn sie sagen, dass Wassertemperatur ein besserer Indikator ist, als Lufttemperaturen, da der Energiespeicher Meer das Klima entscheidend mit beeinflusst und die Reaktion des Speichers eher träge ist (große Kapazität). Es würden sich also generelle Trends besser ablesen lassen, jedoch haben wir zuverlässige Werte für knapp 7 Jahre. Und hier trifft ein anderes Axiom der RealClimate-Leute zu, beim Klima kann man aus kurzfristigen Perioden nichts herauslesen, da die Schwankungsbreite durch natürliche Wetterphänomene zu groß ist (El Nino, Nina, Pazifische Oscillation etc.). Jeder lange Trend würde bei 7 Jahren nicht auftauchen, da er von den kurzen aber heftigen Oszillationen maskiert wird.
Wir haben also 30 Jahre Satellitendaten und 7 Jahre zuverlässigere Meerestemperaturen und daraus wollen wir eine Prognose für das Klima formen. No Way.
No comments:
Post a Comment