Nun ja, damit hat man ein zweischneidiges Schwert geschaffen, in der Tat ist es lobenswert nicht versuchen zu wollen global die Witterung vorherzusagen, aber lokal und präziser, das klingt nach Wetter-Vorhersage und die ist schon nach 3 Tagen zu unpräzise.
Selbst wenn man hier von langsamen Vorgängen ausgeht, was die Wissenschaftler hier benutzen sieht verdammt nach einem Finite-Elemente Programm aus, dass einfach verschiedene Punkte oder Elemente mit Daten wie Temperatur/Druck etc. belegt und dann nach gewissen Verbindungsgleichungen die Einflüsse und Verschiebungen bei einem Energiestrom von X Watt berechnen.
Mit derlei Berechnungen habe ich persönlich nun doch etwas Erfahrung machen wir das doch in der Produktionstechnik durchaus auch im Kleinen in regulierten abgesteckten Umgebungen. Und selbst hier ist eine Genauigkeit von 1 °C Abweichung beinahe unerreichbar. Jetzt will mir die Bundesregierung erzählen, dass diese Genauigkeit bei einem Modell der Größenordnung Deutschlands, bei einem AWP (Anfangswertproblem) und einer Randbedingungsdichte eines globalen recht chaotischen Klimas eine Veränderung von 0.5-1 °C aufzeigen kann?!
Ich glaube da leidet jemand an Größenwahn, denn selbst wenn alle LUftströmungen bekannt wären, der Energie-Flux als Randbedingung ist nicht definit, da die Wolkenbildung einen enormen Fehlerwert einführen. Es würde mich auch interessieren, woher sie denn die genauen Daten für Vegetationsbedingungen oder "Wasserfilmen auf Pflanzen" her haben. Wären solche Daten frei verfügbar, hätte man schon länger in den USA umfassende Modeller erstellt.
Und so steht auch in dem Spiegel-Artikel ganz am Ende geschrieben, dass die Wissenschaftler dies nur als durchschnittliche "Wetterprognose" verstanden wissen wollen, da die Datenbasis doch eher unsicher ist (viel geschätzt)... Guestimation als Planungsgrundlage für Politiker aller Couleur... Reizend.
No comments:
Post a Comment