Werbung

Busse für Wetter-Fehlprognose

Erdbeben, Kameras, Forumkritik usw.
Benutzeravatar
Marco (Hemishofen)
Beiträge: 1364
Registriert: So 23. Jun 2002, 18:15
Geschlecht: männlich
Wohnort: 8261 Hemishofen
Hat sich bedankt: 250 Mal
Danksagung erhalten: 546 Mal

Busse für Wetter-Fehlprognose

Beitrag von Marco (Hemishofen) »

@Cyba:

Hallo, ich kann's versuchen, mal kurz zu umreissen, was so ein Modell macht wenn's proggt.

1. Zuerst muessen mal die Randbedingungen vorhanden sein. D.h. von einem globalen Modell
(EZ,NOGAPS, GFS, UKMO uvm....) werden die prognostischen Variablen (meist mind. T,p,u,v,q)
am Rand des Ausschnitts des Mesomodells bereitgestellt. Fuer die Analyse zusaetzlich auch
an den Gitterpunkten innerhalb der domain. Typischerweise arbeiten state of the art Modelle
mit Gitterweiten von 2km (NMM) bis 30km (Europa-Ausschnitte). In der vertikalen sollten
fuer eine gute Repraesentation von Inversionen die Schichten nicht mehr als 100m auseinander
sein. Des ergibt rund 40 bis 60 Schichten bis in die Stratosphaere hinein.
Die globalen Modelle haben eine Aufloesung von 30-60km (EZ plant in Baelde auf 15km global runter zu gehen!).
Der input des globalen Modells muss also zuerst mal interpoliert werden, auf das viel feinere Gitter des
Mesomodells. In diesem Schritt kann man naeher andie Realitaet gelangen, indem man zusaetzliche
Messdaten (typischerweise Sondierungen, Fernerkundungsdaten wie Windfelder (ueber dem Meer!)
oder Radardaten) assimiliert. Also man versucht, die Modelldaten von Anfang an, "so nahe
wie moeglich zu den realen Messwerten hinzuziehen". Hier gibt's verschiedene Techniken wie
3- und 4-D-VAR, nudging, ensemble-Kalman-Filterung, die ich auch nicht alle genau kenne.
Der Aufwand wird darum betrieben, weil die atmosphaere ein nichtlineares System ist und kleine
Fehler in den Anfangsbedingungen sich bei langer Vorhersagezeit eventuell aufschaukeln
(Lorenz und der Schmetterlingseffekt....). Man will beim Anfanszustand moeglichst nicht schon
grobe Fehler im Modell haben.

2. Jetzt kann das Modell anfangen, zu rechnen. Es geht Schritt fuer Schritt in der Zeit vorwaerts
(Zeitschritte bei aLMo bspw. rund 40s) und laesst die atmosphaerischen Grundgleichungen auf jeden
einzelnen Gitterpunkt los. Nebst "einfachen" Prozessen wie Advektion von Impuls, Energie muessen
Prozesse, die auf kleineren Skalen als die Gitterweite des Modells, ablaufen parametrisiert werden.
Bspw. der Strahlungstransfer: Kurzwellige Sonneneinstrahlung und langwellige Abstrahlung vom Erdboden
werden an jedem Ort abgeschaetzt und entsprechend der Einfluss auf die lokale Temperatur berechnet.
Anderes Beispiel: grobe Modelle muessen "merken", wenn in einem Gitterelement kleine Cumuli entstehen
und entsprechend Energie und Masse vertikal umverteilen. Dies muss abgeschaetzt werden, bspw. anhand
von Feuchtekonvergenz am Boden des Gitterelements (Kuo Schema). Neuere Konvektionsparametrisierungen
sind noch komplexer, schaetzen bspw. ab wieviel gesaettigte Luft eine Wolke nach oben und an den Seiten
verlaesst und wieviel trockene Umgebungsluft in die Wolke eingemischt wird (oder so aehnlich, behaftet
mich jetzt nicht darauf...). Ich glaube, die Kain-Fritsch Parametrisierung macht so was in der Art.
Am Rand des Modells muessen die Daten mehr oder weniger glatt an das treibende globale Modell angepasst
werden (one-way nesting). Ebenso am "Deckel" des Modells. Auch dies ist eine komplizierte Sache,
hierzu weiss ich nicht sehr viel zu sagen.
Wenn alle Parametrisierungen an jedem Gitterpunkt durchgerechnet sind, stehen die prognostischen
Variablen wieder bereit fuer den naechsten Rechenschritt und die ganze Sache beginnt von vorn.

3. Wenn der ganze Modelllauf durch ist, kommt das postprocessing. Hierzu kann man alles zaehlen,
was aus dem Datensalat vom Modell etwas produziert, was dann in einer anderen Form gelesen oder
berechnet werden kann. Ein Beispiel vom LM: die LM-Vertikalschichten folgen der Topographie, so
dass bspw. eine Schicht mal auf 1000m ueber Meer liegt auf ebenem Terrain, ueber den Alpen liegt
derselbe level dann auf einmal auf 2000m. Wir moechten aber gerne Geopotential und Temperatur auf
850hPa wissen, das Modell muss also zuerst noch die internen Felder auf Drucklevel interpolieren.
Die ganze Aufbereitung der Daten in Karten oder Meteogramme usw. oder das anhaengen von MOS an
den Modelloutput kann man auch zum postprocessing zaehlen, wenn man will.

Noch zu deiner 2. und 3. Frage: ich bin auch kein Numeriker, aber das Diskretisieren der nichtlinearen
Grundgleichungen ist sehr wichtig. Wenn man Diff-gleichungen numerisch loest, koennen Wellen entstehen
(bspw. Druck als Funktion der Zeit), die nicht wirklich physikalisch sind sondern einfach nur aus
der mathematischen Formulierung des Problems entstehen. Dies will man nicht, das gilt es zu vermeiden.
Google mal ein Bisschen rum nach Stichworten wie leap-frog, centred differences, es gibt hierzu sicher
anschauliche Beispiele im Netz.
Welche Rechenalgorithmen werden verwendet? Viele Modelle lassen dem Benutzer die Wahl, welche
Diskretisierungen (in Zeit, Raum) man verwenden moechte, oder welche Parametrisierungen fuer
irgendwelche Prozesse verwendet werden sollen. Andere Programmteile sind fix und koennen nur
veraendert werden, wenn man am Modellcode rumschraubt. Tuning Parameter in den Schemen kann man
bedingt auch veraendern, wenn man weiss wo.

So, jetzt koennt ihr mich auseinander nehmen...... Kritik, Korrekturen, Ergaenzungen willkommen!

Gruss Marco
Gruss Marco
-------_/)----

Benutzeravatar
Willi
Administrator
Beiträge: 9287
Registriert: Fr 10. Aug 2001, 16:16
Wohnort: 8143 Sellenbüren
Hat sich bedankt: 4740 Mal
Danksagung erhalten: 4620 Mal
Kontaktdaten:

Busse für Wetter-Fehlprognose

Beitrag von Willi »

Hallo Marco

Tolle Zusammenfassung, danke. Nur schade, dass sie unter "Off Topic" zu finden ist. Habe mir erlaubt, unter "Wissenswertes" einen Link auf diesen Thread zu setzen.

Gruss Willi
Gruss Willi
Immer da wenn's wettert


cyba
Beiträge: 374
Registriert: Sa 26. Jun 2004, 11:22

Busse für Wetter-Fehlprognose

Beitrag von cyba »

Hoi Marco

Zunächst einmal vielen Dank für Deine interessanten Ausführungen. Das Thema interessiert mich sehr.

Wenn ich das richtig verstanden habe, dann werden zunächst Gittermesserte in der x,y und z-Richtung genommen und die Zwischenstellen dann interpoliert. Ergänzt werden diese Gittermesswerte (wenn man die denn so bezeichnen kann) durch Messwerte von Sonden etc..

Auf jeden Gitterpunkt lässt man dann die thermodynamischen Grundgleichungen los. Und anscheinend ist das nicht lineare System schlecht konditioniert (kleine Inputschwankung führt zu grosser Outputschwankung). Man versucht also, die Felher in den Anfangsbedingungen möglichst klein zu halten.

Insgesamt entsteht dabei ein nicht lineares Differentialgleichungssystem, was es zu lösen gilt.

Danach gibt es noch das "Postprocessing", wo die Daten aufgearbeitete werden (mathematische Glättung evt.).

Habe ich das soweit richtig verstanden?

Nun noch einige Fragen:
Wenn man Diff-gleichungen numerisch loest, koennen Wellen entstehen


Meinst Du damit, dass Terme entstehen, die mathematisch zwar einen Sinn geben, physikalisch aber unsnnig sind. Also so wie komplexe Lösungen von Schwingungsgleichungen, bei denen auch nur der Realteil interessiert (Imaginärteil ergibt physikalisch wenig Sinn).
Bspw. der Strahlungstransfer: Kurzwellige Sonneneinstrahlung und langwellige Abstrahlung vom Erdboden


Wie wird dieser Aspekt abgeschätzt?

Vielen Dank noch einmal für Deine Erklärungen, ich kann mir denken, dass es nicht so einfach ist, ein solch komplexes Thema auf einen Punkt zu bringen.

Grüsse

Antworten