@Cyba: 
Hallo, ich kann's versuchen, mal kurz zu umreissen, was so ein Modell macht wenn's proggt. 
1. Zuerst muessen mal die Randbedingungen vorhanden sein. D.h. von einem globalen Modell
(EZ,NOGAPS, GFS, UKMO uvm....) werden die prognostischen Variablen (meist mind. T,p,u,v,q)
am Rand des Ausschnitts des Mesomodells bereitgestellt. Fuer die Analyse zusaetzlich auch 
an den Gitterpunkten innerhalb der domain. Typischerweise arbeiten state of the art Modelle
mit Gitterweiten von 2km (NMM) bis 30km (Europa-Ausschnitte). In der vertikalen sollten 
fuer eine gute Repraesentation von Inversionen die Schichten nicht mehr als 100m auseinander
sein. Des ergibt rund 40 bis 60 Schichten bis in die Stratosphaere hinein.  
Die globalen Modelle haben eine Aufloesung von 30-60km (EZ plant in Baelde auf 15km global runter zu gehen!). 
Der input des globalen Modells muss also zuerst mal interpoliert werden, auf das viel feinere Gitter des 
Mesomodells. In diesem Schritt kann man naeher andie Realitaet gelangen, indem man zusaetzliche
Messdaten (typischerweise Sondierungen, Fernerkundungsdaten wie Windfelder (ueber dem Meer!) 
oder Radardaten) assimiliert. Also man versucht, die Modelldaten von Anfang an, "so nahe 
wie moeglich zu den realen Messwerten hinzuziehen". Hier gibt's verschiedene Techniken wie
3- und 4-D-VAR, nudging, ensemble-Kalman-Filterung, die ich auch nicht alle genau kenne.
Der Aufwand wird darum betrieben, weil die atmosphaere ein nichtlineares System ist und kleine
Fehler in den Anfangsbedingungen sich bei langer Vorhersagezeit eventuell aufschaukeln 
(Lorenz und der Schmetterlingseffekt....). Man will beim Anfanszustand moeglichst nicht schon
grobe Fehler im Modell haben. 
2. Jetzt kann das Modell anfangen, zu rechnen. Es geht Schritt fuer Schritt in der Zeit vorwaerts
(Zeitschritte bei aLMo bspw. rund 40s) und laesst die atmosphaerischen Grundgleichungen auf jeden 
einzelnen Gitterpunkt los. Nebst "einfachen" Prozessen wie Advektion von Impuls, Energie muessen
Prozesse, die auf kleineren Skalen als die Gitterweite des Modells, ablaufen parametrisiert werden. 
Bspw. der Strahlungstransfer: Kurzwellige Sonneneinstrahlung und langwellige Abstrahlung vom Erdboden
werden an jedem Ort abgeschaetzt und entsprechend der Einfluss auf die lokale Temperatur berechnet. 
Anderes Beispiel: grobe Modelle muessen "merken", wenn in einem Gitterelement kleine Cumuli entstehen
und entsprechend Energie und Masse vertikal umverteilen. Dies muss abgeschaetzt werden, bspw. anhand 
von Feuchtekonvergenz am Boden des Gitterelements (Kuo Schema). Neuere Konvektionsparametrisierungen
sind noch komplexer, schaetzen bspw. ab wieviel gesaettigte Luft eine Wolke nach oben und an den Seiten
verlaesst und wieviel trockene Umgebungsluft in die Wolke eingemischt wird (oder so aehnlich, behaftet
mich jetzt nicht darauf...). Ich glaube, die Kain-Fritsch Parametrisierung macht so was in der Art.
Am Rand des Modells muessen die Daten mehr oder weniger glatt an das treibende globale Modell angepasst 
werden (one-way nesting). Ebenso am "Deckel" des Modells. Auch dies ist eine komplizierte Sache, 
hierzu weiss ich nicht sehr viel zu sagen.  
Wenn alle Parametrisierungen an jedem Gitterpunkt durchgerechnet sind, stehen die prognostischen 
Variablen wieder bereit fuer den naechsten Rechenschritt und die ganze Sache beginnt von vorn. 
3. Wenn der ganze Modelllauf durch ist, kommt das postprocessing. Hierzu kann man alles zaehlen, 
was aus dem Datensalat vom Modell etwas produziert, was dann in einer anderen Form gelesen oder 
berechnet werden kann. Ein Beispiel vom LM: die LM-Vertikalschichten folgen der Topographie, so 
dass bspw. eine Schicht mal auf 1000m ueber Meer liegt auf ebenem Terrain, ueber den Alpen liegt 
derselbe level dann auf einmal auf 2000m. Wir moechten aber gerne Geopotential und Temperatur auf 
850hPa wissen, das Modell muss also zuerst noch die internen Felder auf Drucklevel interpolieren. 
Die ganze Aufbereitung der Daten in Karten oder Meteogramme usw. oder das anhaengen von MOS an
den Modelloutput kann man auch zum postprocessing zaehlen, wenn man will. 
Noch zu deiner 2. und 3. Frage: ich bin auch kein Numeriker, aber das Diskretisieren der nichtlinearen
Grundgleichungen ist sehr wichtig. Wenn man Diff-gleichungen numerisch loest, koennen Wellen entstehen
(bspw. Druck als Funktion der Zeit), die nicht wirklich physikalisch sind sondern einfach nur aus 
der mathematischen Formulierung des Problems entstehen. Dies will man nicht, das gilt es zu vermeiden. 
Google mal ein Bisschen rum nach Stichworten wie leap-frog, centred differences, es gibt hierzu sicher
anschauliche Beispiele im Netz. 
Welche Rechenalgorithmen werden verwendet? Viele Modelle lassen dem Benutzer die Wahl, welche 
Diskretisierungen (in Zeit, Raum) man verwenden moechte, oder welche Parametrisierungen fuer 
irgendwelche Prozesse verwendet werden sollen. Andere Programmteile sind fix und koennen nur 
veraendert werden, wenn man am Modellcode rumschraubt. Tuning Parameter in den Schemen kann man 
bedingt auch veraendern, wenn man weiss wo. 
So, jetzt koennt ihr mich auseinander nehmen...... Kritik, Korrekturen, Ergaenzungen willkommen!
Gruss Marco
			
			
									
						Werbung
Busse für Wetter-Fehlprognose
- Marco (Hemishofen)
- Beiträge: 1364
- Registriert: So 23. Jun 2002, 18:15
- Geschlecht: männlich
- Wohnort: 8261 Hemishofen
- Hat sich bedankt: 250 Mal
- Danksagung erhalten: 546 Mal
- Willi
- Administrator
- Beiträge: 9287
- Registriert: Fr 10. Aug 2001, 16:16
- Wohnort: 8143 Sellenbüren
- Hat sich bedankt: 4740 Mal
- Danksagung erhalten: 4620 Mal
- Kontaktdaten:
Busse für Wetter-Fehlprognose
Hallo Marco
Tolle Zusammenfassung, danke. Nur schade, dass sie unter "Off Topic" zu finden ist. Habe mir erlaubt, unter "Wissenswertes" einen Link auf diesen Thread zu setzen.
Gruss Willi
			
			
									
						Tolle Zusammenfassung, danke. Nur schade, dass sie unter "Off Topic" zu finden ist. Habe mir erlaubt, unter "Wissenswertes" einen Link auf diesen Thread zu setzen.
Gruss Willi
Gruss Willi
Immer da wenn's wettert
						Immer da wenn's wettert
Busse für Wetter-Fehlprognose
Hoi Marco
Zunächst einmal vielen Dank für Deine interessanten Ausführungen. Das Thema interessiert mich sehr.
Wenn ich das richtig verstanden habe, dann werden zunächst Gittermesserte in der x,y und z-Richtung genommen und die Zwischenstellen dann interpoliert. Ergänzt werden diese Gittermesswerte (wenn man die denn so bezeichnen kann) durch Messwerte von Sonden etc..
Auf jeden Gitterpunkt lässt man dann die thermodynamischen Grundgleichungen los. Und anscheinend ist das nicht lineare System schlecht konditioniert (kleine Inputschwankung führt zu grosser Outputschwankung). Man versucht also, die Felher in den Anfangsbedingungen möglichst klein zu halten.
Insgesamt entsteht dabei ein nicht lineares Differentialgleichungssystem, was es zu lösen gilt.
Danach gibt es noch das "Postprocessing", wo die Daten aufgearbeitete werden (mathematische Glättung evt.).
Habe ich das soweit richtig verstanden?
Nun noch einige Fragen:
Meinst Du damit, dass Terme entstehen, die mathematisch zwar einen Sinn geben, physikalisch aber unsnnig sind. Also so wie komplexe Lösungen von Schwingungsgleichungen, bei denen auch nur der Realteil interessiert (Imaginärteil ergibt physikalisch wenig Sinn).
Wie wird dieser Aspekt abgeschätzt?
Vielen Dank noch einmal für Deine Erklärungen, ich kann mir denken, dass es nicht so einfach ist, ein solch komplexes Thema auf einen Punkt zu bringen.
Grüsse
			
			
									
						Zunächst einmal vielen Dank für Deine interessanten Ausführungen. Das Thema interessiert mich sehr.
Wenn ich das richtig verstanden habe, dann werden zunächst Gittermesserte in der x,y und z-Richtung genommen und die Zwischenstellen dann interpoliert. Ergänzt werden diese Gittermesswerte (wenn man die denn so bezeichnen kann) durch Messwerte von Sonden etc..
Auf jeden Gitterpunkt lässt man dann die thermodynamischen Grundgleichungen los. Und anscheinend ist das nicht lineare System schlecht konditioniert (kleine Inputschwankung führt zu grosser Outputschwankung). Man versucht also, die Felher in den Anfangsbedingungen möglichst klein zu halten.
Insgesamt entsteht dabei ein nicht lineares Differentialgleichungssystem, was es zu lösen gilt.
Danach gibt es noch das "Postprocessing", wo die Daten aufgearbeitete werden (mathematische Glättung evt.).
Habe ich das soweit richtig verstanden?
Nun noch einige Fragen:
Wenn man Diff-gleichungen numerisch loest, koennen Wellen entstehen
Meinst Du damit, dass Terme entstehen, die mathematisch zwar einen Sinn geben, physikalisch aber unsnnig sind. Also so wie komplexe Lösungen von Schwingungsgleichungen, bei denen auch nur der Realteil interessiert (Imaginärteil ergibt physikalisch wenig Sinn).
Bspw. der Strahlungstransfer: Kurzwellige Sonneneinstrahlung und langwellige Abstrahlung vom Erdboden
Wie wird dieser Aspekt abgeschätzt?
Vielen Dank noch einmal für Deine Erklärungen, ich kann mir denken, dass es nicht so einfach ist, ein solch komplexes Thema auf einen Punkt zu bringen.
Grüsse


