Auch die „normalen“ Stürme und Unwetter haben mittlerweile Einlass in die virtuelle Welt gefunden. Eines der ersten Versuche, ein Unwetter im Computer nachzubauen, unternahmen Forscher vom amerikanischen National Severe Storms Laboratory (NSSL) bereits Ende der 70er Jahre. Als am 20. Mai 1977 Oklahoma von einer ganzen Serie von Tornados heimgesucht wurde, registrierten Beobachtungsflugzeuge, Wetterballons, Dopplerradarstationen und zahlreiche mobile und stationäre Wetterstationen alle Einzelheiten der Ereignisse.
Aus diesen Daten entwickelten die Wissenschaftler Peter Ray, Robert Wilhelmson und Kenneth Johnson eine digitale Karte, die die Regenintensität und Windgeschwindigkeiten der Unwettergebiete in sechs verschiedenen Höhen darstellte. Aus diesen Karten baute das Team dann ein zwar dreidimensionales aber noch analoges Modell. Sie übertrugen die einzelnen Karten auf ein Drahtgitter und bauten diese in der entsprechenden Höhe in ein Plexiglasgestell ein. Immerhin konnten sie anhand dieses Modells herausfinden, warum sich an bestimmten Stellen der Unwetterwolke leichter eine Windhose bildet als an anderen.
Mitte der 80er Jahre war die Computertechnik soweit fortgeschritten, dass Plexiglasmodelle überflüssig wurden. Die Simulation der Prozesse im Inneren eines Unwetters ließ sich nun direkt auf dem Bildschirm darstellen. Noch immer beschränkte sich aber die Modellierung auf die bloße Simulation von Luftmassenbewegungen und Wassergehalten in den einzelnen Schichten. Viele der bekannten physikalischen Einflussgrößen wie Reibung an der Erdoberfläche, Corioliskraft oder die unterschiedlichen Aggregatzustände des Wassers blieben unberücksichtigt.
In einem Vergleichstest zeigte sich jedoch, dass die modellierten Größen dieser einfachen Simulation nicht nur recht gut mit den tatsächlichen Beobachtungen von Dopplerradarstationen übereinstimmten, sondern dass sie auch wichtige neue Erkenntnisse über die inneren Abläufe in Regen- und Gewitterwolken bringen konnte.
Will man allerdings Stürme und Unwetter nicht nur untersuchen, sondern auch vorhersagen, braucht man erheblich umfangreichere Simulationen. Eine solche komplexes Modell haben Forscher des Laboratoriums für Geophysikalische Strömungsdynamik im amerikanischen Princeton (GFDL) entwickelt. Aus den Daten von vielen tatsächlichen und idealisierten Sturmszenarios entstand ein Programm, dass die Dynamik eines Sturms von seiner Entstehung aus einer kleinen lokalen Luftturbulenz bis zur vollen Reife nachbilden konnte.
Als 1993 ein Blizzard weite Teile der amerikanischen Ostküste mit Schnee und Eisregen überzog, nutzten die Forscher des GFDL die Gelegenheit, um diesen Blizzard mithilfe ihres Modells im Rechner nachzubauen. Es zeigte sich, das in jedem Falle die grundlegenden Wettergeschehnisse in der Simulation erstaunlich gut mit der Realität übereinstimmten. Damit könnte das GFDL-Modell ein erster Schritt zu besseren Wettersimulationen und damit auch besseren Sturmvorhersagen sein. Ob es tatsächlich in der Praxis so funktioniert, muss die Anwendung zeigen.
Stand: 27.01.2001