Richtig gute Wettervorhersagen brauchen Unmengen an Daten. Um ein präzises Bild zu ergeben, müssen sie zudem richtig zusammengefügt werden. Kölner Forschung trägt dazu bei, die Algorithmen hierfür zu verbessern. Doch auch damit werden wir nicht jedem Regenschauer entkommen können.
Jan Voelkel
Mit Lothar fing es an. Der Orkan fegte um Weihnachten 1999 mit teilweise über zweihundert Kilometern pro Stunde über die Lande. Am Ende war die Bilanz verheerend. Lothar verursachte die größten Sturmschäden der jüngeren europäischen Geschichte und kostete über hundert Menschen das Leben. Dass der Sturm derart drastisch ausfallen würde, hatte niemand vorhergesagt. Der Deutsche Wetterdienst teilte im Nachgang mit, dass ein effektiveres Warnmeldesystem nötig sei, die Modelle zur Vorhersage Lothars Entwicklung allerdings auch schlicht nicht richtig erfasst hätten. Dass Verbesserungen nötig sind, wurde offensichtlich.
»Das war ein bedeutender Einschnitt für die Datenassimilation in Vorhersagemodellen«, sagt Professorin Dr. Nikki Vercauteren vom Kölner Institut für Geophysik und Meteorologie.
Datenassimilation, Vercauterens Spezialgebiet, ist so etwas wie die IT-Sparte in der Meteorologie. Es geht darum, intelligente Methoden der Beobachtung zu entwickeln und optimal zu nutzen, um Wetter- und Klimamodelle zu verbessern. Denn bessere oder mehr Daten würden zwar nicht schaden, aber es seien vor allem Modelle nötig, die diese Daten interpretieren oder nach ihrer Wichtigkeit auswerten. »Wir möchten fehlende Puzzleteile der Erdsystembeobachtung zusammenfügen und erforschen, wie man Beobachtungen und Modellierungen optimal kombiniert«, so die Meteorologin.
Bessere Vorhersagen durch maschinelles Lernen
Das Wetter ist grundsätzlich ein chaotisches System mit vielen Zufallsprozessen. Vor allem Stürme entwickeln und ändern sich oft kurzfristig. Eine geringfügige Veränderung der Ausgangswetterlage kann eine große Wirkung und einen völlig anderen Verlauf zur Folge haben. Deshalb, das hat Lothar gezeigt, müssen spontane Veränderungen in der Atmosphäre besser berücksichtigt werden. In der Kölner Meteorologie setzt man daher auf eine enge Zusammenarbeit mit der theoretischen Informatik, um Muster in den Daten zu finden. »Das hat auch viel mit Machine Learning zu tun. Die Informatiker untersuchen, welcher Algorithmus optimal funktioniert und nachweislich zu richtigen Ergebnissen führt«, so Vercauteren. »So lassen sich Unsicherheiten quantifizieren und es ergeben sich höhere Garantien in den Vorhersagemodellen.«
In Köln wird in Zusammenarbeit mit anderen Universitäten wie der Uni Bonn und innerhalb von Forschungskooperationen wie dem CESOC genau daran gearbeitet.
CESOC – Die Universitäten Köln und Bonn sowie das Forschungszentrum Jülich betreiben seit Herbst 2020 ein gemeinsames Zentrum für Erdsystembeobachtung und rechnergestützte Analyse, das Center for Earth System Observation and Computational Analysis (CESOC). Ziel ist es, das System Erde global zu beobachten, umfassend zu verstehen und Veränderungen vorherzusagen.
Zwar gibt es mittlerweile in der Forschung viele Projekte, die sich Künstliche Intelligenz oder maschinelles Lernen zunutze machen. »Wir möchten aber die Grundlagen, also das maschinelle Lernen und die Algorithmen an sich noch verbessern«, sagt die Kölner Meteorologin Professorin Dr. Susanne Crewell. Dass dort ein großes Potenzial liegt, zeigt ein Beispiel aus der Zusammenarbeit mit den Bonner Informatiker*innen. »Sie haben bestimmte Verfahren im Hinblick auf die Rechenzeit schon um den Faktor 100.000 verbessert, allein mit schlauen Algorithmen.«
Eine zweite Erde
In Zukunft soll das System Erde im Ganzen noch besser dargestellt und erfasst werden. Dabei ist ein digitaler Zwilling des Planeten hilfreich. So lassen sich Prozesse nicht nur in einem einzelnen Bereich, etwa der Atmosphäre oder dem Ozean, sondern im ganzen globalen Zusammenspiel beobachten und simulieren. Das Projekt ›Destination Earth‹ des Europäischen Zentrums für mittelfristige Wettervorhersage (EZMW) in Bonn, mit dem die Meteorolog*innen des CECSOC zusammenarbeiten, arbeitet an der Entwicklung eines solchen Zwillings. »Das ist ein sehr großes Projekt«, so Crewell. »Der digitale Zwilling wird in Bezug auf Detailgenauigkeit, schnellen Zugang zu Informationen und Interaktivität sehr innovativ. Auch hier trägt die Datenassimilation wesentlich dazu bei, die Raster und Skalen engmaschiger zu machen und klüger auszuwerten.«
Nikki Vercauteren ist sich sicher, dass es trotz der Fortschritte immer noch eine gewisse Grenze geben wird, die die Wettervorhersage nicht überschreiten wird. Ab Tag zehn gleicht sie derzeit zum Beispiel noch einem Münzwurf, die Genauigkeit liegt hier bei etwa fünfzig bis sechzig Prozent. Doch zur Geschichte gehört auch, dass sich die Präzision und Genauigkeit der Vorhersagen in den letzten Jahren und Jahrzehnten bereits deutlich verbessert hat. »Vor allem bis Tag drei sind die Vorhersagen mittlerweile so gut, dass man bei achtzig oder neunzig Prozent Genauigkeit liegt. Das war vor fünfzig Jahren unvorstellbar«, so Vercauteren. Es ist gut vorstellbar, dass die Forschung an smarten Vorhersagemodellen für weitere Fortschritte sorgt und dazu beiträgt, Katastrophen durch Extremwetterereignisse wie Orkan Lothar zu verhindern.