Der Einsatz von künstlicher Intelligenz (KI) zur Vorhersage von Wetter- und Umweltdaten liegt eigentlich nahe. Schließlich spielen die Erhebung und Verarbeitung von Daten in der Meteorologie und Klimaforschung seit jeher eine zentrale Rolle. Dabei hat sich die Präzision der Vorhersagen in den letzten Jahrzehnten kontinuierlich verbessert. Gestiegene Rechenkapazitäten, verfeinerte Methoden sowie ein stetig erweitertes Messnetz haben dazu geführt, dass die Wettervorhersage mittlerweile deutlich besser ist als ihr Ruf. Eine 5-Tages-Prognose ist heute so genau wie der Wetterbericht für den nächsten Tag vor 50 Jahren.

Vorhersage von Starkregenschauern und Gewitterzellen: Maschinenlernen verspricht Fortschritte

Ein Gastbeitrag von Martin Schultz, Leiter der Arbeitsgruppe „Earth System Data Exploration“ am Jülich Supercomputing Centre (JSC) des Forschungszentrums Jülich. Bild: Forschungszentrum Jülich / R.-U. Limbach

Trotzdem gibt es immer noch Ereignisse, die sich kaum oder nur sehr kurzfristig vorhersagen lassen. Problematisch sind insbesondere lokale Phänomene, die sich auf kleinen Skalen abspielen. Dazu gehören insbesondere Starkregenschauer und Gewitterzellen. Diese lassen sich oft nur wenige Minuten im Voraus ankündigen. Wenn man bedenkt, welche erheblichen wirtschaftlichen Schäden unerwartete Unwetter jedes Jahr anrichten, erscheint eine längere Vorwarnzeit erstrebenswert. Methoden des Maschinenlernens versprechen hier erhebliche Fortschritte: Wir gehen davon aus, dass damit 24 Stunden Vorlaufzeit und eine Ortsauflösung von 1 Kilometer in wenigen Jahren möglich werden.

Zum Vergleich: Das hochaufgelöste, regionale Modell des Deutschen Wetterdienstes besitzt derzeit eine Maschenweite von knapp drei Kilometern. Gewitterzellen erstrecken sich häufig ebenfalls nur über wenige Kilometer. Im Modell werden sie dann gerade einmal durch einen einzigen Datenpunkt repräsentiert – wenn sie nicht ganz durchs Raster fallen. KI liefert zwar keine neuen Messwerte. Aber sie kann dabei helfen, unentdeckte, komplexe Muster in großen Datensätzen zu identifizieren und unterschiedliche Daten von Regenradargeräten und Modellrechnungen zu verbinden.

Mit einer einfachen Übernahme von Techniken, wie sie bereits erfolgreich zur Bilderkennung eingesetzt werden, ist es allerdings nicht getan. Für die Vorhersage sind spezielle Deep-Learning-Technologien erforderlich, die an die spezifischen Anforderungen meteorologischer Datensätze angepasst sind.

Denn Starkregenereignisse mit mehr als 25 Millimeter Niederschlag pro Stunde sind selten. Laut einer vorläufigen Statistik des Deutschen Wetterdienstes gab es zwischen 1996 und 2005 an keiner Station mehr als 8 solche Ereignisse. Entsprechend wenige Daten existieren, die zum Trainieren der neuronalen Netze herangezogen werden können.

Hinzu kommt: Während Bilddatenbanken oftmals Tausende Varianten des gleichen Motivs enthalten, lassen sich meteorologische Daten nicht in vergleichbarer Weise auf einen gemeinsamen Referenzwert zurückführen. Jahresmittelwerte sagen kaum etwas darüber aus, wie sich das Wetter in den nächsten Tagen und Stunden entwickeln wird. Gleichzeitig können sich kleine Ungenauigkeiten und Fehler in den Modellen mit der Zeit verstärken, bis sie teils erhebliche Ausmaße annehmen.

Künstliche Intelligenz (KI) für Luftschadstoffe

Auch in anderen Bereichen könnte KI nützliche Dienste leisten. Wir untersuchen derzeit, inwiefern sich Methoden des Maschinenlernens für die Berechnung von Luftschadstoff-Konzentrationen eignen. Denn auch Feinstaub-, Ozon- und Stickoxid-Werte unterliegen starken lokalen Schwankungen, die sich durch das weitmaschige Messnetz bisher kaum erfassen lassen. Deep-Learning-Methoden könnten dabei helfen, Muster zu identifizieren, die Wetterdaten und geografische Informationen mit Luftschadstoffwerten verknüpfen. Diese Verbindungen wollen wir nutzen, um räumliche und zeitliche Lücken in den Messwerten zu schließen und in einem weiteren Schritt die Konzentrationen von Schadstoffen wie Ozon, Feinstaub und Stickoxiden vorherzusagen.


Gastbeitrag von Martin Schultz

PD Dr. Martin Schultz leitet die Arbeitsgruppe „Earth System Data Exploration“ am Jülich Supercomputing Centre (JSC) des Forschungszentrums Jülich. Er koordiniert unter anderem die Projekte DeepRain und IntelliAQ, in denen es darum geht, Methoden des Maschinenlernens für die Meteorologie und Klimaforschung zu adaptieren. Zum Start von IntelliAQ erhielt er 2018 einen ER-C Advanced Grant, der zu den am höchsten dotierten europäischen Forschungspreisen gehört.

Gastblogger

Über Gastblogger

This post was written by a guest contributor.

No Comments

Be the first to start a conversation

Einen Kommentar schreiben

  • (will not be published)