Wettervorhersage am PC: Neuer Algorithmus stellt Leistung von Großrechenanlagen in den Schatten

Algorithmus löst komplexe Fragestellungen auf einem PC einfacher, mit größerer Genauigkeit und weniger Rechnerleistung als Superrechner

06.02.2020

Das enorme Wachstum der Rechnerleistungen, das in den vergangenen 60 Jahren zu beobachten war, wird voraussichtlich schon bald zum Stillstand kommen. Allerdings erfordern komplexe Systeme wie zum Beispiel Wettervorhersagen hohe Rechnerkapazitäten und die damit verbundenen Kosten werden zu einem begrenzenden Faktor, wenn große Datenmengen zu verarbeiten sind. Wissenschaftlerinnen und Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) und der Università della Svizzera italiana (USI) im schweizerischen Lugano haben nun einen Algorithmus vorgestellt, der vielschichtige Probleme erstaunlich einfach lösen kann – sogar auf einem PC.

Exponentielles Wachstum in der IT wird an Grenzen stoßen

Nach dem Mooreschen Gesetz konnte in der Vergangenheit eine konstante Beschleunigung in der Informationsverarbeitung erwartet werden, doch dieses exponentielle Wachstum scheint an Grenzen zu gelangen. Neue Entwicklungen setzen auf künstliche Intelligenz und maschinelles Lernen, aber hier sind die Abläufe vielfach noch unbekannt. "Viele maschinelle Lernverfahren, wie etwa das sehr populäre Deep Learning sind zwar sehr erfolgreich, funktionieren aber wie eine Blackbox, bei der man eigentlich nicht genau weiß, was vor sich geht. Wir wollten begreifen, wie künstliche Intelligenz funktioniert und ein besseres Verständnis für die Zusammenhänge bekommen", erklärt Prof. Dr. Susanne Gerber, Bioinformatikerin an der JGU. Zusammen mit Prof. Dr. Illia Horenko, Computerexperte an der Università della Svizzera italiana und Mercator Fellow an der FU Berlin, hat sie daher an einer Methode gearbeitet, die mit geringen Kosten und hoher Zuverlässigkeit erstaunlich komplexe Berechnungen vornehmen kann. Das Ergebnis haben Gerber und Horenko gemeinsam mit ihren Co-Autoren im Artikel "Low-cost scalable discretization, prediction, and feature selection for complex systems" zusammengefasst, der nun in Science Advances publiziert wurde. "Aufgaben, die bisher einen Superrechner erforderten, können wir mit dieser Methode in Zukunft auf einem normalen PC lösen", so Horenko. Zu den zahlreichen Anwendungsmöglichkeiten gehören neben Wetterprognosen etwa auch Klassifizierungsprobleme in der Bioinformatik, der Bildanalyse und der medizinischen Diagnostik.

Komplexe Systeme werden in einzelne Bausteine zerlegt

Der Veröffentlichung gingen langjährige Arbeiten zur Entwicklung des neuen Konzepts voraus. Das Verfahren orientiert sich nach Darstellung von Gerber und Horenko am Lego-Prinzip: Komplexe Systeme werden in einzelne Zustände oder Muster zerlegt. Mit nur wenigen Mustern oder Bausteinen – es genügen drei oder vier Dutzend – können umfangreiche Datenmengen analysiert und Entwicklungen vorhergesagt werden. "Zum Beispiel können wir mit dem SPA-Algorithmus eine datengestützte Vorhersage für den kommenden Tag über die Oberflächentemperaturen in Europa machen und zwar mit einem Vorhersagefehler von nur 0,75 Grad Celsius", so Prof. Dr. Susanne Gerber. Das Ganze funktioniert auf einem gewöhnlichen PC, ist hinsichtlich der Fehlerquote um 40 Prozent besser und wesentlich billiger als mit den üblichen Computeranlagen, die die Wetterdienste verwenden.

SPA steht für Scalable Probabilistic Approximation oder Skalierbare Wahrscheinlichkeits-Approximation und ist mathematisch begründet. Die Methode kommt für verschiedene Fragestellungen in Betracht, wenn große Datenmengen automatisiert verarbeitet werden müssen, zum Beispiel in der Biologie, um eine größere Anzahl von Zellen zu klassifizieren und zu gruppieren. "Besonders schön an dem Ergebnis ist, dass wir anschließend ein Verständnis bekommen, nach welchen Merkmalen die Zellen sortiert wurden", merkt Gerber an. Weitere mögliche Anwendungsbereiche sind die Neurowissenschaften: Anhand von automatisierten EEG-Signalmessungen können Aussagen über den Zustand des Gehirns gemacht werden. Aber auch Mammografie-Aufnahmen in der Brustkrebsdiagnostik können analysiert werden, um die Ergebnisse einer etwaigen Biopsie vorherzusagen.

"Es gibt viele Bereiche für die Anwendung des SPA-Algorithmus, vom Lorenz-Turbulenzmodell bis zur Moleküldynamik von Aminosäuren in Wasser", fasst Horenko zusammen. "Das Verfahren ist einfacher und günstiger und die Ergebnisse sind zudem besser im Vergleich zum aktuellen Stand der Technik."

Die Kooperation der Arbeitsgruppen Mainz und Lugano erfolgte im Rahmen des neu geschaffenen Research Center Emergent Algorithmic Intelligence, das im April 2019 an der JGU gegründet wurde und durch die Carl-Zeiss-Stiftung gefördert wird.