Herkömmliche Geodaten werden meist in regelmäßigem Turnus aufgenommen – beispielsweise vorgegeben durch die Überflüge der Satelliten. Doch wenn es um das Katastrophenmanagement geht, kann sich die Lage schnell ändern, hier muss die Dynamik der Entwicklung berücksichtigt werden. Hier könne gerade Geodaten aus dem Internet und den sozialen Medien besonders hilfreich sein – wenn sie sich entsprechend auswerten lassen.
{1r}
Die Auswertung ist der Schlüssel
Fragen dabei sind: Welche spezifischen Anwendungen in den verschiedenen Bereichen des Katastrophenmanagements lassen sich anhand solcher neuen Datenquellen effektiv und effizient für unterschiedliche Katastrophentypen entwickeln? Und wie können diese Informationen automatisiert aufbereitet und zielgruppengerecht kommuniziert werden?
Praktische Beispiele, an denen die Heidelberger Geoinformatiker arbeiten sind das Ableiten und Generieren verschiedener thematischer Angebote von Geodaten und Karten aus solchen Informationsquellen, sowie das Entwickeln und Verbessern von Analysemethoden und Simulationswerkzeugen, etwa im Bereich des Notfallrouting.
Tweets versus Pegelmessungen
Auch die Simulation von Evakuierungen oder die explorative Analyse von Daten aus den Sozialen Netzwerken zählen dazu. Diese werden üblicherweise in Web-Anwendungen eingebettet. In Heidelberg bearbeitete Methoden umfassen unter anderem Analysen, inwieweit Daten aus Twitter oder Flickr mit offiziellen Sensormessungen – zum Beispiel im Hochwasserfall – korrelieren und wie sie genutzt werden können.
Auch Methoden zur dynamischen Priorisierung von Nachrichten aus Sozialen Medien, die im Katastrophenfall relevant sind, werden von den Forschern bearbeitet. Weitere Arbeiten gelten der Analyse von Twitter-Daten mithilfe künstlicher neuronaler Netze. Ziel dieses neuartigen Ansatzes ist es, einen raschen Überblick über die in einer Region vorherrschenden Themen der Sozialen Medien zu erhalten.
Alexander Zipf, Universität Heidelberg / Ruperto Carola
Stand: 21.10.2016