Datenströme in der Cloud stehen im Mittelpunkt eines neuen Forschungsprojekts an der Universität Würzburg. Ziel ist es, Anomalien frühzeitig zu erkennen, damit Unternehmen schnell reagieren können.
Es ist der Trend der Zeit: Unternehmen verlegen ihre IT-Anwendungen in die Cloud. Die Vorteile dieser Vorgehensweise liegen auf der Hand: Zum einen können die Beschäftigten jederzeit von jedem Ort auf diese Anwendungen zugreifen – einen funktionierenden Internetzugang vorausgesetzt. Das macht es einfacher, den Wunsch nach mobilem Arbeiten und mehr Zeit im Homeoffice ohne Einschränkungen umzusetzen. Zum anderen sparen sich Unternehmen dadurch den Betrieb eigener Serverstrukturen beziehungsweise Rechenzentren samt deren Wartung inklusive des dafür nötigen Personals – das in Zeiten des Fachkräftemangels sowieso nur schwer zu bekommen ist.
Auf der anderen Seite hat dieser Umzug in die Cloud auch Nachteile. Einer darunter ist die Tatsache, dass mit der neuen Infrastruktur die Kontrolle über den Datenverkehr ein stückweit verloren geht. Das macht es schwierig für die Unternehmen zu erkennen, ob ihre Anwendungen wie gewünscht funktionieren und welche Ursachen es dafür gibt, wenn sie dies nicht tun.
Automatisierte Anomalie-Erkennung für Unternehmensanwendungen
Eine Lösung für dieses Problem könnte in naher Zukunft ein Forschungsprojekt an der Julius-Maximilians-Universität Würzburg (JMU) liefern, das jetzt die Arbeit aufgenommen hat. „Modellierung und Monitoring von Virtual Private Cloud Netzen für automatisierte Anomalie-Erkennung für Unternehmensanwendungen in heterogenen Netzen“, oder kurz VIPNANO, lautet sein Name.
Dafür verantwortlich sind Professor Tobias Hoßfeld, Inhaber des Lehrstuhls für Informatik III (Kommunikationsnetze), und sein wissenschaftlicher Mitarbeiter Dr. Stefan Geißler. Projektpartner sind die IsarNet Software Solutions GmbH und ein großes Verkehrsunternehmen: die DB Systel GmbH, Tochter der Deutschen Bahn für Digitalisierung. Die drei beteiligten Akteure liefern dafür unterschiedliche Beiträge: Isarnet hat langjährige Erfahrung mit der Analyse von Netzmonitoring-Daten, die DB Systel besitzt eine umfangreiche Netz-Infrastruktur und hat schon vor langem ihre Anwendungen in Virtual Private Cloud Netze verlagert, und der Lehrstuhl für Informatik III ergänzt dies mit seiner Expertise im Bereich Modellierung und Simulation.
Hohe Anforderungen an das Netzmonitoring
„In vielen Unternehmen steigt der Bedarf nach flexiblen und zuverlässigen Virtual Private Clouds, wobei häufig mehrere große Cloud-Anbieter, private Clouds und eigene Netze in einer heterogenen Infrastruktur kombiniert werden“, erklärt Tobias Hoßfeld den Hintergrund des Projekts. Von einem „verteilten System“ sprechen Informatiker in diesem Fall. Dessen Komplexität stellt neue Herausforderungen an das Netzmonitoring für einen zuverlässigen Anwendungsbetrieb.
„Häufig verstehen Unternehmen in solchen verteilten Systemen den Datenverkehr nicht mehr“, erklärt Stefan Geißler. Tritt eine Abweichung vom Normalfall auf, wissen sie nicht, was der Auslöser dafür ist. Ein ungewöhnlich niedriger Datenfluss? Dahinter könnte ein Hackerangriff stecken. Vielleicht legt aber auch nur Blitzeis den Verkehr lahm, weshalb die Belegschaft noch im Stau auf der Autobahn steht, statt, wie sonst um diese Zeit, im Büro vor den Rechnern zu sitzen.
Die Würzburger Informatiker wollen deshalb in ihrem Forschungsprojekt Verfahren entwickelt, mit denen sich typische Daten-Verkehrsmuster, sozusagen der Normalzustand, modellieren lassen. Darauf aufbauend wollen sie eine automatisierte Anomalie-Erkennung entwickeln, die es ermöglicht, im Anwendungsbetrieb frühzeitig kritische Situationen zu erkennen, um mit passenden Gegenmaßnahmen Probleme und Ausfälle zu vermeiden. Dies wird die Hauptaufgabe von Katharina Dietz sein; ihre Doktorandenstelle wird über VIPNANO finanziert.
Hohe Hürden in der Praxis
Was sich in der Theorie einfach anhört, stellt die Beteiligten in der Praxis vor hohe Hürden. „Aus technischen Gründen können wir nur Meta-Daten im Kommunikationsnetz messen“, sagt Hoßfeld. Welche Konsequenz das hat, erklärt Stefan Geißler so: „Das ist dann in etwa so, als müssten Sie am Geräusch eines Motors erkennen, welches Teil defekt ist.“
Dennoch sind die beiden Informatiker zuversichtlich, dass es dem Team gelingen wird, in den kommenden drei Jahren ein Monitoring zu entwickeln, das in der Lage ist, Anomalien und Probleme festzustellen. Schließlich hat Hoßfelds Lehrstuhl in den vergangenen Jahren immer wieder bewiesen, dass die Wissenschaftlerinnen und Wissenschaftler dort über eine bayernweit einzigartige Expertise im Bereich der Informations- und Kommunikationstechnik verfügen. Davon profitieren werden nicht nur die Deutsche Bahn und die IsarNet Software Solutions GmbH. „Die Ergebnisse dieses Projekts sind sicherlich auch für andere Unternehmen interessant“, sagt Tobias Hoßfeld.
Finanziert vom Freistaat Bayern
Finanziert wird das Projekt mit Mitteln des Förderprogramms „Informations- und Kommunikationstechnik“ der bayerischen Staatsregierung. Insgesamt rund 300.000 Euro stehen dafür zur Verfügung. Mit dem Programm sollen Unternehmen bei Forschungs- und Entwicklungsvorhaben unterstützt werden mit dem Ziel, die Umsetzung in neue Lösungen, Produkte und Anwendungen zu verbessern sowie die Innovationskraft und Wettbewerbsposition bayerischer Unternehmen zu stärken.
Bild: Unternehmen verlegen ihre IT-Anwendungen zunehmend in die Cloud. Das bringt auch Nachteile mit sich. Generiert mit KI
Quelle: Julius-Maximilians-Universität Würzburg