Schwerpunkte

Infrastructure as a Service

Virtuelles Rechenzentrum für Jedermann

18. April 2019, 13:23 Uhr   |  Autor: Sabine Narloch | Kommentar(e)


Fortsetzung des Artikels von Teil 1 .

Möglichkeiten der Datenanalysen

funkschau:Welche Daten sind das und wie erheben Sie diese Daten?
Hasenkamp: Grundlage ist der Aufbau eines dynamischen Kapazitätsmanagements. Es sorgt dafür, dass aus Kundensicht die Verfügbarkeit bei 100 Prozent liegt. Dafür wird ein Konzept genutzt, das in der IT-Branche bisher nur selten eingesetzt wird: Vorausschauende Wartung durch selbstlernende Algorithmen, in der Industrie 4.0 als Predictive Maintenance bekannt. Dabei erfassen Sensoren wichtige Betriebsdaten. Eine Software für Machine Learning untersucht diese Daten auf auffällige Muster. In einem Rechenzentrum könnten das beispielsweise Temperaturen inner- und außerhalb der Gehäuse, Spannungspegel oder Latenzzeiten sein. Abweichungen von normalen Werten kündigen oft Störungen und Ausfälle an. Nach einiger Zeit des Trainings kann der Algorithmus zwischen normalen und anormalen Zuständen unterscheiden. Dadurch ermöglicht er eine weitgehende Automatisierung des IT-Betriebs im Interesse des Kunden.

Henrik Hasenkamp Gridscale
© Gridscale

Henrik Hasenkamp ist CEO des IaaS und PaaS-Anbieters Gridscale

funkschau: Welche Möglichkeiten haben Sie durch die Datenanalysen?
Hasenkamp: Damit können Automatisierungsfunktionen für den Kunden entwickelt werden. So entstehen durch die Aktionen der Benutzer in ihren Dashboards permanent Daten. Sie können helfen, den Kunden besser zu verstehen und die Plattform so anzupassen, dass sie optimal auf das Lösen des jeweiligen Problems des Nutzers abgestimmt sind. Die Entwickler können daraus Schlüsse ziehen und bei der Überarbeitung der entsprechenden UI-Elemente die Benutzer-
erfahrung verbessern.

funkschau: Können Sie einen konkreten Anwendungsfall skizzieren?
Hasenkamp: Ein Beispiel: Nach Auswertung der Daten steht fest, dass einige Funktionen häufig direkt hintereinander oder zu bestimmten Zeiten genutzt werden. So könnte es sein, dass viele Anwender regelmäßige Snapshots anfertigen, einige vielleicht täglich, andere wöchentlich. Die Entwickler können nun versuchen, dieses Verhalten durch eine Vereinfachung in der Benutzeroberfläche zu erleichtern, etwa durch den Einbau einer Automatisierungsfunktion. Das praktische Ergebnis ist eine Planungsfunktion, die Snapshots regelmäßig als Sicherungskopie speichert.
Die statistische Auswertung von Echtzeit-Benutzerdaten kann auch dazu genutzt werden, die Benutzeroberfläche an den jeweils aktiven Kunden anzupassen. So sieht beispielsweise jeder Kunde unterschiedliche Auswahl- und Detailoptionen entsprechend seiner technischen Erfahrung. Zudem treffen die Algorithmen der Benutzeroberfläche eine Art Einschätzung der Benutzeraktionen. Sie machen unterschiedliche Vorschläge – je nachdem, welches Ziel der Nutzer vermutlich erreichen möchte. Dadurch erhalten die Nutzer nur die für sie relevanten Optionen.
Auf diese Weise wird die Auswertung von Daten zur Optimierung der Benutzererfahrung (UX) genutzt und eine dynamische Provisionierung mit individuell angepassten visuellen Oberflächen möglich. So können auch Kunden aus einem KMU den Aufbau eines eigenen virtuellen Rechenzentrums leicht bewerkstelligen.

Seite 2 von 2

1. Virtuelles Rechenzentrum für Jedermann
2. Möglichkeiten der Datenanalysen

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

DTM bietet VR-Begehung simulierter Rechenzentren
Western Digital erweitert das Rechenzentrumsportfolio
Analytics und Automatisierung verbessern den Datacenter-Betrieb
Freikühlung im Rechenzentrum: Hype oder unverzichtbar?
Kommunikation in Ost-West-Richtung

Verwandte Artikel

funkschau