Sie sind hier: HomeDatacenter

Monitoring: Visibilität ist kein Buzzword, sondern unabdingbar

Ein einheitlicher Blick auf das Netzwerk, das Informationen zum Datenfluss und Paketdaten nahtlos mit dem Monitoring der Endnutzererfahrung verbindet, wirkt sich nicht nur günstig auf das Monitoring aus, sondern erhöht auch die Effizienz der Problemlösung.

Monitoring Bildquelle: © funkschau

In der IT-Branche kursieren jede Menge Buzzwords: Cloud Computing, Synergien, Paradigmenwechsel, Agilität. Was diese Schlagwörter genau bedeuten und ob es überhaupt sinnvoll ist, sie zu benutzen, darüber lässt sich streiten. Ein Wort, das gewiss nicht in diese Kategorie fällt, ist Visibilität („Visibility“). In einer Welt des anwendungsbezogenen Network Performance Managements (NPM) stellt umfassende Visibilität einen zentralen Aspekt jedweder eingesetzten Lösung dar. Visibilität heißt, Einblick zu haben in Niederlassungen, in WANs und in das Innere der Rechenzentren, in physikalische, virtuelle oder optimierte Umgebungen, in Cloud-Endgeräte sowie Server.

Sie ist deshalb so wichtig, weil IT-Verantwortliche heutzutage mit einigen großen Herausforderungen bei der Problemlösung zu kämpfen haben: Es existieren immer mehr hybride Netzwerke, Teile von Anwendungen oder gesamte Anwendungen liegen in öffentlichen Cloud-Infrastrukturen. Sensible Daten oder Unified Communications und Virtual Computing Traffic in Echtzeit laufen über die gleichen Netzwerkpfade und machen Quality of Service (QoS) erforderlich. Darüber hinaus nutzen Endanwender immer mehr geschäftskritische Anwendungen auf verschiedenen Mobilgeräten. Ein System mit guter Visibilität hat vor allem eine Aufgabe: Dem Anwender die nötigen Informationen zu liefern, um Probleme schnell lösen zu können.

Breitgestreute und tiefgehende Analysen
In jedem Netzwerk bilden Datenpakete die unmittelbare Quelle der Wahrheit, weshalb sie von einer Netzwerk-Management-Lösung   entsprechend vollständig erfasst und analysiert werden müssen. Um Aufschluss darüber zu erlangen, wie sich das Netzwerk verhält und wie sich Verantwortliche eine umfassende Ende-zu-Ende-Visibilität verschaffen, ist der Datenfluss relevant. Zwei Mechanismen sind in diesem Zusammenhang entscheidend:

1.  Analyse von Datenflüssen: Sie ist eine kosteneffiziente und skalierbare Möglichkeit, um Performance-Metriken von Routern, Switches und anderen Netzwerkgeräten zu erhalten. Informationen zu Datenflüssen liefern lückenlose Einblicke in das gesamte Netzwerk und geben beispielsweise Aufschluss über Anwendungsabhängigkeiten. Eine Installation von „Probes“ (Sonden) ist zu diesem Zweck nicht erforderlich. Die dabei gewonnenen Daten eignen sich für ausführliche Analysen und zum Beheben einiger Fehler. Außerdem lassen sich Trends erkennen. Allerdings bleiben bei diesem Verfahren detaillierte Informationen zu den tiefer gelegenen Ebenen auf der Strecke.Um große Datenmengen bewältigen zu können, sollten Unternehmen den Datenfluss verschiedener Standorte deduplizieren. Die Verringerung des Datenvolumens bietet einen unmittelbaren Vorteil bezüglich der Speicherkosten und der Performance-Analyse.

2. Analyse von Paketdaten: Diese Maßnahme ermöglicht detaillierte Einblicke in die Anwendungsperformance. An einigen Stellen im Netzwerk macht die fortlaufende Erfassung der Pakete Sinn, da somit eine rückblickende Analyse möglich wird. Paketdaten sind außerdem für die Ermittlung der Reaktionszeiten von Webseiten aus Anwendersicht erforderlich.

Bei der Wahl einer NPM-Lösung setzen viele Unternehmen auf eine der beiden genannten Maßnahmen. Sie entscheiden sich also entweder für breit gestreute oder für tief gehende Analysen. Dies kann von Nachteil sein, da der Anwender so nur einen einseitigen Einblick erlangt und komplexe Zusammenhänge nicht fassen kann.

Die ideale Strategie stellt eine Kombination beider Lösungen dar und integriert Paketdaten und Informationen zu Datenflüssen innerhalb eines Protokolls. Somit wird eine umfangreiche Visibilität bei minimaler Instrumentierung sowie ein nahtloser Übergang zwischen den datenflussbasierten Informationen und jenen auf der Paketebene möglich. Außerdem wird dadurch der Zeitaufwand verkürzt, der für die Identifizierung, die Diagnose und das Beheben von komplexen Performance-Problemen anfällt. Eine integrierte Architektur erlaubt dem Nutzer nicht nur bessere Einblicke in das Geschehen. Auch die Kosten für Einkauf und Betrieb fallen geringer aus als bei einzelnen Lösungen.

Erkennen von Anwendungsabhängigkeiten
Welche Anwendungen laufen überhaupt im Netzwerk? Und in welcher Beziehung stehen sie zueinander und zur Netzwerkhardware? Antworten auf diese Fragen liefern Informationen zum Datenfluss. Sie decken aktuelle Anwendungsabhängigkeiten auf und sind beispielsweise bei der Konsolidierung von Rechenzentren sehr hilfreich – auch dann, wenn nur ein Server  verlegt wird.

Mit Informationen über Abhängigkeiten und Bezugspunkten erstellen Anwender zuverlässige Projektpläne und verringern die steten Risiken, die sich bei Veränderungen an der Infrastruktur ergeben.

Nutzer, Web Server, Application Server, Load Balancers, DNS  und Authentifizierungs-Server oder Datenbanken sind allesamt beim  Ausspielen einer einzigen Anwendung beteiligt. Deshalb müssen die Abhängigkeiten geklärt sein, wenn Nutzer Dashboards für das Anwendungs-  oder Service-Level entwickeln wollen.

Von Dashboards zu Paketen
Um einen Eindruck über den aktuellen Stand der Dinge zu erhalten, eignet sich die Nutzung von Dashboards. Im Optimalfall ist eine solche Funktion in die jeweilige Lösung integriert, sodass zunächst ein grober Überblick über das Netzwerk bereitsteht und dann Schritt für Schritt in die tieferen Ebenen eingetaucht werden kann: von Dashboards über Details auf der Datenflussebene bis zur Paketansicht.

Mit einer solchen Lösung, die im Grunde wie eine Telezoom-Objektiv agiert, können Anwender die Zeit vom automatischen Alert bis zur Problemfindung verkürzen. Breit aufgestellt zu starten und im zweiten Schritt die Details zu beleuchten, entpricht der schnellsten und effizientesten Methode.

Ein optimales Netzwerkmanagement lässt sich also nur realisieren, sofern eine umfassende Visibilität in die Netzwerkprozesse vorliegt. Dies bedeutet, dass sowohl ausreichend Informationen über den
Datenfluss als auch über Paketdaten vorhanden sein müssen, die schließlich in das Monitoring einfließen und sich im Bedarfsfall günstig auf den Prozess der Problemlösung auswirken.

Jörg Knippschild ist Senior Manager Solutions Engineering Central Europe bei Riverbed