Schwerpunkte

Performance-Check

Wissen, was geht

02. August 2016, 14:59 Uhr   |  Autor: Paul O‘Reilly / Redaktion: Markus Kien | Kommentar(e)

Wissen, was geht
© fotolia

Um Service-Level und eine hohe Quality of Experience zu gewährleisten, müssen die Betreiber von Rechenzentren ihre Netze, ihre Sicherheit und ihre virtuellen Infrastrukturen unter realistischen Bedingungen prüfen. Standardisierte Tests reichen nicht aus.

Die Connected World ist vom Schlagwort zur Realität geworden. Mehr als fünf Milliarden Geräte aller Art sind mit dem Internet verbunden, und Trends wie das Internet of Things (IoT) beschleunigen das Wachstum weiter. Schon im Jahr 2020 wird es nach vielen Prognosen etwa 50 Milliarden und damit zehnmal so viele Systeme wie heute umfassen. Auf vielen dieser Geräte laufen komplexe Anwendungen, die rund um die Uhr mit anderen kommunizieren müssen und Initiativen wie internet.org von Facebook werden noch mehr Anwender online bringen.

Mehr User, mehr Geräte und bandbreitenhungrige Applikationen bedeuten daher nicht nur automatisch mehr Daten, sondern bringen auch höhere Anforderungen an die Performance und Verfügbarkeit der Infrastruktur mit sich. Insbesondere Streaming HD-Video, Virtual und Augmented Reality, soziale Netze, Big Data und das aufkommende IoT haben einen nahezu unbegrenzten Hunger nach Bandbreite, den die Betreiber von Rechenzentren dennoch stillen müssen.

Und als wäre das nicht genug, müssen Rechenzentren neben diesem legitimen Traffic auch noch immer ausgefeilteren Denial-of-Service-Attacken mit extrem hohen Datenraten standhalten. Nach dem im Januar veröffentlichten Bericht „Enisa Threat Landscape 2015“ der Europäischen Agentur für Netz- und Informationssicherheit Enisa hat sich allein im Jahr 2015 die Zahl der DDoS-Attacken mit einer Bandbreite von mehr als 100 GBit/s verdoppelt, und eine Trendwende ist nicht in Sicht.

Rechenzentren begegnen den steigenden Anforderungen an ihre Infrastruktur mit einer massiven Aufrüstung. Die Server-Switch-Verbindungen innerhalb der Racks werden von zehn auf 25 Gigabit Ethernet (GbE) migriert, das Core-Netzwerk von 40 auf 50 oder 100 GbE. Als Resultate dieser Aufrüstung versprechen die Betreiber sich deutlich höhere Datenraten bei annähernd gleichem Platzbedarf und Energieverbrauch, eine höhere Serverdichte und reduzierte Kosten pro Bandbreiten-Einheit.

Doch nicht immer werden alle diese Erwartungen erfüllt. Denn die Spezifikationen von Netzwerkgeräten, Storage- und Sicherheitssystemen sind eines, ihr Verhalten unter realen Bedingungen möglicherweise etwas völlig anderes. Zudem bergen die Virtualisierung von Ressourcen, die Einbindung von Cloud-Computing und SaaS eine Vielzahl von Risiken, die die Einführung neuer Dienste ebenso wie die Dienste selbst deutlich verlangsamen können. Um die benötigten Dienste jederzeit und überall in der geforderten Qualität anbieten zu können, kommen Betreiber von Rechenzentren an aussagefähigen Tests ihrer Infrastruktur nicht vorbei.

Dabei genügt es nicht, mithilfe standardisierter Tests die Performance einzelner Komponenten zu ermitteln. Kunden und interne Anwender interessiert es nicht primär, wie viele Pakete eine Web Application Firewall pro Sekunde inspizieren kann, sondern wie ihre Antwortzeiten unter verschiedenen Last- und Verkehrsbedingungen sind. Diese hängen nicht nur von den einzelnen Systemen und ihrem Zusammenspiel ab, sondern auch von den Anwendungen mit ihren spezifischen Protokollen und Verkehrsmustern, möglicherweise vom Ort und von der Tageszeit, von der Sicherheitsarchitektur, den Sicherheits- sowie Zugriffsregeln und vielen anderen Faktoren.

Rechenzentrums-Betreiber müssen daher den gesamten Delivery Path ihrer Applikationen testen – von Ende zu Ende und vor allem unter realistischen Bedingungen. Dies bedeutet, dass sie für den Test bis hinab zu den niedrigsten Protokollen wirklichkeitsgetreue Abbilder ihrer spezifischen Anwendungen und Workloads sowie deren Verkehrsmuster einsetzen müssen. Einfache und standardisierte Tests wie IO Meter sind in komplexen Umgebungen einfach nicht aussagefähig genug. Wer dabei an der falschen Stelle spart, begibt sich auf sehr dünnes Eis.

Seite 1 von 3

1. Wissen, was geht
2. Testen unter realen Bedingungen
3. Expertenkommentar: Bereit für Big Data und IoT?

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

IT-Prozessorganisation automatisieren und orchestrieren
Backup und Desaster Recovery voll automatisiert
Null-Fehler-Ansatz für IT-Dienste

Verwandte Artikel

Ixia Europe Ltd.