Schwerpunkte

Hyperkonvergente Infrastrukturen

(R)evolution im Rechenzentrum

12. März 2018, 15:10 Uhr   |  Autor: Michael Sandhoff / Redaktion: Axel Pomper

(R)evolution im Rechenzentrum
© Norbert Preiß / funkschau

Hyperkonvergente Systeme sind erwachsen und schicken sich an, den IT-Infrastruktur-Markt umzukrempeln. Denn die zweite Generation weitet die Vorteile wie lineare Skalierbarkeit, vereinfachte Verwaltung, schnelle Bereitstellung sowie geringere Kosten auf eine Vielzahl von Anwendungsszenarien aus.

Die Zahlen sprechen für sich: Um gut 60 Prozent jährlich wächst der weltweite Markt der hyperkonvergenten Systeme. Das sind Lösungen, die alle zentralen Funktionen eines Rechenzentrums (Compute, Storage und Networking) unter einer gemeinsamen Verwaltung in einer Plattform zusammenfassen und dadurch Komplexität und Kosten senken. Analysten wie Gartner erwarten, dass sich die Technologie bis 2020 in der Breite im Markt durchsetzt. Plante laut einer Umfrage in 2015 nur jedes fünfte Unternehmen einen konkreten Einsatz von hyperkonvergenten Infrastrukturen (HCI), so ist die RZ-Kompaktklasse beim Redesign der IT-Infrastruktur in jedem Kundengespräch neben Cloud ein zentrales Thema. Und dies über alle Größen und Branchen hinweg

Kinderkrankheiten überwunden

Der Grund? Mit der zweiten Technologiegeneration wurden Kinderkrankheiten bei Performance und Skalierbarkeit überwunden. Das macht die Vorteile von HCI vielfältiger nutzbar. Diese resultieren aus dem stark verkürzten Infrastruktur-Stack. Denn hyperkonvergente Architekturen zeichnen sich dadurch aus, dass Rechen-, Speicher- und Netzwerkressourcen eng miteinander verzahnt und vollständig virtualisiert sind. Sie bilden einen gemeinsam nutzbaren Ressourcenpool, der sich softwarebasiert verwalten lässt. Die einzelnen Bausteine (Nodes) setzen auf kostengünstiger Standard-x86-Hardware auf und sind in sich lauffähig. Funktionen wie Kompression, Deduplizierung, Replikation und Backup werden oft als ergänzende Dienste bereitgestellt. Somit entfällt Storage als eigenständige Komponente und ein SAN ist überflüssig.

Bei steigendem Leistungs- oder Kapazitätsbedarf lassen sich Nodes ad hoc im laufenden Betrieb hinzufügen (Scale-out), ohne dass dabei aufwändige Konfigurations- und Migrationsarbeiten wie die Definition von LUNs oder das Zoning anfallen. Die HCI-Architektur begünstigt somit den Aufbau einfach verwaltbarer und skalierbarer IT-Landschaften für die schnelle und unkomplizierte Bereitstellung von Ressourcen. Die Kehrseite in der Praxis war zu Beginn jedoch die starre Paketierung der Appliances.

Flexibles Sizing und Flash-Speicher

Aus Supportgründen boten HCI-Pioniere wie Nutanix oder Simplivity ihre Rechenzentren „aus der Box“ zwar gut durchgetestet, aber nur in Einheitsgrößen bei RAM, CPU und Festplattenspeicher an. Bei jeder Erweiterung musste eine Appliance, die häufig drei Nodes umfasst, mit vorgegebenen Kapazitäten angedockt werden, obwohl beispielsweise nur mehr Rechenleistung gebraucht wurde. Bei HCI der zweiten Generation ist die Skalierung feiner justierbar. Denn Rechenleistung und Speicher eines einzelnen Nodes sind voneinander getrennt und können entsprechend der Workload dimensioniert werden.

Gleichzeitig haben HCI auch bei der Performance zugelegt. Beim Lesen oder Schreiben kompletter Festplatteninhalte gingen sie früher unausweichlich in die Knie, da der SSD-SATA-Verbund die Leistungsanforderung nicht erbringen konnte. Dank Flash-Speicher meistern sie jetzt I/O-intensive Aufgaben problemlos, beispielsweise ein volles Backup über alle Datenbestände oder Big-Data-Analysen. Zudem entfällt der Storage-Traffic als Flaschenhals, da sich der Speicher direkt ansprechen lässt. Die Daten auf den VMs liegen nahe der verarbeitenden CPU und müssen nicht erst über das SAN transportiert werden.

Seite 1 von 2

1. (R)evolution im Rechenzentrum
2. Fast alles ist möglich

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

funkschau