Datacenter-Bridging

Aktive Vollvermaschung

27. Januar 2011, 9:56 Uhr | Markus Nispel, Vice President Solutions Architecture bei Enterasys | Kommentar(e)

Fortsetzung des Artikels von Teil 1

Datacenter-Bridging

Datacenter-Bridging
© Enterasys

Ein weiterer Standard mit dem Potenzial zur Verwirrung im Markt. Wie groß kann man Netze mit DCB bauen? Wird dies überhaupt skalierbar funktionieren? Sollte man wirklich Data und Storage über den Netwerkanschluss des Servers hinaus (I/O-Konsolidierung) zusammenführen? Potenzial für weitere Artikel und viel Beratungsleistung. Storage – egal ob nun FCoE, NFS (Network-File-System) oder iSCSI sind allesamt auch bandbreitenhungrig,  so dass man mittelfristig wesentlich höhere Bandbreiten innerhalb des Datacenters bereitstellen muss. Dies ist typischerweise nur durch eine vollkommen aktive Fabric zu erreichen: alle Verbindungen müssen aktiv genutzt werden, um die aggregierte, zur Verfügung stehende Bandbreite signifikant nach oben zu treiben.

Und dies auch noch in einer Layer-2-Umgebung,  da FCoE (wenn man das wirklich tun möchte) danach verlangt – iSCSI und NFS sind hingegen wesentlich Netzwerk-freundlicher … und seit langem vollständig standardisiert. Und auch auf Layer 2, da sonst die Mechanismen zum Umzug von VMs nicht funktionieren würden. Und schon kommen die gerade etablierten RSTP/MSTP- und LACP-Konzepte zumindest bei sehr großen Datacentern an ihre Grenzen.

Hingegen können das Gros an Datacenter mit bis zu 500 Servern durch die Installation von mit EoR-Switches (End of Row) noch eine lange Zeitspanne auskommen. Denn würde man diese 500 konventionellen Server vollständig virtualisieren und man konservativ von einer Rate von 1:10 ausgeht, ist man nur noch bei 50 physischen Servern. Mit redundanten Systemen eventuell 75, mit jeweils vier 10-GBit/s-Interfaces. Das sind 300 10-GBit/s-Ports – verteilt man diese auf zwei Datacenter kann man mit vier „handelsüblichen“ EoR-Switches auskommen, die heute ohne weiteres pro Chassis mehr als 100 10-GBit/s-Ports bereit stellen. Da spielt es keine Rolle ob RSTP/MSTP oder etwas anderes genutzt wird. Virtuelles Switching kommt hier auch ins Spiel und vereinfacht das Design. Nur wenn man massiv darüber hinaus geht, spielen die neuen Mesh-Standards im Datacenter eine signifikante Rolle. Diese können auch in Netzen mit mehr als 100 Switches eingesetzt werden (Ziel laut Standard sind 10000+ ).

Alle Kunden, die aus welche Gründen auch immer, ihre Access-Netze nicht auf Routing-Strukturen umstellen konnten, werden davon natürlich auch profitieren: alle Service-Provider-ähnlichen Strukturen wie auf Flughäfen oder Metro-Netzen. Und beim Thema „Layer 2 Mesh“ stehen dann doch IETF und IEEE in Konkurrenz zueinander – beide haben ihre Pferde ins Rennen geschickt um große Layer-2-Netze bauen zu können, die mehr als einen aktiven Pfad haben so wie RSTP. MSTP kann  auch schon mehr – ist aber nicht „Plug and Play“ so wie es die neuen Ansätze versprechen.

Beide Ansätze gehen auf Ideen zurück die Cabletron (heute Enterasys) schon im Jahre 1996 als Produkt auf den Markt gebracht hatte – nämlich eine aktive Vollvermaschung im Layer 2 auf der Basis eines intelligenten Routing-Protokolls. Damals als „SecureFast“ bei Cabletron bekannt wurde OSPF als VLSP (VLAN-Link-State-Protocol) genutzt um eine MAC-Address-Erreichbarkeit auszutauschen. Heute wird sowohl bei der IETF (TRILL-Transparant-Interconnect of Lots of Links) als auch bei der IEEE ( 802.1aq SPB, Shortest-Path-Bridging) das IS-IS Protokoll genutzt. Die IEEE versuchte schon seit längerem einen Standard für Metro-Ethernet-Netze zu etablieren (seit 2006) – kam nie zu einem echten Ende. Daher hatte man in der IETF eine „Konkurrenzarbeitsgruppe“ etabliert. Um auch den IEEE Leuten etwas Beine zu machen – was wohl letztendlich Früchte trägt. Prinzipiell sind die Ziele die ähnlich: „Plug and Play“, aktive Lastverteilung auf allen Verbindungen (active mesh), schnelles Rerouting und einige mehr.

Evolution der Datacenter-Netze
Evolution der Datacenter-Netze
© Enterasys

  1. Aktive Vollvermaschung
  2. Datacenter-Bridging
  3. Unterschiede in der Standardisierung
  4. Fazit

Verwandte Artikel

Professional Datacenter

Anbieterkompass