Sie sind hier: HomeDatacenter

Roundtable: Bereit für SDN und NFV

Fortsetzung des Artikels von Teil 1.

Grrößere Realitätsnähe

Ulrich Kohn von Adva Optical Networking: "Die Implementierung einer Self-Provisioning-Lösung in einer offenen Umgebung benötigte lediglich einige Stunden, nicht Wochen oder Monate." Bildquelle: © funkschau

Ulrich Kohn von Adva Optical Networking: "Die Implementierung einer Self-Provisioning-Lösung in einer offenen Umgebung benötigte lediglich einige Stunden, nicht Wochen oder Monate."

„Mit SDN und NFV kann damit begonnen werden, klassische Funktionen wie etwa Network-Protection entsprechend dem tatsächlichen Bedarf zu berechnen“, ergänzt Gint Atkinson von KVH zum Thema Erlösgenerierung. „Heute fragen Kunden entweder geschützte oder ungeschützte Services nach. Aber was benötigen sie tatsächlich? Eine 24/7-Protection ist kostspielig.“ Wenn also Carrier eine maßgeschneiderte Protection-as-a-Service anbieten können, dann bedeutet dies neue Möglichkeiten sowohl für Carrier als auch für die Kunden.

Die Chance liegt also darin, Funktionen mittels NFV zu zentralisieren, etwa indem Intrusion-Detection Carrier-weit oder als kundenspezifischer Ende-zu-Ende-Service angeboten wird, so Ulrich Kohn von ADVA Optical Networking. Mit Blick auf einen kürzlich durchgeführten NFV-Test bei der British Telecom führt er weiter aus: „Die Implementierung einer Self-Provisioning-Lösung in einer offenen Umgebung benötigte lediglich einige Stunden, nicht Wochen oder Monate. Das kann für ausgereifte Netzwerke beispielhaft sein.“

Chris Purdy von CENX machte den Vorschlag, die Diskussion in größere Realitätsnähe zu rücken: „Zunächst ist es einmal erforderlich zu definieren, was mit SDN, NFV und Service-Orchestrierung eigentlich gemeint ist. Diese Begriffe werden derzeit aus einer Marketing-Perspektive verwendet, die zu einer Konfusion bei den Kunden führen kann. Beispielsweise denken viele Menschen, dass NFV Service-Flexibilität bedeutet und Connectivity-on-Demand ermöglicht.“ Aber, so Purdy weiter, das muss nicht zwangsläufig auch der Fall sein. „Der potenzielle Wert der verteilten Recheninfrastruktur ist offensichtlich. Anstatt jedes Mal eine Box zu installieren, wird eine virtuelle Netzwerkfunktion aufgesetzt, und anstatt einer physikalischen Verkabelung eine logische Verbindung. Dies wird bei den Service-Providern in den Labs auch verfolgt. In der Praxis fehlen aber noch die Projekte.“

Eine wesentliche Motivation bleibt der Wunsch nach Kosteneinsparungen im Gegensatz zur Schaffung neuer Einnahmequellen. James Armstrong von Spirent Communications: „Die Möglichkeit zu Einsparungen bei den fixen Kosten ist klar. Die neue Flexibilität verspricht viel. Aber wird die neue Technik in Bezug auf Zuverlässigkeit auch das liefern, was Unternehmen von einem physikalischen Netzwerk gewohnt sind? Kann NFV höchsten Belastungen standhalten? Und wenn ein Problem auftritt, dann stellt sich die Frage nach den zusätzlichen Kosten um herauszufinden, wo der Fehler liegt. Wird etwa die erhöhte Flexibilität durch zusätzliche Kosten auf der anderen Seite kompensiert?“

Dem stimmt auch Andrew McFadzen zu: „Wenn die physikalische Firewall eines Kunden ausfällt, dann kann ein Techniker dies beheben. Bei mehreren Kunden, die sich eine Server-Umgebung teilen, die hinter einer Software-Firewall steht, sieht die Situation gänzlich anders aus.“

Prayson Pate plädiert für eine längerfristige Betrachtung von NFV: „Wir sollten nicht in die Falle tappen, lediglich die Services zu betrachten, die wir heute kennen. Wir kennen dies aus der Telefonwelt. Niemand konnte sich vorstellen, dass Kunden eine schlechtere Sprachqualität akzeptieren würden. Tatsächlich taten dies die Menschen aber, weil sie plötzlich kostenlos oder äußerst günstig telefonieren konnten. Es hat sich ein komplett neuer Markt mit unterschiedlichen Lösungen für unterschiedliche Zielgruppen entwickelt.“

Wie werden die Netzbetreiber und Service-Provider die neuen Techniken implementieren? Die Lösung liegt in der Offenheit. Marc Cohn plädiert für offene Standards: „Die Herausforderung liegt darin, neue Plattformen zu schaffen, die es ermöglichen, gemeinsam zu wachsen, anstatt individuelle Lösungen zu entwickeln.“ Dafür sieht er zwei Möglichkeiten. Die eine liegt in Open-Source-Plattformen, die zweite in der Herstellerneutralität. „Darum geht es bei Offenheit. Alle Hersteller müssen sich darüber im Klaren sein, dass sie in die Richtung konvergieren müssen, die von den Betreibern verfolgt wird.“

„In dieser Hinsicht“, ergänzt Neela Jaques vom Open Daylight Project, „gibt es ganz unterschiedliche Ausprägungen von Wünschen und Fähigkeiten. Das eine Extrem sind die Twitters, Googles und Facebooks, die über die notwendigen Fachleute verfügen, um Lösungen selbst zu entwickeln. Auf der anderen Seite gibt es eine Vielzahl von Betreibern, die über diese Kompetenz nicht verfügen und Lösungen benötigen, die funktionieren.“ Dies gilt nicht nur für die Telco-Seite, sondern auch für die Rechenzentren. „Wir leben in einer Welt“, so Jaques weiter, „in der Offenheit die Basis für den Standardisierungsprozess wird. Dies ermöglicht Innovation und Defacto-Standards, auf die jedermann zugreifen kann. Von diesen Angeboten aus lassen sich proprietäre Zusatzangebote schaffen, um sich vom Wettbewerb abzuheben. Dass können einfache Layer über dem Source-Code sein, aber auch komplette Ende-zu-Ende-Lösungen.“

Er fasst zusammen: „Ich persönlich glaube, dass wir mit dem Schritt in Richtung auf SDN und NFV die Agilität erhöhen und die Kosten senken können. Tatsächlich werden wir an einen Punkt kommen, an dem sich neue Anwendungsfelder eröffnen, die wir heute noch gar nicht kennen.“