Sie sind hier: HomeDatacenter

Dezentralisierte Netzarchitektur: Edge Computing: Mehr Tempo im Kerngeschäft

Die Unternehmens-IT verändert sich – wieder einmal. Nach der Mainframe-Ära, der verteilten Datenverarbeitung mit Client-Server-Modellen und der Rezentralisierung in die Cloud steht nun erneut ein dezentraler Ansatz im Mittelpunkt: das Edge Computing.

Geschwindigkeit Bildquelle: © alphaspirit -113rf

Das Internet der Dinge mit geschätzten 50 Milliarden angeschlossenen Devices bis 2020, Consumer-Services wie Netflix und nicht zuletzt die massive Verbreitung mobiler Endgeräte stellen die IT von Anbietern und Carriern vor neue Herausforderungen. Die Gründe dafür sind – neben der rapide wachsenden Datenmenge – vor allem auch ein zunehmender Bedarf an Echtzeitverarbeitung und damit ein gesteigerter Bedarf an hohen Verarbeitungs- und Übertragungsgeschwindigkeiten. Anders ausgedrückt: Konventionelle Rechenzentren, die in der Regel dafür konzipiert wurden, eher zeitunkritische Workloads und Dienste bereitzustellen, sind den neuen Prozessen kaum mehr gewachsen.

Hier kommt das Edge Computing ins Spiel. Dabei handelt es sich um einen verteilten IT-Ansatz, mit dem Rechenleistung näher ans Geschehen, also zum Benutzer beziehungsweise zu Sensoren, Geräten und Maschinen gebracht wird. Edge Computing ermöglicht es, neue Services ins Leben zu rufen und bestehende Dienste schneller abzuwickeln, indem Daten nah am Ort der Entstehung und damit ohne hohe Latenzen verarbeitet werden. Erst danach erfolgt eine Übermittlung der Ergebnisse an ein zentralisiertes Rechenzentrum in der Cloud – sofern überhaupt nötig. Ein entscheidender Vorteil: Bei vielen der heute und in Zukunft generierten Daten handelt es sich um Informationen, die zwar sehr schnell generiert, oft aber nur einmalig zur Entscheidungsfindung benötigt werden und danach keine Rolle mehr spielen. Mit Edge Computing lassen sich diese Daten dezentral und direkt an den Enden des Netzwerks erfassen, auswerten und verarbeiten. Hinzu kommt, dass noch vor Ort eine Bereinigung stattfinden kann, bevor individuelle Daten an das zentrale Datacenter weitergeleitet werden. All das verringert Wartezeiten, reduziert Übertragungskosten und verbessert die Servicequalität.

Internet der Dinge treibt Entwicklung voran

Wichtigster Treiber für das Edge Computing ist das Internet der Dinge: Weil immer mehr verschiedene Devices an das Internet angebunden werden, die immer mehr Daten generieren, wird eine Verarbeitung an den Enden des Netzwerks unumgänglich. So sollen bereits im kommenden Jahr rund 43 Prozent der durch das Internet der Dinge erzeugten Daten mit Edge-Computing-Systemen bewältigt werden. Das gilt vor allem für Branchen, für die die Auswertung und Verarbeitung von Echtzeitdaten einen geschäftskritischen Faktor darstellen. In der Industrie 4.0 beispielsweise, wo Roboter und teilautonome Systeme zum Einsatz kommen, entwickeln sich hohe Performanz und niedrige Latenz künftig zu den entscheidenden Faktoren für das Kerngeschäft.

Eine ähnliche Entwicklung erwarten Experten für das Edge Computing im Automotive-Segment: So gehen Marktbeobachter davon aus, dass autonome Fahrzeuge in Zukunft nicht weniger als vier Terabyte an Daten generieren werden – täglich. Auch hier sorgen Edge-Computing-Systeme für Fortschritte, weil maschinengesteuerte Entscheidungen unter Umständen in Bruchteilen von Sekunden getroffen werden müssen – beispielsweise wenn eine On-Bord-Kamera rote Ampeln eigenständig erkennen soll. Hohe Latenzen für die Übertragung von Daten oder lange Verarbeitungszeiten können hier zu einer Katastrophe führen. Aber auch für die Verarbeitung von Navigations- und Kommunikationssystemen im Connected Car oder die Nutzung internetbasierter Dienstleitungen stellen die kurzen Distanzen mit Edge Computing eine Grundvoraussetzung dar.

Selbst bei öffentlichen Versorgern hat das Thema Dezentralisierung bereits zu ersten Implementierungen geführt. Dabei geht es in erster Linie um die verteilte Überwachung und das Remote-Management von Smart-Grid-Stromnetzen. Im Finanzmarkt wiederum lässt sich Edge Computing nutzen, um in Sekundenbruchteilen auf Entwicklungen an der Börse reagieren zu können. Doch selbst Consumer-Services wie Netflix oder Spotify, deren Geschäftsmodelle eng mit der Kundenzufriedenheit verwoben sind, profitieren mitunter massiv vom dezentralisierten IT-Ansatz. Auch hier ist die Geschwindigkeit für die Datenübertragung der entscheidende Faktor für den Erfolg: Eine Fußball-Weltmeisterschaft etwa lebt von Live-Events. Störungen und Verzögerungen beim Streaming der Bilder beeinflussen die Meinung des Konsumenten unmittelbar. Ebenso kann eine hohe oder niedrige Latenz darüber entscheiden, ob Endanwender mit Funktionen eines Smartphones wie etwa der Spracherkennung zufrieden sind.

Skalierbarkeit und Sicherheit im Fokus

Neben der schnelleren Verarbeitung und Übermittlung spricht auch die hohe Skalierbarkeit für das Edge Computing. So ist es im dezentralisierten IT-Modell einfacher möglich, Recheneinheiten je nach Bedarf und jederzeit vor Ort hinzuzufügen oder aus dem Netzwerk zu entfernen. Weil Daten nicht mehr den langen Weg in das Datacenter nehmen müssen, sondern am Ort ihrer Entstehung verbleiben können, lassen sich zudem typische Probleme mit der Datensicherheit in den Griff bekommen. So lassen sich beispielsweise Viren bereits an den Rändern des Netzwerks erkennen und sogar beseitigen, noch bevor sie das Core-Rechenzentrum erreichen können. Hinzu kommt eine Nutzung von Edge Computing aus rechtlichen oder regulatorischen Gründen, wenn Daten aus Datenschutzgründen nicht in ein anderes Land transferiert werden dürfen.

Vermittlerrolle für das Edge Computing

Dreh- und Angelpunkt für die technische Umsetzung von Edge-Computing-Strategien bilden immer häufiger Carrier-neutrale Co-Location-Anbieter mit sogenannten Near-Edge-Services. Solche Dienste fungieren als „Lieferanten“ für die Netzwerk-Edge und vermitteln zwischen Applikationen und Datenquellen. In der Regel stellen Co-Location-Dienstleister ihren Kunden eigene Edge-Standorte als eine Alternative zu Cloud-Content-Netzwerken zur Verfügung oder vermieten die eigene Infrastruktur an Cloud-Anbieter weiter. Ein Geschäftsmodell mit Zukunft: So weisen Co-Location- und Housing-Anbieter aktuell Rekordwachstumsraten von jährlich 17 Prozent auf, wie eine Studie des Eco Verbands der Internetwirtschaft e. V. und Arthur D. Little zum deutschen Rechenzentrumsmarkt untermauert. Denn Kunden sparen sich die Kosten für eine eigene Infrastruktur und profitieren von beiden IT-Welten.

Falk Weinreich ist Senior Vice President Sales and Marketing bei Colt Data Centre Services