Sie sind hier: HomeDatacenter

Internet of Things: Intelligenz am Rand der Cloud

Aus Milliarden an Daten verwertbare Informationen zu gewinnen, gehört zu den primären Werttreibern des Internet of Things. Die Cloud ist dafür unumgänglich, aber nicht in jedem Fall erste Wahl. Edge-Computing etabliert sich als komplementäre IoT-Systemarchitektur.

Bildquelle: © alphaspirit / fotolia.com

Mit der richtigen Architektur ins Internet der Dinge

Das Marktforschungsinstitut Gartner prognostiziert, dass 21 Milliarden Dinge bis 2020 mit dem Internet vernetzt sein werden. Diese zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor große Herausforderungen. Und dank der relativ kostengünstigen Integration von Sensoren in allerlei Geräte, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder des Standorts, ist ein Ende noch lange nicht in Sicht.

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, wird die Cloud spätestens mit dem Einzug von IoT-Konzepten (Internet of Things) ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie vorausschaubare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz. Die dezentrale Architektur von Cloud-Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten.

Was aber passiert, wenn unzählige Endgeräte riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen? Die Antwort scheint bereits gefunden: Indem sie es nicht allein bewältigen, sondern ein großer Teil der Prozesse „an den Rand der Cloud“ verlagert wird, dort wo sich Gerät und Anwender treffen. Edge-Computing – oder auch Fog-Computing – nennt sich dieses alternative Architekturkonzept. Die Daten werden dabei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge-Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batch-Verarbeitung noch netzwerkbedingte Latenzzeiten ausgebremst werden. Die Geräte am Rande kommunizieren miteinander und treffen unabhängig von der Cloud Entscheidungen.

Möglich wird dadurch nicht nur das Sammeln, Verarbeiten und die Analyse von Daten aus der „Außenwelt“, auch die umgekehrte Richtung ist möglich. Das jüngste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge-Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft.

Zugegeben, dieser Ansatz ist nicht gänzlich neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr nur auf Hochleistungshardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren.

Mussten die Daten bisher zunächst über das Netzwerk an solch ein Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorgangs in den selbstfahrenden Autos der Zukunft schon zu spät sein. Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer kleinen Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerks platziert wird.