Schwerpunkte

Latenzzeiten

Von Sekunden und Millisekunden

16. Juni 2020, 15:00 Uhr   |  Autor: Thomas King / Redaktion: Sabine Narloch

Von Sekunden und Millisekunden
© cirquedesprit/Fotolia

Geringe Latenzzeiten sind in Zeiten der Digitalisierung sehr wichtig. Thomas King vom Internetknoten DE-CIX blickt dabei konkret in drei Technologiebereiche, für die niedrige Latenzen besonders wichtig sind.

Die Welt hat in den vergangenen Monaten große Veränderungen erlebt. Der Ausbruch und die rasante Verbreitung von COVID-19 hat die Menschen spüren lassen, dass solche unvorhersehbaren Ereignisse unseren Alltag beeinflussen – ob privat oder beruflich. Aufgrund dieser Situation muss und wird der digitale Wandel stark vorangetrieben; unter normalen Umständen wäre das nicht so schnell erfolgt. Bei allen Herausforderungen und Einschränkungen ist es beruhigend, dass das Internet in seiner Struktur zuverlässig funktioniert und sowohl das private als auch das berufliche Leben in großen Teilen – wenn auch auf Distanz – unterstützt.

Einerseits können die Menschen privat mit Freunden und Familie über Video-Calls und andere digitale Kommunikationsmittel in Verbindung bleiben. Gaming und das Streamen von Video-Content helfen, sich zu unterhalten. Andererseits spielt das Internet in der Arbeitswelt und Geschäftsprozessen eine essentielle Rolle, wie das Wasser aus der Leitung oder der Strom aus der Steckdose: Millionen Arbeitnehmer*innen und -geber*innen nutzten mittlerweile die Möglichkeit des Homeoffice, unterstützt durch digitale Colaboration-Tools. Auch hier sind beispielsweise Video-Calls über Skype, Zoom oder Teams unverzichtbar. Stabile VPN-Verbindungen garantieren den Zugriff auf die digitalen Arbeitsmaterialien, die auf den File-Servern im Firmennetz abgelegt sind. Internetknoten nehmen dabei die neutrale Rolle eines „Datenvermittlers“ ein; angeschlossene Netzwerke werden über eine Direktverbindung zusammengeschlossen – dieser Vorgang nennt sich Zusammenschaltung oder auch Interconnection.

In einer Umfrage von DE-CIX in Frankfurt, die unter den eigenen Kunden durchgeführt wurde, geben 81 Prozent der Teilnehmer an, dass Latenz das wichtigste Kriterium beim Abschluss neuer Interconnection-Verträge ist. Was sind die Treiber hinter dieser starken Nachfrage nach Latenz? Im Folgenden werden drei Technologiebereiche exemplarisch dargestellt, für die niedrige Latenzen besonders wichtig sind:

Klassisch: Web Applikationen
Alle Inhalte, die im Webbrowser oder per App aufgerufen werden, sollen möglichst direkt und ohne Verzögerung erscheinen – das ist der gängige Anspruch heutzutage. Kommt es zu einer deutlichen Verzögerung zwischen Benutzerinteraktion und Darstellung der Inhalte, ist also die Latenz spürbar vorhanden, so äußert sich das in Unverständnis und die User Experience wird als schlecht wahrgenommen. Eine Studie von Akamai zeigte bereits im Jahr 2017, dass schon eine zweisekündige Verzögerung in der Ladezeit einer Website ausreicht, um die Bounce-Rate (Absprungrate von Besuchern auf einer Website) um über 100 Prozent zu erhöhen. Außerdem würde eine Verzögerung von 100 Millisekunden (0,1 Sekunden) bei der Ladezeit von Websites die Conversion-Rate (das Erreichen von vordefinierten Zielen auf einer Website, zum Beispiel das Anklicken eines Videos nach dem Lesen des Teaser-Textes) um sieben Prozent beeinträchtigen. Das zeigt, dass die Latenz aus Sicht der User Experience eine entscheidende Rolle spielt.

Cloud Gaming
Eine spezifische Anwendung von Web-Applikationen ist Cloud Gaming, die in diesem Kontext gesondert aufgeführt werden muss. Im letzten Herbst ging Google Stadia an den Start und läutete damit Cloud Gaming in größerem Umfang ein. Bisher herrschen bei Computerspielen immer noch Festplatteninstallationen vor. Vor dem Hintergrund des allgemeinen Trends zu Clouds und „As a Service“-Anwendungen kann man aber davon ausgehen, dass auch die Gaming-Sparte vor ähnlichen Umbrüchen steht. Bisher halten sich die Datenmengen, die beim Gaming übertragen werden, in Grenzen. Rechenoperationen, die nötig sind um die virtuellen Welten zu erschaffen, finden auf dem lokalen System statt. Bei Cloud Gaming wird das Computer-Spiel nun auf einem Server in einem Rechenzentrum ausgeführt und die Bildschirminhalte werden über das Internet auf den Monitor des Benutzers gestreamt. Dadurch steigen die Anforderungen an die Internetverbindung des Benutzers enorm. Neben der zusätzlichen Bandbreite erhöhen sich auch die Anforderungen an die Latenzen drastisch, um einen ruckelfreien Spielspaß zu garantieren.

Virtual Reality
Eine der kritischsten Anwendungen, wenn es um Latenzzeiten geht, ist Virtual Reality. Zwischen Aktionen des Nutzers und den Reaktionen der virtuellen Umgebung muss möglichst wenig Zeit liegen, um ein flüssiges Erlebnis zu bieten. Ansonsten wird die virtuelle Realität schnell als störend wahrgenommen. Die Latenzanforderungen in diesem Bereich liegen bei etwa 20 Millisekunden, ein Blinzeln dauert dagegen 150 Millisekunden. Dazu ein kleines Beispiel: Die Lichtgeschwindigkeit und maximale Geschwindigkeit, mit der Datenpakete über Glasfaserleitungen geleitet werden können, liegt bei etwa 300.000.000 Metern pro Sekunde. Multipliziert man diesen Wert mit den 20 Millisekunden oder 0,02 Sekunden, ergibt sich eine maximale Entfernung von 6.000.000 Metern oder 6.000 Kilometern. Die Entfernung von New York nach Frankfurt in Luftlinie liegt etwa bei 6.200 Kilometern. Das bedeutet, eine in New York gehostete Virtual-Reality-Anwendung ließe sich in der Mainmetropole nicht flüssig wiedergeben. Und das ist nur eine reduzierte, rein theoretische Berechnung. Zusätzlich spielen weitere Faktoren eine große Rolle, die eine Verzögerung der Übertragung verursachen, wie zum Beispiel die Verarbeitungszeit der Server im Rechenzentrum – diese dauert schnell mal 15 oder sogar 20 ms. Dadurch können die Nutzer letztendlich nur wenige Kilometer (< 100 km) von der gehosteten Virtual-Reality-Anwendung entfernt sein, um innerhalb des Toleranzbereichs der Latenzanforderung zu sein. Die Lösung für diesen Umstand ist einerseits Edge Computing: die dezentrale Datenverarbeitung in unmittelbarerer Nähe des Nutzers, also am Rand (=Edge) des Netzwerks. Dies könnte in Form eines Mini-Rechenzentrums oder Knotenpunktes innerhalb des < 100 km-Latenzradius der Nutzer geschehen. Zusätzlich dazu ist Cloud-Computing unabdingbar: die Datenverarbeitung findet in der Cloud statt und die Daten sind direkt online verfügbar. Durch diese Ansätze wird die Latenz so gering wie möglich gehalten.

Latenzen und die Technologien der Zukunft
Neben den drei benannten Beispielen gibt es noch viele weitere Anwendungen und Technologiebereiche, bei denen die Latenz eine wichtige oder sogar entscheidende Rolle spielt. In Zukunft wird autonomes Fahren ein fester Bestandteil unseres Lebens sein. Autos werden teils lebenswichtige „Entscheidungen“ auf einer Datenbasis treffen, deshalb muss sichergestellt sein, dass diese Datenverarbeitung direkt und unmittelbar erfolgt. Die theoretische Latenzanforderung liegt dabei im Ernstfall bei 0 ms. Auch Industrieroboter – Stichpunkt: Industrie 4.0 – müssen schnelle, datenbasierte Entscheidungen treffen. Die Latenzanforderungen liegen partiell bei Werten von 1 ms bis 10 ms. All diese Beispiele zeigen, wie wichtig und notwendig die Entwicklung von latenzsparenden Internet-Anwendungen ist. In diesem Bereich können wir in Zukunft spannende Ansätze erwarten.

Dr. Thomas King ist Chief Technology Officer bei DE-CIX

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

funkschau