Sie sind hier: HomeMobile Solutions

Chancen und Herausforderungen: Roadmap für 5G

Mobilfunkbetreiber und Industrie warten sehnsüchtig auf den Start von 5G. Den einen verspricht die Technologie neue Anwendungsmöglichkeiten, den anderen zusätzliche Erlösquellen. Doch noch fehlen Infrastrukturen, Kerntechnologien und Geschäftsmodelle für das Netz der Zukunft.

Auf dem Weg zu 5G haben Telekommunikations- und Automobilunternehmen die branchenübergreifende 5G Automotive Association gegründet. Bildquelle: © Sashkin / Shutterstock

Mobile World Congress (MWC), CeBIT, Hannover Messe – auf allen großen Veranstaltungen dieses Jahr war 5G eines der dominierenden Themen. Obwohl das mobile Netz der fünften Generation erst 2020 offiziell an den Start gehen wird, werden schon dieses Jahr erste Geräte erwartet, die eine Datenübertragung von einem Gigabit und mehr pro Sekunde unterstützen. Ein Gigabit-Smartphone hat ZTE auf dem MWC vorgestellt und die Produktion von Qualcomms 5G-fähigem Modem Snapdragon X50 soll noch dieses Jahr starten.

Die zentralen Versprechen der neuen Technologie: Erhöhung der Datenübertragungsraten auf bis zu 10 Gigabyte pro Sekunde, deutliche Senkung der Latenzzeiten und Unterstützung für bis zu 100 Milliarden Endgeräte weltweit. Dadurch werden ganz neue Anwendungen denkbar, von selbststeuernden Autos, die auf nahezu latenzfreie Echtzeit-Daten angewiesen sind, bis hin zum Internet der Dinge (Internet of Things, IoT), das immer mehr Geräte ans Netz bringt.

Branchenstandards sind Voraussetzung für Zukunftssicherheit
Doch bis all das umgesetzt wird, sind noch viele Hürden zu nehmen: Netze müssen aufgerüstet, das Thema NFV vorangetrieben, Endgeräte ausgestattet und sich rentierende Geschäftsmodelle erdacht werden. Zunächst einmal steht die Definition eines verbindlichen Standards für 5G ins Haus. Die erste Phase will das Branchengremium 3GGP bis Mitte 2018 abschließen, der finale Standard wird aber wohl erst 2019 feststehen. Angesichts der Vielzahl neuer Services, die künftig über das Mobilfunknetz bereitgestellt werden sollen, und deren wirtschaftlichen Bedeutung ist die fehlerfreie Interoperabilität von Endgeräten aller Hersteller absolut erfolgskritisch.

Neben der Notwendigkeit technischer Standards stehen Netzwerkbetreiber auch vor der Herausforderung zunehmender Komplexität. 5G erfordert eine deutliche Flexibilisierung der Netzwerke, die sich mit den bisherigen Methoden des Netzwerkmanagements nicht erreichen lässt. Die Antwort darauf lautet Network Functions Virtualisierung (NFV), also die Virtualisierung einzelner Funktionen im Netzwerk. Bei NFV erfolgt die Konfiguration des Netzwerks über Software, anstatt wie bisher dedizierte Hardware einzusetzen. So können Anwendungen und Dienste um ein Vielfaches flexibler und schneller aufgesetzt und Nutzern zur Verfügung gestellt werden. NFV erlaubt es auch, Netzwerke für unterschiedliche Anwendungen zu optimieren, indem Control Plane und User Plane voneinander getrennt werden. Dadurch können Betreiber ihre Netze für verschiedene Lastprofile konfigurieren. Ein Beispiel für unterschiedliche Anforderungen zeigt der Vergleich zwischen IoT-Verkehr und Smartphones. Im ersteren Fall entstehen wesentlich mehr Control Plane Sessions, wobei die Belastung der User Plane wesentlich geringer ist als im zweiten Fall – das Netz muss dies also entsprechend umsetzen können.

NFV ist auch die Voraussetzung für Technologien, die die ultra-geringen Latenzzeiten von 5G ermöglichen. Dazu gehört zum einen Network Slicing. Dabei wird das Netzwerk in virtuelle Abschnitte unterteilt, die parallel auf einer physischen Infrastruktur laufen. Jeder Abschnitt ist für eine bestimmte Funktion optimiert, etwa Sicherheit, hohe Übertragungskapazitäten oder eine große Zahl an Endgeräten. Telekom, Ericsson und die koreanische SK Telecom haben auf dem MWC 2016 und 2017 gezeigt, dass Latenzzeiten unter einer Millisekunde im Pilotbetrieb machbar sind, zumindest unter Laborbedingungen. Um Latenzzeiten zu senken und Bandbreitenprobleme zu lösen, bietet es sich auch an, Daten dort zu verarbeiten und zu analysieren, wo sie entstehen. Das sogenannte Edge Computing umgeht den Flaschenhals, der bei der Übertragung immer größerer Datenmengen an zentrale Recheneinheiten entsteht, und eliminiert so eine Hauptursache für Verzögerungen. Gerade für Anwendungen, die auf große Mengen an Echtzeitdaten angewiesen sind, etwa Connected Cars, stellt dies eine Grundvoraussetzung dar.