Schwerpunkte

Observability

Automatisiert und intelligent

02. September 2021, 15:30 Uhr   |  Autor: Michael Rudrich / Redaktion: Sabine Narloch | Kommentar(e)

Automatisiert und intelligent
© Kanawat Thongrod/123rf

Moderne und stark verteilte Cloud-native Technologien unterscheiden sich von traditionellen IT-Infrastrukturen. So soll Observability eine übergeordnete Systemübersicht schaffen, um sämtliche Vorgänge in diesen sich ständig verändernden Umgebungen zu verstehen. Was verbirgt sich hinter dem Ansatz?

Unternehmen setzen zunehmend auf dynamische Multi-Cloud-Plattformen, um ihre Anwendungen und Services schneller und effizienter zu entwickeln, zu testen und zu betreiben. Infolge von Micro-services, Containern und softwaredefinierten Cloud-Infrastrukturen ergibt sich jedoch eine hohe Komplexität. Deshalb wenden sich die IT-Verantwortlichen neuen Ansätzen zu, die auf den drei Säulen der Observability aufbauen. Diese sind Metriken, Logs und Traces. Observability berücksichtigt dabei aktuelle Entwicklungen, beispielsweise die zunehmende Containerisierung. Doch im ersten Schritt gilt es, einige Missverständnisse zu klären:

Missverständnis 1: Mehr Monitoring-Tools lösen Probleme

Manche IT-Teams setzen immer mehr Insellösungen für das Monitoring ein. Das ist mitunter kontraproduktiv, weil sie dadurch mehr Zeit für manuelle Konfigurationen benötigen. Sie laden sich weitere technische Prozesse auf und sind mit der Erkennung von Problemen beschäftigt. Angesichts zu vieler Einzeltools und Informationen gelingt es oft nicht mehr, die Ereignisse mit den größten Auswirkungen zu priorisieren und die nötigen Maßnahmen einzuleiten. Deshalb stellt sich dieser manuelle Lösungsansatz aufgrund wachsender Komplexität als ungeeignet heraus. Es kommt vermehrt zu Fehlermeldungen, die es erschweren, die Vorgänge in einer IT-Umgebung zu verstehen und zu verwalten.

Untersuchungen von Dynatrace haben ergeben, dass ein durchschnittliches IT- und Cloud-Betriebsteam in Deutschland täglich rund 2.600 Alerts von seinen Monitoring- und Management-Tools erhält. Das entspricht einem Zuwachs von 15 Prozent innerhalb der letzten zwölf Monate. 68 Prozent der deutschen CIOs sagen, dass ihr Unternehmen mit der Anzahl der Meldungen von Monitoring- und Management-Tools zu kämpfen hat. Infolgedessen verbringen deutsche IT-Teams im Durchschnitt neun Prozent ihrer Zeit mit der Analyse, welche Alerts wichtig und welche irrelevant sind. Diese Zeit zur Analyse kostet Unternehmen in Deutschland durchschnittlich 860.000 Euro pro Jahr. Noch mehr Überwachungstools sind also nicht unbedingt eine Option.

Missverständnis 2: Monitoring und Observability – das ist doch dasselbe?

Monitoring und Observability arbeiten zwar Hand in Hand, sind aber zwei unterschiedliche Ansätze. Observability bezieht sich auf die Sammlung von Messdaten, besser bekannt als Telemetrie, die von Anwendungen und digitalen Diensten erzeugt werden. Ihre drei traditionellen Hauptsäulen sind: Metriken, Logfiles und Traces. Monitoring bezeichnet dagegen die Verwendung all dieser Messdaten, um die digitale Performance und die User Experience zu verstehen und zu verwalten.

Wenn Unternehmen mehr Observability in ihre Anwendungen und Dienste einbauen, produziert die Telemetrie mehr Daten, die von Monitoring-Tools ausgewertet werden können. Die IT-Umgebungen werden „beobachtbar“, sie produzieren Daten, die Unternehmen sammeln und analysieren. Je mehr Observability überall in der IT-Umgebung integriert ist, desto besser und effektiver können IT-Betriebsteams erkennen, was in ihren Systemen passiert.

Missverständnis 3: Ziel umfassender Observability bereits erreicht

Viele Unternehmen glauben zwar, dass sie bereits über eine vollständige Observability ihrer IT-Umgebungen verfügen, liegen mit dieser Einschätzung aber oftmals falsch: Während sie ihre Digitale Transformation beschleunigen und Cloud-native Umgebungen einführen, wird es für sie schwieriger, eine umfassende Observability zu erreichen. Das liegt vor allem an der Größe und der dynamischen Natur der Architekturen, auf denen diese Umgebungen basieren, wie zum Beispiel Microservices und Container, Kubernetes, Serverless und Service-Mesh-Infrastrukturen.

Diese Umgebungen verändern sich ständig und erzeugen große Datenmengen, die genutzt werden sollten, um die IT-Performance zu verstehen und Services zu optimieren. Die manuelle Instrumentierung, die für herkömmliche Überwachungsansätze erforderlich ist, bedeutet jedoch, dass Unternehmen durchschnittlich nur rund elf Prozent ihrer Anwendungen und IT-Infrastruktur vollständig beobachten.

Und selbst bei vollständiger Observability der Backend-Komponenten wird oft die Frontend-Perspektive von Anwendungen vernachlässigt. Ohne Einblicke in die User Experience kann es zu verzerrten oder falschen Interpretationen darüber kommen, wie die Anwendungen und Infrastrukturen funktionieren. Wichtige Optimierungen finden dann nicht statt. IT-Teams sollten daher die Telemetriedaten mit Metriken zur User Experience ergänzen.

Seite 1 von 2

1. Automatisiert und intelligent
2. Drei Säulen der Observability

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Verwandte Artikel

funkschau