Sie sind hier: HomeTelekommunikation

Datensicherung: Von wegen Back-up

Regelmäßige Back-ups sind in deutschen Unternehmen Fehlanzeige. Der Grund dafür ist denkbar einfach: Überforderung. Doch es gibt Wege aus dieser Misere.

Mann dreht durch vor Schreibtisch Bildquelle: © Andrea De Martin-123rf

Die Gründe für einen möglichen Datenverlust sind vielfältig: Sie reichen von Hardware- oder Softwarefehlern über menschliches Versagen bis hin zu Viren- oder Hackerangriffen. Deshalb ist Datensicherung mittels Back-up essenziell und sollte in jedem Unternehmen oberste Priorität genießen. Doch im Mittelstand sieht die Realität häufig anders aus. Offenbar wird dort die Gefahr eines Datenausfalls oder -verlustes noch immer auf die leichte Schulter genommen. Laut einer im April letzten Jahres veröffentlichten weltweiten Umfrage zum World Back-up Day 2018 führen lediglich zwei Drittel der befragten Unternehmen ein regelmäßiges Back-up durch. Im Umkehrschluss heißt das: Ein Drittel verzichtet darauf und riskiert damit bewusst den Verlust wichtiger Daten.

Für die hiesige Wirtschaft lässt sich dieses Bild nahezu eins zu eins übernehmen. So hat der Leipziger IT-Sicherheitsspezialist Datarecovery Ende 2018 im Zuge einer Studie herausgefunden, dass 29 Prozent der deutschen Unternehmen keine regelmäßige Sicherung ihrer Daten durchführen. 15 Prozent der Unternehmen arbeiten darüber hinaus ausschließlich mit lokalen Back-ups. Damit besteht weiterhin das Risiko eines unwiderruflichen Gesamtverlustes der Daten infolge eines lokalen Systemausfalls oder aufgrund von äußeren Faktoren wie Brand, Diebstahl oder Ähnlichem. Liegt dann kein wirksamer Notfallplan vor, kommt es zu Ausfallzeiten und hohen Kosten. Und generell lässt sich festhalten, dass der Fokus auf Sicherung und Wiederherstellung von relevanten Daten umso geringer ausfällt, je kleiner das Unternehmen ist.

Herausforderung Back-up
Viele Unternehmer, die nicht aus der IT-Branche stammen, tun sich schwer mit Backups. Für sie ist das Thema Datensicherung schwierig zu greifen. Entsprechend hapert es auch an der Umsetzung.  Erschwerend kommt hinzu, dass die rechtlichen und praktischen Anforderungen an Unternehmen zur langfristigen Nutzung und Speicherung von Daten stetig zunehmen. Dies wurde zuletzt im Zuge der DSGVO deutlich.

Tag für Tag steigt darüber hinaus die Bedrohung von außen in Form von Ransomware und Hackerangriffen. Außerdem zeichnete sich in den letzten Jahren in nahezu allen Branchen ein exponentieller Anstieg des Datenvolumens ab, dem es mit einer adäquaten Speicherstrategie zu begegnen gilt. Ein Datenwachstum von 30 Prozent pro Jahr stellt dabei keine Seltenheit dar. Dieser Umstand lässt sich unter anderem auf die zunehmende digitale Abwicklung von Geschäftsprozessen zurückführen. Es existiert eine Fülle an Informationen und Daten, die sowohl physisch als auch virtuell auf unterschiedlichsten Technologien vorhanden ist: in Clouds, im Internet oder auf einzelnen lokalen Geräten. Das Zusammenführen von Daten verschiedener Speicherorte und die anschließende Durchführung eines einheitlichen Back-ups können den einen oder anderen gewiss schnell überfordern.

Datensalat ade
Um sich einen Überblick über die vorhandenen Daten zu verschaffen, ist es hilfreich die einzelnen Strukturen in unterschiedliche Kategorien aufzugliedern. Dies lässt sich durch eine Gegenüberstellung von Prozessen, Informationsobjekten und Anwendungen sowie einer anschließenden Bewertung erreichen. Damit können Unternehmen die anfallenden Daten strukturieren und diese schließlich bei der Datensicherung je nach Kategorie individuell handhaben.

In der Regel werden die Daten wie folgt kategorisiert: kalte, warme und heiße Daten. Bei ersteren handelt es sich um archivierte oder gelöschte Dateien. Warme Daten, auch analysierte Daten, werden nicht mehr aktiv genutzt. Heiße beziehungsweise verwendete Daten sind täglich in Gebrauch und tauchen in vielen Arbeitsprozessen auf. Unsinnigerweise machen manche Unternehmen keinen Unterschied zwischen den genannten Kategorien und pflegen den gleichen Umgang mit sämtlichen Daten. Das ist aber vollkommen kontraproduktiv. Zum einen entstehen damit unnötige Kosten, zum anderen verlangsamt die ungeheure Datenmenge die Server signifikant.

Neben der Kategorisierung von Daten erfordert ein lückenloses und professionelles Back-up die zusätzliche Anwendung der 3-2-1-Methode. Sie schützt mithilfe von drei Datenkopien, zwei Medien und einem externen Back-up bei beliebigen Ausfallszenarien vor Datenverlust. Dabei befinden sich die aktiven Daten im System und zwei separate Back-up-Dateien dienen als eine Art Sicherheitsnetz. Die Speicherung der Daten erfolgt über zwei unterschiedliche Datenträger wie beispielsweise einer Festplatte oder einer Cloud. Zusätzlich werden die Daten extern auf einem räumlich und örtlich getrennten System gespeichert. Zur Aufbewahrung eignet sich ein feuersicherer Safe, der sich außerhalb des Bürogebäudes befindet. Aber auch Clouds oder Server in Rechenzentren bieten sich für diesen Zweck an.

Fest steht: Viel hilft viel. Der beste Weg zu sicheren Unternehmensdaten ist ein eng getakteter Speicherrhythmus. Je aktueller die gesicherten Daten sind, umso besser. Insbesondere bei sensiblen Daten sollte täglich ein automatisiertes Back-up erfolgen, das von den zu sichernden Systemen getrennt aufbewahrt und abgespeichert wird.

Zur Speicherung des Back-ups gibt es verschiedene Möglichkeiten: USB-Sticks, externe Festplatten, NAS (Network Attached Storage) und Clouds. Laut einer Gartner-Studie aus dem Jahr 2017 erfolgte ein Drittel aller Back-up-Installationen in Europa und den USA über ein Back-up-to-Disk-to-Tape-System. Demnach erfreut sich die Nutzung von Magnetbändern nach wie vor großer Beliebtheit. Das liegt vermutlich daran, dass sich viele Unternehmen sicherer fühlen, wenn sie ein System zur Datenspeicherung nutzen, das nicht

direkt an die IT angeschlossen ist. Idealerweise liegen die Back-up-Dateien dabei für eine geografische Trennung auf dem System eines externen Anbieters und damit an einem anderen Standort. So bleibt die Gefahr durch Hackerangriffe oder äußere Risikofaktoren wie etwa einen Brand gering. Der Nachteil an Magnetbändern besteht darin, dass sie manuell ausgetauscht werden müssen und somit auf den größten Risikofaktor im Datensystem treffen: den Menschen. Das Gleiche gilt für USB-Sticks und externe Festplatten. Vergisst der zuständige Mitarbeiter, die Bänder zu wechseln oder den USB-Stick sicher zu verwahren, erhöht sich das Sicherheitsrisiko um ein Vielfaches.

NAS-Server hingegen gewährleisten nicht nur ein automatisches Back-up, sondern können zudem auch als eigene Cloud fungieren. Anders als bei der Nutzung herkömmlicher Cloud-Dienste müssen Unternehmen bei NAS aber selbst für die Wartung aufkommen. Zudem entsteht ein erhöhter Stromverbrauch.

Bei der Nutzung von öffentlichen oder privaten Clouds befinden sich die Daten auf einem separaten Server, der bei dem jeweiligen Anbieter vor Ort liegt. Für Unternehmen empfiehlt sich eine Hybridlösung, bei der die Vorteile von öffentlichen und privaten Clouds zusammentreffen. Für die Wartung ist dabei der Anbieter zuständig und der Kunde kann von mehreren Standorten aus auf die Daten zugreifen.

Mehrwert Datacenter
Rechenzentren bieten oftmals hohe Sicherheit bei Dienstleistungen wie der Datenspeicherung in Form von Clouds, Managed Servern oder Backups. Firmeninterne Server unterliegen in der Regel viel geringeren Sicherheitsstandards als jene von Datacentern. Letztere bieten zudem erhöhten Schutz bei Brand oder Stromausfall.

Physische und virtuelle Zutrittskontrollen sind in Datacentern an der Tagesordnung, sodass ausschließlich der jeweilige Besitzer des Servers Zugriff auf die Daten hat. Außerdem laufen sämtliche Prozesse, wie regelmäßige Back-ups oder kontinuierliches Monitoring, in vielen Fällen automatisiert ab. Eventuelle Hackerangriffe werden durch erhöhte Zugriffe im Monitoring enttarnt. Entsprechend schnell können Mitarbeiter des jeweiligen Datacenters reagieren und eingreifen, um einen reibungslosen Ablauf zu gewährleisten und die Daten
zu schützen.

Die firmeninterne Infrastruktur kann durch die Auslagerung der Daten entlastet werden. In Folge kommt es im Idealfall zu einer Beschleunigung der Anwendungen. Des Weiteren können neue Standorte in vielen Fällen schneller angebunden werden. Auch diese Mehrwerte sind nicht zu unterschätzen.

Torben Belz ist Geschäftsführer bei Plutex