Sie sind hier: HomeDatacenter

Datenpannen: Die fünf häufigsten IT-Fehler 2018, die Datenverlust verursachen

Jeder macht mal Fehler. Im Büro kann das jedoch Folgen haben. Besonders folgende fünf häufig gemachte Fehler führen mit großer Wahrscheinlichkeit zu Datenverlust.

Datenverlust Bildquelle: © ximagination - 123RF

Ein falscher Mausklick, ein System falsch konfiguriert oder das Backup vergessen – Fehler in der IT passieren häufig. Laut einer aktuellen Umfrage unter 150 IT-Mitarbeitern von Ontrack Datenrettung haben 65 Prozent der IT-Mitarbeiter schon mal einen Fehler gemacht, der eine Störung auslöste. Bei 84 Prozent gingen dadurch sogar Daten verloren. Die Arten von IT-Fehlern sind sehr vielseitig. Doch es gibt einige Missgeschicke, die häufiger passieren als andere. Die Top fünf der häufigsten IT-Fehler, die zu Datenverlust führen.

1. Nicht dokumentieren, was man gemacht hat

IT-Abteilungen sind häufig unterbesetzt und überlastet. Vor lauter Troubleshooting und Behebung der IT-Probleme von Mitarbeitern bleiben öfter andere wichtige Dinge auf der Strecke. So fehlt laut der Studie jedem zweiten IT-Mitarbeiter die Zeit, Vorgänge und Prozesse regelmäßig zu dokumentieren. Dieses Verhalten ist jedoch auf lange Sicht ein fataler Fehler. Denn wer nicht genauestens dokumentiert, welche Daten wann und wo gespeichert wurden, kann nicht mehr nachvollziehen, ob Backups vollständig sind. Fehlende Dokumentationen erschweren außerdem die Rettung der Daten im Ernstfall. So müssen Datenretter mehrere Speicherorte nach Datenspuren durchsuchen und der Wiederherstellungsvorgang wird besonders aufwendig. IT-Abteilungen sollten also nicht den Fehler begehen, Ressourcen am falschen Ende zu sparen. Dokumentation und Backup sollten Vorrang haben.

2. Nach Datenverlust auf demselben Server weiterarbeiten

Ein weiterer häufiger Fehler passiert, wenn IT-Mitarbeiter einen Server nicht unmittelbar nach einem Datenverlust sperren. Stellen Unternehmen fest, dass Daten fehlen, sollten sie den Server isolieren, den aktuellen Datenbestand einfrieren und auf einer neuen Umgebung weiterarbeiten. Geschieht das nicht, werden wichtige Bereiche überschrieben, die für die Wiederherstellung der Daten notwendig sind. Doch häufig haben Unternehmen keinen Ersatz-Server. Eine Isolierung ist daher nicht möglich. Ein Fehler. Denn so riskieren sie einen endgültigen Datenverlust. Besonders fatal ist die Situation, wenn der Datenverlust eine Zeit lang nicht bemerkt wird. Hier sollten Unternehmen darauf achten, dass sie genügend Manpower für die Disaster Recovery, Ersatz-IT und Backups besitzen.

3. Veraltete und ungeeignete Backup-Tools

Ein vernünftiges Backup ist das A und O. Hier lauern Fallstricke, die zu häufigen Fehlern führen. Denn Backup ist nicht gleich Backup. Gerade, wenn Unternehmen komplexe Technologien oder Virtuelle Maschinen einsetzen, sollten sie darauf achten, dass ihre Datensicherungstools auf dem neuesten Stand sind. Bei virtuellen Dateisystemen handelt es sich um offene Dateien, also Daten, die durch die Snapshot-Technologie im laufenden Betrieb stets aktualisiert werden. Diese sollten im Idealfall also auch in Echtzeit ins Backup laufen. Das können Backup-Tools, die schon ein paar Jahre alt sind, meistens nicht. Daher empfiehlt es sich, vorher ins Manual oder die Beschreibung der Tools zu sehen und prüfen, ob und welche Version der Virtualisierung eines Herstellers oder der Datenbank unterstützt wird.
 
4. Verschiedene virtuelle Welten miteinander kombinieren

IT-Systeme ändern sich regelmäßig. Unternehmen tauschen alte Programme durch neue aus oder installieren Updates. Das ist gut und richtig, denn der IT-Markt entwickelt sich rasant. Was heute noch aktuell ist, kann morgen schon unbrauchbar sein. Doch Systemupdates kosten Geld. Viele Unternehmen wollen sich das nicht leisten und begehen in diesem Zusammenhang den Fehler, nur halbherzig aufzurüsten. Sie kombinieren alte und neue Systeme miteinander. Problematisch wird das bei Virtuellen Maschinen. Werden zum Beispiel ohne genügendes Knowhow HyperV und VMWare, also zwei Welten miteinander kombiniert, kann ein Datenchaos entstehen. Kurz gesagt: Die Technologien verstehen sich nicht. Daten lassen sich so auch nicht einfach umziehen und drohen schnell verloren zu gehen. Leider kommt auch dieses Szenario recht häufig vor.

5. Falsch gesetzte Retention-Zeiten bei Backups

Ein Backup enthält im Idealfall genau die Daten, die es auch enthalten sollte. Aufgepasst jedoch beim Setzen der Retention-Zeiten der Daten im Backup, also bei den Aufbewahrungszeiträumen. Sie können schnell versehentlich zu kurz angesetzt werden. Denn nicht immer erscheint beim Löschen einer Datei die Frage „Sind Sie sicher?“ Wer hier nicht aufpasst, kann mit einem einzigen Mausklick oder der Bestätigungstaste die Datensicherungseinstellungen aufheben. Und plötzlich wird Datei xy nicht mehr 10 Jahre lang aufbewahrt, sondern nur noch drei Monate. Dies ist besonders bei geschäftskritischen Daten, die den gesetzlichen Aufbewahrungspflichten unterliegen, zu beachten. Selbst geschulten Experten kann ein solcher Fehler passieren. Zum Beispiel, wenn die Dateien ähnlich heißen und Adminrechte an Programmen nicht klar definiert werden. Zugang zu den entsprechenden Tools sollte nur zuverlässigen IT- und Security-Verantwortlichen vorbehalten sein. Wer ganz auf Nummer Sicher gehen will, schränkt auch den Zugang zur Serverstruktur ein.

Holger Engelland ist Leiter des Datenrettungslabors bei Ontrack