Das aktuelle Backup-Einmaleins

backups

Der Deutsche ist ein Backup-Muffel. Das hat eine Umfrage im Auftrag des Branchenverbands Eco ergeben. Und das, obwohl sich immer wieder zeigt, wie schnell es zu Datenverlusten in Unternehmen kommen kann. Angeblich machen nur 20 Prozent wöchentlich oder öfter Updates der wichtigsten Daten. Nur jeder Dritte macht demnach wenigstens einmal im Monat eine Sicherung.

Laut einer Studie von Arcserve mussten 75 Prozent der deutschen IT-Führungskräfte in ihrem Unternehmen kritische Daten nach einem Verlust wiederherstellen. Mehr als die Hälfte davon musste mit dauerhaften Verlusten aller Daten oder Teilen davon leben. Das Dramatische daran: Viele Unternehmen sind nach einem größeren Datenverlust nicht in der Lage, den Betrieb aufrecht zu erhalten.

Cloud-Backup spielt eine große Rolle

Mittlerweile spielt in Sachen Datenspeicherung das Thema Cloud-Backup eine große Rolle. Einige Experten sind sich sicher, dass es Kosten spart, flexibler ist und skalierbarer. Die Reaktionszeit sei im Notfall auch schneller. Die weithin bekannte 3-2-1-Regel (Goldene Regel der Datensicherung) ist jedoch trotzdem unabdingbar. Mindestens drei Datenkopien sollten auf zwei unterschiedlichen Medien gespeichert sein. Eine Kopie davon sollte der Besitzer an einem anderen Ort verwahren.

Von der Regel gibt es einige Varianten. Es können natürlich mehr Kopien, mehr Speichermedien und mehr geografisch unterschiedliche Orte genutzt werden.  Aus 3-2-1 kann beispielsweise auch 6-4-2 werden. Erweitert werden kann die Regel auch durch die „3-2-1-1-0-Backup-Strategie“. Das bedeutet, dass zusätzlich zur grundlegenden Absicherung eine Kopie schreibgeschützt oder unveränderlich gespeichert werden soll. Dann kommt die 0. Also Null Fehler bei der Wiederherstellung der Daten. Diese Null soll durch regelmäßige Tests garantiert werden.

Nicht löschbare Datenspeicher gegen Ransomware

Eine der Hauptgefahren für den Verlust von Daten ist die Ransomware. Die Nachfrage nach Backups, die speziell gegen Ransomware gesichert ist, steigt enorm. Das setzen die Experten um, indem sie nicht löschbare Datenspeicher einsetzen. Außerdem wird durch einen verhaltensbasierten Endpoint- und Server-Schutz versucht, Ransomware schon in der Entstehung zu erkennen und abzuwehren. Das sagt Matthias Robbe, Teamleiter IT-Consulting Bechtle Münster. Das Backup sei noch immer die letzte Linie der Verteidigung gegen Ransomware.

Ransomware-Angriffe sind fast schon zu einem festen Bestandteil der IT-Branche geworden, vor allem in den vergangenen zehn Jahren. Früher jedoch, konzentrierten sich diese Angriffe auf bestimmte Branchen, heute kann jedes Unternehmen Opfer werden, das Lösegeld zahlen könnte.

Warum also nicht löschbare Datenspeicher (Immutal) einsetzen? Ransomware verschlüsselt die Dateien, benennt sie um und löscht die Ursprungsdatei. Mit Immutal, beziehungsweise einem System mit Snaplock-Funktion können Dateien so abgespeichert werden, dass ihre Löschung unmöglich ist. Beispiele für solche Immutals sind SEP Immutable Storage für Linux und Blocky4sesam für Windows.

Die Backup-Daten können durch das Vorgehen zusätzlich in eine Air-Gap-Lösung übertragen werden. Dabei werden die Daten physisch vom Netzwerk getrennt, also offline aufbewahrt.

On-Premise-Speicher bieten Kontrolle und Sicherheit

Um auf die Cloud zurückzukommen: Weil es immer mehr Cyber-Attacken gibt, werden auch immer mehr Daten auf immer mehr Plattformen in der Cloud und On-Premises abgesichert. Damit sollen nicht nur Bedrohungen und Ausfälle minimiert, sondern auch Compliance-Regeln intern und extern erfüllt werden.

René Weber, Field Application Engineer bei Fast LTA, will wiederum einen Trend zum „Unclouding“ erkennen. On-Premise-Speicher würden mehr Kontrolle und Sicherheit bieten. Der seiner Meinung nach vermeintliche Kostenvorteil von Cloud-Storage werde durch flexible Zahlungsmodelle ins Gegenteil gekehrt. Ein Grund dafür könne sein, dass viele IT-Experten mittlerweile der Auffassung seien, dass eine durchdachte Recovery-Strategie nötig ist und nicht nur eine Backup-Strategie.

Eine veraltete Backup- und Recovery-Infrastruktur ist aber offenbar gängig. Das zumindest kam bei einer Studie von Cohesity – ein Datenmanagement- und Security-Anbieter – heraus. Fast die Hälfte gab an, dass das eigene Unternehmen eine Sicherungsinfrastruktur betreibt, die 2010 oder früher entwickelt wurde. Bei fünf Prozent stammt die entsprechende Infrastruktur sogar schon vor der Jahrtausendwende.

Verantwortung für die Daten teilen

Experten sind sich sicher, dass sich IT-Infrastruktur und SecOps-Teams  – also der Betrieb-Teams und IT-Sicherheit-Teams – ab jetzt stärker zusammenarbeiten und abstimmen müssen. Nur dann sei es möglich, die Folgen eines Cyber-Angriffs einzudämmen, während der Kernbetrieb weiterläuft.

Dieses sogenannte „Shared-Responsibility-Modell“ sei jedoch noch nicht bei allen KMU angekommen. Inhalt des Modells ist, dass sich der Endnutzer und der Anbieter die Verantwortung über die Daten teilen. Die Daten sind in einem Microsoft-Rechenzentrum noch nicht gut genug aufgehoben. Der Anwender muss sich ebenfalls um seine Accounts und Daten kümmern. Viele Firmen wissen nicht, dass das sogar so in den Lizenzbestimmungen steht.

Keiner der Funktionen dazu, die Microsoft Office 365 anbietet, könnte laut Experten ein Backup ersetzen. Und keine Funktion biete Schutz gegen den Verlust der Daten im Fall eines Ransomware-Angriffs.

Immerhin: Immer mehr Unternehmen erkennen die Notwendigkeit einer geteilten Verantwortlichkeit und dass nicht nur der Anbieter der Cloud, sondern auch der Kunde hier in der Pflicht steht. Und das ist gut so, denn kaum etwas setzt Unternehmen so zu wie der Ausfall des Geschäftsbetriebs durch Datenverlust. Das führt dazu, dass Geld hier nur eine zweitrangige Rolle spielt, sondern eher die Kennzahlen wie RPO und RTO.

Die Kennzahlen RPO und RTO

Was bedeuten diese Kennzahlen? RPO heißt Recovery Point Objective. Dabei geht es um die Frage, wie viel Datenverlust ein Unternehmen in Kauf nehmen kann. Es handelt sich also um den Zeitraum zwischen zwei Datensicherungen. Sollte ein Cyber-Unglück geschehen, ist das die Zeit, in der Daten oder Transaktionen verloren gehen. Wenn es keine Zeit geben darf, in der Daten verloren gehen, ist die RPO gleich null Sekunden, wie zum Beispiel beim elektronischen Geldverkehr.

RTO bedeutet hingegen Recovery Time Objective. Hier geht es um die Zeit, die von einem Ausfall der Systeme vergehen darf, bis sie wieder in Betrieb genommen werden können. Eine RTO von null Minuten (was sehr unwahrscheinlich ist), würde bedeuten, dass der Geschäftsbetrieb nicht abbrechen darf. Es gibt aber auch eine RTO von mehreren Wochen. Die wird allerdings selten vorkommen, denn letztlich ist jedem Unternehmen daran gelegen, die Geschäftsabläufe nicht zu unterbrechen. Das ist zumindest der Maßstab. Dann ist jedoch eher von Business Continuity (BCM) die Rede.

IT-Experten sind in alle Projekte miteinbezogen

Zum Schluss noch ein paar Gedanken zum Thema Backup-Strategie – denn die sollte jedes Unternehmen haben. Gute IT-Dienstleister sorgen dafür, mit einem ganzheitlichen Blick auf Hard- und Software ihrer Kunden. Sie müssen sich fragen, welche Cloud-Dienste und Datenbanken genutzt werden, welche Topologie vorliegt, welche Soft- und Hardware im Einsatz ist und wie die Zugriffsrecht aussehen.

Der IT-Dienstleister muss also die komplette IT des Unternehmens durchblicken, wodurch Abhängigkeiten entstehen. In Sachen IT wird derjenige zum zentralen Ansprechpartner, der die Backup- und Disaster-Recovery-Strategien koordiniert. Automatisch wird der IT-Experte, auch „Trusted Advisor“ genannt, damit in alle Projekte des Hauses eingebunden. Das Backup spielt einfach überall eine Rolle.

Stefan Lanz

Autor:
Stefan Lanz
Ich bin IT-Experte für Digitale Transformation, Daten- und IT-Sicherheit. Ich bin IT-Sicherheitsbeauftragter, IT-Sachverständiger, Datenschützer, Coach und Berater für Unternehmen seit 1995. Mehr zu mir finden Sie hier.