Home      Themenübersicht / Sitemap      Notizen      Webmaster

 

Dies ist einer der Artikel aus einer Serie von Sicherheitstipps. Hier die Links zu den Themen:

 

Datensicherung – Notwendig? Übel? Unentbehrlich!

Prinzipien der Datensicherheit und ihre praktische Umsetzung

Autor: Michael Krausz, C.I.S.-Auditor, Wien

Version 2003

Keine Frage, Computer sind sensible Wesen. Sie sind allergisch gegen Kaffee auf oder in der Tastatur, vertragen kein Wasser in Lüftungsschlitzen, lassen sich nur ungern treten, so sehr dies auch in manchen Situation gerechtfertigt erscheinen mag, und eignen sich selbst als Laptops kaum zum Einsatz als Fernlenkwaffen in ehelichen Gefechten; dort regiert immer noch das Porzellan.

Umso fragiler und, wenn auch in abstrakter Weise, zerbrechlicher sind die auf Festplatten oder anderen Medien gespeicherten Daten. Jedes Betriebssystem und sogar die Hardware selbst (dh die Festplatten, CD-ROM Brenner, etc.) haben aufwändige Algorithmen bereits integriert, die die Möglichkeit schaffen, Fehler, die bei einer beliebigen Art der Datenübertragung entstanden sein können zu erkennen und zu korrigieren. Selbst auf den fast schon antiquierten Floppy-Disks kamen so genannte fehlererkennende Algorithmen zum Einsatz, um sicherzustellen, dass Daten stets richtig gespeichert werden und im Falle des Falles die betreffenden Sektoren der Diskette als fehlerhaft gekennzeichnet werden können.

Ebenso verfügt jedes Datenpaket, das durch die Netzwerke der virtuellen Welt auf die Reise geschickt wird, über einen so genannten CRC Code, mit dem der Empfänger des Datenpaketes feststellen kann, ob das Paket die Reise durch die Router, Switches und Hubs überlebt hat und ob der Inhalt intakt geblieben ist.

All diese Techniken sind jedoch in der Welt der IT auf einer Ebene angesiedelt, die für den Benutzer de facto unsichtbar ist und mit der man als Benutzer, Administrator oder EDV-Leiter nur sehr selten in Berührung kommt. Selbst wenn in den kurz dargelegten Bereichen tatsächlich Fehler erkannt werden und gravierende Fehler auftreten, so werden in den meisten Fällen (am Endgeräte, dem PC) nicht einmal Fehlermeldungen erzeugt, sondern diese stillschweigend korrigiert oder, wo es nicht möglich ist, beispielsweise Datenpakete schlicht entsorgt und neu angefordert.

Wesentlich heftiger in ihren Auswirkungen sind heutzutage jene Fälle, in denen betriebliche Abläufe durch den „schlichten“ Ausfall von Systemen so behindert werden, dass mitunter sehr aufwändige Rekonstruktionen durchgeführt werden müssen, um die Vollständigkeit und Korrektheit des Datenbestandes wieder sicherstellen zu können. Im Folgenden sollen nun jene Problemstellungen und Methoden zu ihrer Lösung erörtert werden, bei denen das Risiko für den Datenbestand eigentlich von außen in die IT hineingetragen wird und nicht durch die möglichen Fehlerquellen in den Systemen selbst bedingt sind.

Was gilt es also zu berücksichtigen bzw welche Mittel stehen zur Verfügung, um Datensicherung effizient betreiben zu können ?

(1) Abhängigkeit

Zunächst sollte klar analysiert werden, in wie weit der Betrieb vom betrieblichen Datenbestand abhängig ist und welche Bereiche von welchen Daten abhängig sind. Dies kann man in einer einfachen Excel-Tabelle zusammenfassen. Bei diesen Überlegungen sollte auch versucht werden, ein Maß dafür zu finden, wie lange bestimmte Datenbestände nicht verfügbar sein dürfen. Die maximal tolerierbare Ausfalldauer ist ein wesentlicher Parameter, der die Auswahl der zu verwendenden Datensicherungstechnologie beeinflusst.

Beträgt diese beispielsweise weniger als 4 Stunden, so sind herkömmliche Bandsysteme kaum in der Lage, dies zu bewältigen, abhängig allerdings vom Umfang des Datenbestandes.

(2) Umfang

In der Auswahl der effizientesten Technologie ist der Umfang des zu sichernden Datenbestandes der zweite wesentliche Parameter, denn letztendlich muss der zu sichernde Datenbestand in der Zeit gesichert werden können, die täglich als Wartungsfenster zur Verfügung steht und muss in jener Zeit wiederherstellbar sein, die durch die Bestimmung der maximalen Ausfalldauer ermittelt wurde.

In der Analyse dieser beiden Punkte zeigt sich oft, dass auch mit einfachen Mitteln ein hoher Effizienzgrad erreicht werden kann, besonders in Klein- und Mittelbetrieben:

Beispielsweise können einzelne Projekte, sofern sie nicht mehr als ca 700MB beanspruchen, auf CD-ROM gebrannt werden und dadurch für zumindest 25-30 Jahre archiviert werden. Der interessante Aspekt ist hierbei, die Datensicherung auf jene Daten zu beschränken, die absolut lebensnotwendig sind. Als Nachteil dieser Methode soll nicht unerwähnt bleiben, dass sich das Backup von Daten auf CD-ROM kaum automatisieren lässt, d.h. unvermeidlicherweise muss sich ein Mensch darum kümmern, was in sich bereits wieder durchaus fehleranfällig ist.

Als Beispiel vom anderen Ende des heutigen Spektrums seien die Telekom-Unternehmen genannt, die typischerweise mit Datenmengen im Bereich von 1 bis 2 Terabyte (ca. 1012 Byte) arbeiten und mit mannshohen Bandrobotern Datensicherung betreiben (müssen).

(3) Verfügbarkeit

Verfügbarkeit bezeichnet hier die Anforderungen an die Sicherungsmedien hinsichtlich Lebensdauer sowie an die zeitliche Verfügbarkeit der Daten langfristig. Beispielsweise müssen steuerlich relevante Daten zumeist mehrere Jahre verfügbar und rekonstruierbar sein, sodass man von den verwendeten Speichermedien zumindest eine Haltbarkeit von 10 Jahren erwarten können muss.

Verfügbarkeit bedeutet aber auch, dass im Fall des Falles die Sicherungsmedien selbst rasch wieder verfügbar sind. So ist es beispielweise üblich, Sicherungsmedien in einem Bank-Safe zu deponieren, damit bei einem Brand nicht auch gleich die Datensicherung vernichtet wird. Hierbei gibt es allerdings den Nachteil, dass die Öffnungszeiten der Banken nicht unbeschränkt sind und dadurch wertvolle Zeit zur Störungsbehebung wie beispielsweise am Wochenende verloren gehen kann.

Sofern man über mehrere Firmenstandorte verfügt ist daher durchaus ausreichend, die Sicherungsmedien im jeweils anderen Standort aufzubewahren; in Klein- und Mittelbetrieben werden auch oft die Privaträumlichkeiten der Eigentümer benutzt, wogegen grundsätzlich nichts einzuwenden ist, es sollte lediglich ein entsprechend feuer- und datensicherer Tresor verwendet werden.

(4) Verantwortung

Gerade im betrieblichen Umfeld ist die klare Zuordnung der Verantwortung für die Datensicherung ein wesentlicher Bestandteil einer erfolgreichen Datensicherungsstrategie. Diese Verantwortung sollte nicht nur einfach an der Abteilung IT festgemacht sein, sondern durch die Stellenbeschreibung an einer individuellen Person (inklusive Stellvertreter).

Über alle Aktivitäten der Datensicherung (also Sicherung, Wiederherstellung, Systemwartung) sollte ein Logbuch geführt werden, das einmal im Monat überprüft werden sollte.

(5) Stichproben

Auch wenn man immer wieder aus den Betrieben hört, dass doch das vereinzelte Wiederherstellen von Dateien als Kontrolle des Funktionierens der Datensicherung doch ausreiche, so sollte man trotzdem nicht auf umfangreiche Wiederherstellungstests verzichten. Zumindest einmal pro Jahr ist es empfehlenswert, die wesentlichen Teile des Datenbestandes auf ein zusätzliches Testsystem zu rekonstruieren. – In Betrieben mit hohem Bewusstsein für die Datensicherung werden bis zu einem gewissen Grad auch Wiederanlauftests durchgeführt, in denen bewiesen werden soll, dass der Wiederanlauf der notwendigen IT-Systeme auch nach einem Ausfall in der vorgesehenen Zeit möglich ist.

Größere Betriebe haben zumeist die Möglichkeit, derartige Tests auch auszulagern und beispielsweise von einem kompetenten Systemhaus durchführen zu lassen. Hierbei ist nur zu beachten, dass stets ein Mitarbeiter des eigenen Unternehmens anwesend ist, der die Abläufe kontrollieren kann und sicherstellen kann, dass keine vertraulichen Daten auf fremden Systemen verbleiben.

Im heutigen betrieblichen Umfeld sind viele innerbetrieblichen Prozesse mittlerweile so stark von einer funktionierenden IT abhängig, dass Störungen, die nicht innerhalb von ein bis zwei Tagen behoben werden können, durchaus existenzgefährdend sein können. Der Datensicherung kommt hierbei die Aufgabe zu, dafür Sorge zu tragen, dass alle lebenswichtigen Systeme, in vernünftiger Zeit wieder in Gang gesetzt werden können, sodass mühsames, händisches Rekonstruieren (inklusive der en-masse dabei anfallenden Überstunden) von Abläufen und Ergebnissen gar nicht erst notwendig wird. korrekte Ausführung der Datensicherung kontrolliert.

In kurzen Worten zusammengefasst, bestehen die entscheidenden Erfolgsfaktoren der Datensicherung darin, die maximal zulässige Wiederherstellungszeit zu kennen, ein daran angepasste Sicherungstechnologie zu verwenden und jemanden zu haben, der die notwendigen manuellen Arbeiten durchführt und die korrekte Ausführung der Datensicherung kontrolliert.

Es klingt ja eigentlich ganz einfach, und sofern die vorausgehende Analyse gut durchgeführt wird, ist es leicht zu versprechen, dass man die notwendigen Routinearbeiten dann eigentlich gar nicht mehr spüren wird und sich vor allem auf eine stets aktuelle und zuverlässig wiederherstellbare Sicherung verlassen kann.

 

Mehr zu diesem Thema auf dieser Website:

 


http://sicherheitskultur.at/

Home

Copyright-Hinweis:
Das Copyright des Materials auf dieser Seite liegt bei Michael Krausz.