unsere Blogeinträge

Hybrid Backup

Gehen sie keine Kompromisse ein. Bei uns finden sie die Lösung die funktioniert.

Was viele Kunden nicht wissen ist das Swissbackup24.ch einer der wenigen Online Backup Anbieter ist der eine Hybrid Backup Lösung anbietet. Dieser Service ist im Preis inbegriffen.

Diese Option eignet sich insbesondere für Kunden mit sehr hohen Verfügbarkeitsanforderungen an die gesicherten Daten. Je höher die Verfügbarkeitsanforderungen sind, umso schneller müssen die Datenträger der Datensicherung verfügbar sein. Da die Daten bei einem Online Backup definitionsgemäss ausgelagert sind, ist bei sehr hohen Verfügbarkeitsanforderungen zu erwägen, Kopien der online Datensicherung zusätzlich in unmittelbarer Nähe des IT-Systems vorzuhalten.

Um dieser Anforderung gerecht zu werden können sie in unserem online Backup Client den Hybrid Backup, bzw. die lokale Sicherung aktivieren.

Hybrid Backup ist die Kombination von einem lokalen Backup (Backup to Disk) und einem online Backup zu einer geschlossenen Backup Variante. Dies kann zum Beispiel durch die Einbindung eines internen NAS bewerkstelligt werden. Das Nas sollte wann immer möglich in einem separaten Brandabschnitt oder sollte das nicht möglich sein, soweit wie möglich von den Live Servern weg betrieben werden.

Unser Backup Client erstellt nun vor dem eigentlichen Online Backup eine lokale Kopie des Backup Datensatzes auf das NAS. Der lokale Backup ist genau wie das online Backup verschlüsselt. Die lokal gespeicherten Daten können also nur mit dem passenden Kryptografie Text wiederhergestellt werden. 

Im Falle eines Restores können die Daten ab dem lokalen NAS wiederhergestellt werden. Dieses Vorgehen kann die Wiederherstellungszeit grosser Datenmengen dramatisch verkürzen. Zu beachten ist, dass immer nur die letzte Datensicherung lokal verfügbar ist. Benötigen sie ältere Versionen einer Datei, müssen diese über die Remote Verbindung zurückgeholt werden.

Bei Sicherungen von Microsoft Exchange Servern ist eine zusätzliche lokale Kopie der Datensätze mit unserem Backup Client automatisch aktiviert.

Fallstudie: Alles aus einer Hand – modernes „Sorglos-Paket“ für das Cloud Backup

Datensicherung ist für viele Unternehmen immer noch ein Buch mit sieben Siegeln.

Dabei sind moderne Cloud-Backup-Systeme schon aus Kosten- und Sicherheitsgründen eher geeignet, kritische Daten zu lagern und verfügbar zu machen, als übliche In-House-Sicherungen. Mit dem Schweizer Traditionsunternehmen Garantex hat sich nun ein weiteres Unternehmen von der herkömmlichen Sicherung verabschiedet und setzt voll auf Online-Backup-Lösungen vom Provider Swissbackup24.

Unternehmen, die schon einige Jahre am Markt sind, wissen, welch riesiges Datenvolumen sich über die Zeit ansammeln kann. Umso wichtiger ist die Datensicherung. Noch vor einigen Jahren war die klassische Speicherung auf Bändern oder anderen Speichermedien gängige Praxis. Mittlerweile setzen die meisten Unternehmen auf eine Online-Datensicherung, die nicht nur kostengünstiger und sicherer, sondern auch einfacher zu handhaben ist und den Mitarbeitern die Möglichkeit gibt, ganz gleich von welchem Ort und mit welchem Gerät, auf die Daten zuzugreifen.

Die Ausgangslage
Die Garantex AG aus Pratteln in der Schweiz stellt hochwertige Textilveredelungen im Transferdruckverfahren her. Seit über zwanzig Jahren ist das Unternehmen bereits am Markt vertreten und mittlerweile der führende Hersteller für Transferprodukte in der Schweiz. Das Vertriebsnetz erstreckt sich über alle bekannten Händlernetze im Sport- und Werbebereich. Zur Unternehmensgruppe gehört ebenfalls eine Logistikfirma in Deutschland und eine Werbeplattform für administrative und logistische Infrastrukturen in den Bereichen Marketing, Logistik, Vertrieb sowie Produktbeschaffung und Verwaltung.

Bei der Datensicherung wurde traditionell auf In-House-Lösungen vertraut. Tapes, Bänder und Disketten waren die einzige Möglichkeit, die Daten sicher aufzubewahren. In der Regeln mussten alle zwei bis drei Jahre neue Streamer und Bänder zugelegt werden, da die Datenkapazität erschöpft war. Es verwundert kaum, dass der interne Organisationsaufwand über die Jahre stetig stieg und nicht immer alle Daten verfügbar waren. Die Garantex AG entschied sich schliesslich für eine moderne Online-Backup-Lösung.

Die Anforderungen
Bei der Definition der Anforderungen an das neue Backup-System galt es, die verschiedenen Ziele der IT Abteilung und Geschäftsführung zu erreichen.

Dabei stellten die Mitarbeiter der IT folgende Kriterien heraus:

  • Vollautomatisches Backup
  • Lagerung der Sicherungssätze ausser Haus
  • Sicherung von offenen Dateien
  • Minimierung beim Zeitaufwand
  • Garantierte Rücklesbarkeit
  • Einfache Implementierung
  • Nachhaltige Lösung

Die Geschäftsführung erweiterte die Kriterien um folgende Punkte:

  • Transparente und budgettierbare Kosten
  • Erfüllung der gesetzlichen Sorgfaltspflicht
  • Sicherheit der Daten nach neuesten Standards

Implementierung und Umsetzung
Die Implementierung der neuen Backup-Lösung einschliesslich eines Initialbackups auf mobilen Datenträgern verlief reibungslos und zügig. Ein Terminserver mit rund vierzig Benutzern und 500 Gigabyte Daten konnte im Vollbetrieb gesichert werden, ohne dass die Benutzer etwas davon merkten. Eine vollautomatische Sicherung für File- und Mailserver mit 1,2 Terabyte bzw. 180 Gigabyte Daten wird nun jede Nacht ausgeführt. Auf den mobilen Geräten der Aussendienstmitarbeiter wurde ein Client installiert, der automatisch eine Sicherung auslöst, wenn das Gerät heruntergefahren wird.

Nun werden alle Daten, die bei Garantex auflaufen, zentral abgespeichert. Die Backup-Kapazität wächst dabei automatisch mit dem Unternehmen. Der IT Administrator erhält täglich ein Protokoll der getätigten Sicherungen mit dem jeweiligen Status. Darüber hinaus werden die Sicherungen täglich von einem Mitarbeiter des Providers Swissbackup24 manuell geprüft. Alle Daten werden mit einer 256-Bit-Verschlüsselung gesichert, bevor sie über eine sichere Point-to-Point-SSL-Verbindung zum Center übertragen und gespeichert werden. Die Bestände der Daten werden täglich automatisch auf Integrität geprüft. So stellt der Provider sicher, dass die Daten zu jedem Zeitpunkt gegenüber externen Einflüssen geschützt sind und sich im Verlustfall schnell wiederherstellen lassen.

Die Umstellung auf den externen Backup-Provider hat der Firma Garantex keinen Franken an Investitionen gekostet. Die jährlich anfallenden Kosten sind transparent und nachvollziehbar. Für die Firma fallen keine versteckten oder ausserordentlichen Kosten mehr an. Auch ein allfälliger Restore ist im Abonnement enthalten. So lassen sich die Kosten für die Unternehmen genau kalkulieren.

Fazit
Bei Garantex konnten alle Anforderungen, die im Vorfeld festgelegt wurden, erfüllt und teilweise sogar übertroffen werden. „Die Vorteile einer externen Datensicherung sind enorm, sie verursachen kaum Aufwand und bieten enorme Vorteile gegenüber der klassischen Inhouse-Lösung“, erklärt Hans Hübscher, Geschäftsführer der Garantex AG. Besonders der wirtschaftliche Nutzen kann zu den Hauptmotiven bei der Einführung einer modernen Backup-Lösung gezählt werden. Schätzungen zufolge lassen sich Einsparungen von bis zu 45 Prozent erzielen. Darüber hinaus gehört die Datensicherung als nachgelagerte Funktion weder für Unternehmen noch für deren IT-Abteilungen zum Kerngeschäft. Als Konsequenz kann der Fokus auf anderen IT-technischen Aufgaben liegen, nicht jedoch auf dem kostenintensiven und unsicheren Betrieb eines eigenen In-House-Backupsystems.

Autor: George Thommen

Verschlüsselung von NSA geknackt?

In den letzten Tagen hört man allerlei Schauergeschichten über das scheinbare Knacken von SSL Verbindungen. Wie ist das möglich, fragt sich da nicht nur der Laie. Nun um es kurz zu fassen, die NSA hat nicht die Verschlüsselungstechnik an sich, die nach mathematischen Prinzipien funktioniert, geknackt. Sie hat ganz einfach bestimmte Security-Hersteller, bestochen oder genötigt  ihnen Masterkeys auszuhändigen oder für die Agency Hintertürchen in ihre Produkte einzubauen. Im Moment weiss noch niemand , welche Hersteller ihre Produkte für die Geheimdienste öffnen mussten.  Sicher erscheint aber das es sich ausschliesslich um Amerikanische Firmen handelt.

Swissbackup24 hat ihre eigenen Zertifikate. Es ist also nicht möglich unsere SSL Verbindungen zu knacken. Zudem werden die Kundendaten auf dem Computer beim Kunden schon hoch Verschlüsselt und erst dann über das Internet zu unseren Storage Servern übertragen. Dies ist eine „End to End“ Verschlüsselung. Selbst wenn die NSA den Verbindungskanal knackt, kann sie die Informationen darin nicht lesen. Hat die NSA allerdings den Computer eines Benutzers infiltriert und kann seine Daten vor der Verschlüsselung schon mitlesen, ist selbst eine Ende-zu-Ende-Verschlüsselung machtlos.

Die NSA kann also nur unter bestimmten umständen gewisse SSL Verbindungen knacken. Verschlüsselte Daten, die über eine SSL Verbindung gesendet werden, sind aber nach wie vor von der Agency nicht lesbar und deshalb noch für eine sehr lange Zeit nicht brauchbar.

Autor: George Thommen

Methoden der Datensicherung

Infografik-Swiss-Cloud-Backup

Autor: George Thommen

Run auf Schweizer Datencenter

Dank NSA Whistleblower Snowden boomen Schweizer Rechenzentren. Seit bekannt ist wie gross der Daten Hunger von Amerikanischen Geheimdiensten ist findet ein regelrechter Run nach Speichplatz auf Schweizerischem Hoheitsgebiet statt. Dies vor allem weil sich die NSA immer mehr an Servern auf dem Territorium der EU bedient.  Auch die durchschnittlich um 25 % höheren Preise schrecken die Firmen nicht ab ihre Daten in die Schweiz zu bringen. Solange die Daten aber unverschlüsselt auf den Servern der Schweizer Anbieter liegen werden die Daten wohl auch nicht Sicher genug vor den Informationshungrigen Nachrichtendiensten sein.

Die neusten Trends im Data Center

Rechenzentren organisieren sich neu, Energieeffizienz wird ebenso wichtig wie der Standort und die Einbindung in die Cloud. Rechenzentrum-Provider verstehen ihre Anlagen als ein Gesamtsystem aus Daten, Ressourcen und Energie. Die sieben wichtigsten Trends im Überblick.

Trend 1: Power Usage Effectiveness sinkt unter 1,2

Die Power Usage Effectiveness, also jene Kennziffer, die den Energieaufwand zum Betrieb des Rechenzentrums unabhängig von der reinen Rechenleistung beschreibt, sinkt durch intelligentes Design immer weiter ab und hat inzwischen den Durchschnittswert von 1,2 unterschritten. Das bedeutet, dass Aufwendungen für Kühlung oder Einhaltung der Luftfeuchte nur noch rund 10 Prozent der Energiekapazität verbrauchen. Rechenzentren können auch bei höheren Temperaturen zwischen 30 bis 35 Grad Celsius betrieben werden, das hat die RZ-Branche inzwischen erkannt. Vielfach genügt die normale Raumklimatisierung für einen störungsfreien Betrieb.

Trend 2: Ersparnisse durch intelligenten Stromverbrauch

Da Strom ein großes Thema im Rechenzentrum ist, suchen die RZ-Betreiber nach Möglichkeiten der Zwischenspeicherung zum Beispiel in Batterien, aber auch nach effizienten Nutzungsmöglichkeiten für die Abwärme. Intelligente Steuerungsmaßnahmen sorgen dafür, dass ein RZ nur so viel Strom verbraucht, wie für den optimalen - nicht maximalen - Betrieb aktuell benötigt wird.

Trend 3: Vorzüge des Standortes nutzen

Ein Rechenzentrum kann mit seiner Nachbarschaft funktional verschmelzen. Das RZ liefert Abwärme an Kleinbetriebe (zum Beispiel eine Fischzucht oder eine Gärtnerei) und bezieht grünen Strom aus der unmittelbaren Umgebung. Auf diese Weise verbessert sich ganz entscheidend die Umweltbilanz eines Rechenzentrums. Auch nutzen die Betreiber gezielt Standorte mit historischer Infrastruktur, etwa eine ehemalige Papierfabrik, die in die regionale Stromversorgung ebenfalls gut eingebunden war.

Trend 4: Energieverbrauch durch IT-Steuerung optimieren

Eine Optimierung des Stromverbrauchs muss nicht nur bei der Kühlung ansetzen, vielmehr ist es möglich, Rechenlasten verbrauchsgerecht zu steuern. Hierbei kommen applikationsabhängige Steuerungsmechanismen von RZ-Ressourcen zum Einsatz, ein EU-Projekt GAMES befasst sich damit (Green-Active-Management of Energy in IT-Service Centres). Dabei wird nicht nur die Hardware in ihrem Verbrauch optimiert, sondern der Verbrauch sämtlicher RZ-Komponenten, auch softwareseitig, wird intelligent gesteuert.

Trend 5: RZ-Abspeckung plus Modularisierung

Die Sicherheits-, Redundanz- und Klimavorkehrungen sollen wieder heruntergefahren werden, was am ehesten über standardisierte, modularisierte Rechenzentren gelingt. Microsoft setzt hierzu IT PACs ein (IT Pre-Assembled Container), Neubauten sollen nur noch auf diese Weise entstehen. Die Branche ist sich allerdings nicht völlig darüber einig, ob das bei allen Rechenzentren möglich ist. Module lohnen sich eher für kleine Lösungen, bemerken einige Fachleute. Ein großes und spezialisiertes RZ solle weiterhin aus einem Guss bestehen.

Trend 6: Vernetzung zum Cloud-RZ

Die Netzwerke in einem RZ und zwischen mehreren Rechenzentren dienen als Cloud, der Datendurchsatz erhöht sich dadurch dramatisch. Bis zu drei Gigabyte pro Sekunde gelten im Jahr 2013 als Standard, was höhere Anforderungen an die Verkabelung stellt. Ausrüstungsspezialisten wie Anixter empfehlen daher jedem RZ, zwischen sieben bis zehn Prozent des Budgets in die Netze zu investieren.

Trend 7: Organisation der RZ-Branche

In Nizza hat sich 2012 die European Datacenter Association (EUDCA) gegründet, die auf europäischer Ebene die Interessen der RZ-Betreiber vertritt. Es geht um Richtlinien zum Stromverbrauch, um Zertifizierungsnormen, Ausbildung und Austausch untereinander.

Autor: George Thommen

Cloud Computing & Patriot Act

Kunden die Daten in Cloud-Diensten mit Standort USA lagern, laufen Gefahr, weitgehenden und nicht nachvollziehbaren Auskunftspflichten zu unterliegen. Die im Patriot Act formulieren Rechte für die US- Geheimdienste sind sehr grosszügig. NSA und Konsorten können praktisch alles verlangen. Natürlich erfahren die Dateninhaber von diesen Machenschaften nichts da die Cloud- Anbieter zu stillschweigen verpflichtet werden.

Nicht viel besser sieht es bei Tochter Unternehmen von US Firmen in der Schweiz aus. Die Bestimmungen des Patriot Acts erlauben US-Behörden, wie dem FBI, der NSA oder der CIA nicht nur den Zugriff ohne richterliche Anordnung auf die Server von US-Unternehmen. Auch ausländische Töchter sind nach dem US-Gesetz verpflichtet, Zugriff auf ihre Server zu gewähren, selbst dann, wenn lokale Gesetze dies untersagen.

Neuste Enthüllungen lassen Vermuten das sich beim Patriot Act wohl mehr um Wirtschaftsspionage handelt als um Landesverteidigung. Speicherung und Data Mining sind ein ideales Mittel zur gezielten Wirtschaftsspionage. Stichwort Office 365. Die neue Cloud-Plattform von Microsoft. Wer da wohl alles noch mitliest?

Swissbackup24.ch ist ein 100% schweizerisches Unternehmen und unterliegen nicht dem Patriot Act.

Autor: George Thommen

Vorteile der Online Datensicherung

Nach wie vor spielt die regelmässige Datensicherung eine wichtige Rolle in der Datenverarbeitung. Dabei ist es unerheblich, ob Sicherungen von wichtigen Datenbeständen im privaten oder gewerblichen Bereich ausgeführt werden müssen. Seit den Anfängen des Computerzeitalters wurden die meisten Daten auf externen Datenträgern gesichert. Hierbei haben sich im kommerziellen Bereich Bandlaufwerke bis heute bewährt. Im privaten Bereich wurden zunächst beschreibbare CDs, DVDs, kleinere Streamer und letztlich externe Festplatten genutzt. „Unabhängig von der verwendeten Sicherungsart besteht bei diesen Sicherungsverfahren immer die Gefahr, dass durch eine Beschädigung der Datenträger auch gleichzeitig die zu sichernden Daten verloren gehen können“
Noch verhältnismässig neu ist die sogenannte Online Datensicherung. Es handelt sich hierbei um eine Datensicherung, die über das Internet erfolgt. Die Datensicherung selbst wird hierbei auf den Servern eines Internetanbieters in seinem Rechenzentrum vorgenommen. „Generell wird durch dieses Verfahren der Anwender weitgehend entlastet“.

Bei einer Online Datensicherung werden vom Anwender keine eigenen Datenspeicher mehr benötigt. Anstelle von Festplatten, Bändern oder DVDs werden die Daten direkt auf dem Server im Internet gespeichert. Hierdurch entfallen auch die meist teuren Anschaffungskosten.
Feuer und Diebstahl stellen bei einer lokalen Datensicherung eine besondere Gefahr dar. Indem die online gesicherten Daten auf einem räumlich getrennten Server abgelegt sind, können diese weder gestohlen noch durch Feuer zerstört werden.

Ein weiterer Vorteil einer Online Datensicherung ist das automatisch ausgeführte Backup, welches der Anwender individuell einstellen kann. Anbieter wie swissbackup24.ch sind spezialisiert darauf und kennen die Feinheiten. In der Regel werden die meisten Backups im Hintergrund ausgeführt. Auch bei lokalen Sicherungen geschieht dies meist. Dabei startet der Online Client direkt nach dem Hochfahren des Systems und kann in regelmässigen Abständen überprüfen, wann Dateien geändert worden sind oder neu hinzugekommen sind. Auf diese Weise muss sich der Anwender um nichts weiteres mehr zu kümmern. Diese Form der Datensicherung ist auch wesentlich flexibler und die abgelegten Daten werden permanent gesichert. Dadurch bleibt der gesicherte Bestand immer aktuell.

Ein besonderer Vorteil ist, dass im Falle eines Laufwerksschadens im lokalen Rechner nach dem Einsetzen eines neuen Laufwerks alle wichtigen Dateibestände wieder aus dem Netz eingespielt werden können. Die Daten liegen dort sicher geschützt und können auch nicht in falsche Hände geraten.

Autor: George Thommen

Datenredundanz per Raid Array Technologie

Die RAID-Technologie soll die Ausfallsicherheit und Leistungsfähigkeit von Festplattensystemen erhöhen. Dabei stehen Varianten mit spezifischen Vor- und Nachteilen zur Wahl, die der folgende Artikel detailliert erläutert.

Neben den primär angepeilten Zielen - kostengünstige, hochkapazitive Speicherung und gute Ausfallsicherheit,  bieten die vorgestellten Methoden weitere Vorteile. Zum einen stellt sich der RAID Verbund auf Anwenderseite als einzelnes logisches Volume dar. Die Verwaltung gestaltet sich also ebenso einfach wie bei einem Einzellaufwerk. Zum anderen bieten viele RAID-Verfahren durch die Parallelisierung der Plattenzugriffe einen Geschwindigkeitsvorteil gegenüber Einzellaufwerken. Dieser lässt sich allerdings nur dann voll ausreizen, wenn eine ausreichende Kanalanzahl zur Verfügung steht.

Auch zusätzliche RAID-Varianten wurden entwickelt, die auf bestimmte Einsatzgebiete und spezifische Vorteile hin optimiert wurden. Heute reicht die Bandbreite der allgemein verfügbaren Level von RAID 0 bis RAID 6. Hinzu kommen kombinierte Technologien wie RAID 0+1 oder 50, mit RAID 6 verwandte Verfahren mit nochmals erhöhter Ausfallsicherheit, sowie herstellerspezifische Varianten.

Software- vs. Hardware-RAID

Die etwas irreführenden Begriffe Hard- beziehungsweise Software-RAID - letztlich benötigen beide Varianten zum Betrieb Software - beziehen sich auf die Art und Weise der Implementierung.

Beim Software-RAID übernimmt eine auf der CPU des Hosts laufende Software die Steuerung des Plattenverbunds. Oft bringt bereits das Betriebssystem entsprechende Komponenten mit.

Software-RAID stellt also meist die preisgünstigste und einfachste Lösung dar. Zudem lässt es sich - etwa per Prozessor-Upgrade am Host - relativ schnell an erhöhte Anforderungen anpassen. Andererseits verursacht es eine hohe CPU-Belastung und arbeitet naturgemäß plattform- und betriebssystemgebunden. Auch stehen zur Ansteuerung der Laufwerke meist nur zwei oder vier Anschlüsse zur Verfügung. Dies beschränkt die mögliche Parallelisierung der Plattenzugriffe und damit auch die Performance.

Dagegen übernimmt bei Hardware-RAID ein eigener Controller die Ansteuerung des Arrays. Das bringt eine Entlastung der Host-CPU und eine höhere Performance mit sich. Zudem binden RAID-Controller die Laufwerke über mehrere Kanäle an, was gleichzeitige Laufwerkszugriffe und damit hohe Transferraten ermöglicht. Dafür gilt es aber, einen deutlich höheren Preis zu zahlen. Hardware-RAIDs arbeiten zwar plattformunabhängig. Auch sie benötigen aber zur Verwaltung Software, die natürlich auf ein bestimmtes Betriebssystem zugeschnitten ist.

RAID Level 0

Bei RAID Level 0 handelt es sich - wie die Null im Namen schon andeutet - um kein redundantes Speicherverfahren. Es dient lediglich zur Beschleunigung von Plattenzugriffen. Dazu fasst RAID 0 zwei oder mehr Festplatten zu einem logischen Laufwerk zusammen. Es verteilt die Daten in aufeinanderfolgenden Blöcken ("Stripes") gleichmäßig über alle Laufwerke. Daher bezeichnet man RAID 0 auch als Striping. Das parallele Lesen respektive Schreiben auf mehreren Laufwerken steigert zwar die Durchsatzrate, senkt jedoch die Sicherheit der Daten: Fällt eine Platte des Verbunds aus, sind alle Daten verloren.

Die Geschwindigkeitssteigerung macht sich vor allem bei großen, zusammenhängenden Dateien deutlich bemerkbar. Hier kann Striping parallel auf allen Platten operieren und dadurch die Transferrate vervielfachen. Beim Lesen oder Schreiben vieler kleiner Files ist die Zugriffszeit der Platten der limitierende Faktor. Hier erreicht ein Stripeset bestenfalls die Performance eines Einzellaufwerks. Aufgrund dieser Eigenheiten kommt es meist dort zum Einsatz, wo große Datenmengen abgearbeitet werden müssen: Etwa bei Workstations für CAD/CAM oder Audio- und Videobearbeitung.

RAID Level 1

RAID Level 1 wird auch als Mirroring oder Spiegelung bezeichnet. Dieser Name verdeutlicht, wie das Verfahren arbeitet: Alle Schreibzugriffe erfolgen parallel auf zwei Laufwerke, so dass jede Platte quasi ein Spiegelbild der anderen darstellt. Alle Daten stehen also doppelt zur Verfügung - sicherer geht es kaum noch. Auch wenn eines der beiden Laufwerke komplett ausfällt, bleiben alle Nutzdaten erhalten. Allerdings steht bei RAID 1 nur die Hälfte der gesamten Plattenkapazität für die Speicherung zur Verfügung. Die Kosten der Datenhaltung verdoppeln sich also.

Durch eine Kombination von Mirroring und Striping lassen sich Geschwindigkeitsgewinn und Datensicherheit verbinden: Ein RAID 0 erzielt durch das lineare Zusammenschalten mehrerer Festplatten sowohl beim Lesen als auch beim Schreiben einen Geschwindigkeitsvorteil. Die zusätzliche Spiegelung des Stripesets auf weitere Platten sorgt für Datensicherheit. Je nach Hersteller wird dieses Verfahren als RAID 0+1, RAID 0/1 oder RAID 10 propagiert.

RAID-Verfahren mit Fehlerkorrektur

Zwar bietet Mirroring perfekte Redundanz, verursacht jedoch gleichzeitig einen hohen Overhead und entsprechend hohe Kosten. Um diesen Nachteil zu beheben, arbeiten die RAID-Level 2 bis 7 mit Fehlerkorrektur. Sie verteilen zunächst die Nutzdaten per Striping auf wenigstens zwei Datenlaufwerke. Aus deren Dateninhalt wird anschließend ein Korrekturwert errechnet, mit dessen Hilfe sich nach einem Ausfall die Daten des defekten Laufwerks wieder rekonstruieren lassen. Dieser ECC-Code wird auf einem eigenen Parity-Laufwerk abgelegt.

Dabei setzt RAID auf eines der ältesten Verfahren zur Fehlerkorrektur, die Paritätsprüfung. Dazu verknüpft es die Daten der Nutzlaufwerke über eine logische Exklusiv-Oder-Operation (XOR) und speichert das Resultat auf einem eigenen Parity-Laufwerk. Das Ergebnis der Verknüpfung ist dann 1, wenn eine ungerade Anzahl von Bitstellen eine 1 aufweist. Bei einer geraden Anzahl dagegen ist das Ergebnis 0.

RAID Level 5 arbeitet ebenso wie RAID 4 mit einer blockweisen Verteilung der Nutzdaten. Es verzichtet jedoch auf ein dediziertes Parity-Laufwerk und verteilt die ECC-Daten zusammen mit den Nutzdaten gleichmäßig über die Laufwerke. Damit sinkt die Wahrscheinlichkeit, dass gleichzeitig zwei Schreiboperationen auf dieselbe Platte erfolgen. Schreibzugriffe lassen sich also weitgehend parallelisieren. Zudem verteilt sich die mechanische Belastung der Platten gleichmäßig, da keine eine Sonderstellung als Parity-Laufwerk einnimmt.

Auch beim Lesen von Daten bietet RAID 5 durch die Verteilung der Daten über alle Laufwerke eine gute Performance. Dies zahlt sich insbesondere beim Zugriff auf viele kleine Datenblöcke aus. Daher kommt RAID 5 speziell bei Datenbank- oder Transaktionsservern gern zum Einsatz.

RAID 6

RAID 6 versucht, gegenüber RAID 3 bis 5 die Ausfallsicherheit nochmals zu erhöhen. Bei diesen Verfahren darf nur eine Platte des Arrays ausfallen, da sich sonst die Daten nicht mehr per XOR rekonstruieren lassen. RAID 6 umgeht diese Einschränkung, indem es ein RAID 5 um zusätzliche, über die Platten verteilte Parity-Informationen auf Basis von Reed-Solomon-Codes ergänzt. Man spricht hier auch von einer "zweidimensionalen Parity". Vereinfacht kann man sich das als ein RAID 5 vorstellen, das um eine weitere Parity-Platte ergänzt wurde.

Zwar dürfen bei RAID 6 nun zwei beliebige Platten des Verbunds ausfallen, ohne dass Datenverluste auftreten. Die zusätzliche Sicherheit muss allerdings mit gegenüber RAID 3 bis 5 deutlich langsameren Schreibzugriffen sowie einer mageren Performance bei der Rekonstruktion erkauft werden. Eine Software-Variante von RAID 6 implementiert ab Linux 2.6.2 auch der entsprechende Metadisk-Treiber.

Verhalten bei Plattenausfall

Ob rechnerinterner Plattenverbund oder externes Speichersubsystem, ob Hardware- oder Software-RAID: Fällt eine Platte des Arrays aus, geht bei den gängigen RAID-Leveln die Redundanz verloren. Jede Fehlfunktion eines weiteren Laufwerks (ausser bei Raid 6) führt in dieser Situation unweigerlich zu Datenverlusten. Konsequenz: Die defekte Platte muss schnellstmöglich ersetzt und das Array rekonstruiert werden.

Im Optimalfall verfügt das Array über eine zusätzliche, ausschließlich im Notfall verwendete Festplatte. Ein solches Hot-Fix-Laufwerk (auch Hot-Spare oder Stand-by-Laufwerk genannt) wird automatisch aktiviert und als Ersatz für die defekte Platte eingebunden. Steht kein Hot-Spare zur Verfügung, gilt es, das defekte Laufwerk manuell zu wechseln. Dies erfordert für gewöhnlich ein Abschalten des Rechners und damit eine Betriebsunterbrechung - was gerade bei Servern in der Regel inakzeptabel ist. Abhilfe schaffen hier hot-plug- respektive hot-swap-fähige Arrays: Die Festplatten des RAID-Verbundes sind frei zugänglich in Festplatten-Shuttles untergebracht, die sich während des Betriebs wechseln lassen.

Nach erfolgreichem Austausch gilt es, die neue Festplatte in den RAID-Verband einzubinden und die verlorengegangenen Daten zu rekonstruieren. Geschieht dies automatisch, spricht man von Auto-Rebuild. Dieses automatische Wiederherstellen setzt allerdings die Fähigkeit des Controllers voraus, mit dem Festplatten-Shuttle zu kommunizieren (Laufwerkszustand, neues Shuttle eingeführt). Können sich Controller und Shuttle nicht verständigen, muss der Rebuild manuell angestoßen werden.

Schützt Raid vor Datenverlust?

Zwar lässt sich durch den Einsatz von Diskarrays die Verfügbarkeit von Rechnersystemen deutlich erhöhen. Ein Allheilmittel gegen Datenverluste stellt RAID allerdings nicht dar. Um eine Ausfallsicherheit nahe 100 Prozent zu erreichen, müssen alle Komponenten des Speichersubsystems inklusive Controller, Netzteil und Lüftern redundant ausgelegt werden. Solche Lösungen bietet die Storage-Industrie zwar an, preiswert fallen sie aber nicht gerade aus.

Zudem ereignen sich Ausfälle von Laufwerken und anderen Komponenten nicht immer unabhängig voneinander. In der Praxis treten gelegentlich Situationen ein, durch die sich die Ausfallwahrscheinlichkeit des gesamten Arrays schlagartig erhöht. Dazu zählen etwa durch Blitzschlag verursachte Überspannungen, Überschwemmungen oder Brände. Auch Viren und Würmer befallen RAID-Systeme ebenso gern wie Einzellaufwerke.

Schließlich kann selbst das zuverlässigste Array den Risikofaktor Nummer 1 nicht ausschalten - den Menschen. Den weitaus größten Teil irreparabler Datenverluste verursacht nicht etwa versagende Technik, sondern Fehlbedienung durch den Benutzer. Gelöschte Dateien sind auch auf RAID-Systemen verloren. Selbst für das ausgefeilteste RAID-System gilt deshalb: Den einzig wirklich zuverlässigen Schutz gegen Datenverluste bietet ein konsequent geplantes und vorgenommenes Backup.

Warum ein RAID kein Backup ist

Wie beschrieben dient die RAID Technik dazu Daten gleichzeitig auf mehreren Festplatten zu speichern und schützt somit vor dem Ausfall einzelne Festplatten. Man könnte nun denken, dass ein Backup nichts anderes tut. Kopiert man seine Daten manuell auf  eine andere Festplatte macht man doch im Grund genau dass, was ein RAID auch tut, nur eben manuell statt automatisch... Diese Sicht der Dinge ist jedoch ein Trugschluss.

Betrachtet man das Vorgehen eines RAIDs genauer, stellt man fest, dass hier nicht nur einfach Daten kopiert werden. Vielmehr führt ein RAID jede Änderung an Daten auf jeder beteiligten Festplatte aus. Dies gilt für das Kopieren, Verschieben und Umbenennen genau wie für das Löschen von Daten. Werden also auf einem RAID Laufwerk versehentlich Daten gelöscht, werden die Daten automatisch auch auf allen anderen RAID Laufwerken gelöscht. Trotz RAID wären die Daten in diesem Fall verloren.

Ein RAID System kann als Backup betrachtet werden, bei dem jede Änderung der Originaldaten Daten automatisch auf die Sicherungskopie übertragen wird. Werden die Originaldaten beschädigt wird somit automatisch auch die Sicherung beschädigt. Dies ist natürlich nicht der Sinn eines Backups.

Durch ein RAID wird “nur” die Verfügbarkeit der Daten erhöht, aber nicht die Sicherheit der Daten. Was kann ein Backup, was ein RAID nicht kann?

Bei einem Backup wird die Sicherheit der Daten durch das Anlegen einer separaten, unabhängigen Kopie erhöht. Bei einem Verlust der Originaldaten kann man auf die Kopie zugreifen und die Daten somit wiederherstellen. Hierdurch hilft ein Backup auch in solchen Situationen in denen ein RAID System versagt:

  • Versehentliches Löschen von Dateien
  • Beschädigung von Dateien durch Hardwarefehler, Viren, etc.
  • Diebstahl/Verlust des Computers
  • Beschädigung des Computers durch Blitzschlag, Hochwasser, etc.
  • Hardwarefehler an RAID Controler

Der Artikel soll zeigen, dass ein RAID nicht die Aufgaben einer Datensicherung übernehmen kann. Es geht nicht darum den Sinnes eines RAIDs generell in Frage zu stellen. Um sich vor Festplattenfehler und -ausfällen zu schützen ist ein RAID eine einfache und gute Möglichkeit die in jedem Fall genutzt werden sollte. Man darf von der Technik lediglich keine Lösungen für Probleme erwarten, für die Sie gar nicht gedacht ist. Leider ist der Irrglaube “RAID = Backup” jedoch weit verbreitet. Diesem konnte der Artikel vielleicht ein wenig entgegen wirken :-)

Autor: George Thommen