Sie sind hier: Startseite » Markt » Tipps und Hinweise

Disaster Recovery in die Cloud verschieben


Ist es an der Zeit, das DR-Rechenzentrum abzuschalten?
Warum die Cloud als Option für Disaster Recovery immer wichtiger wird und wie sich Unternehmen das Backup-Rechenzentrum sparen können


Von Vera Wolf, Zerto

Jede Zeit setzt ihre Standards. Im letzten Jahrzehnt hat sich die Nutzung eines kompletten Backup-Rechenzentrums zum Standard entwickelt. Um die IT ihres Unternehmens jederzeit aufrecht erhalten zu können, duplizieren fortschrittliche Organisationen ihr Rechenzentrum an einem zweiten Standort, spiegeln ihre Daten und aktive Applikationen synchron über einen Stretched Cluster. Dieser Aufbau ist zwar teuer und aufwändig, aber er soll garantieren, dass keine Daten verloren gehen. Sogar bei einem Totalausfall des Hauptrechenzentrums soll die IT eines Unternehmens einsatzfähig bleiben. Im Zeitalter der Cloud kann man diesen Standard jedoch infrage stellen: Mehr und mehr Unternehmen entdecken die Möglichkeiten der Cloud, um ihre Rechenzentren abzusichern. Bedeutet dies über kurz oder lang das Ende des physischen Backup-Rechenzentrums?

Der Betrieb eines physischen Backup-RZs hat zahlreiche Nachteile
Ein komplettes Backup-RZ aufzubauen und zu betreiben, birgt zahlreiche Nachteile. Zum einen verdoppelt es fast das IT-Budget für die Infrastruktur, weil das Backup-RZ hinsichtlich Storage, Networking und Computing das Hauptrechenzentrum im Ernstfall komplett ersetzen können muss. Dies vergrößert logischerweise die Investitionen in Hardware und deren Verwaltung enorm. Diese Abhängigkeit von physischer Hardware, inklusive der kompletten Infrastruktur des Rechenzentrums, steht dem derzeitigen Credo entgegen, IT so flexibel wie möglich zu halten.

Darüber hinaus können Standorte aufgrund der technologischen Limitierung eines synchronen Spiegels nicht weiter voneinander entfernt sein als 50 Kilometer. Seit der Empfehlung des BSI, nach der georedundante RZs mindestens 200 Kilometer voneinander entfernt sein sollen, ist es für Unternehmen sehr schwierig geworden, Alternativen zu finden. Die aktuelle Krise hat außerdem gezeigt, dass der Betrieb eines Backup-Rechenzentrums nicht vor allen Desastern schützt: Legt eine Pandemie ein komplettes Land per Ausgangsperre lahm, kann die IT bei Bedarf nicht einfach in ihre lokalen Rechenzentren gelangen, wohingegen Cloud-Infrastrukturen als kritisch gelten und immer für Wartung offen sind. All diese Gründe zwingen Unternehmen dazu, ihre Strategien für Backup, Disaster Recovery und Notfallwiederherstellung zu überprüfen. Hier kann die Nutzung der Cloud für den Betrieb eines Backup-Rechenzentrums viele Vorteile bieten.

Die Vorteile, Backup und Disaster Recovery in die Cloud zu verschieben
Daten in der Cloud zu speichern, ist im Allgemeinen recht kostengünstig. Höhere Kosten fallen eher für Compute an. Und zwar dann, wenn Anwendungen aktiv in der Cloud laufen. Bei Disaster Recovery werden Daten beispielsweise von produktiven Systemen lediglich in die Cloud repliziert. Im Falle eines Ausfalls im Hauptrechenzentrum werden die virtuellen Maschinen für das Computing erst in der Cloud gestartet, wenn sie benötigt werden. Das spart immense Kosten im Vergleich zur einem physischen RZ, wo der Großteil der Kosten schon bei der Anschaffung anfallen und fortan tagtäglich für den laufenden Betrieb.

Gründe für den Ausfall eines Rechenzentrums gibt es viele: Umweltkatastrophen sind zwar hierzulande eher selten, häufig kommen jedoch Ausfälle auf Hardwareebene und menschliche oder logische Fehler vor, wie etwa erfolgreiche Ransomware-Attacken. Da auch die Public Cloud nicht vor Ausfällen gefeit ist, hat sich die Hybrid Cloud in den meisten Unternehmen durchgesetzt. Sie bietet in Kombination das Beste aus beiden Welten: Die Flexibilität der Public Cloud und die Sicherheit der Private Cloud. Dies gilt analog auch für Disaster Recovery.

Sollte ein Unternehmen aber wirklich ohne äußeren Anlass sein funktionierendes DR-Rechenzentrum abschalten? Zumindest vor der nächsten größeren Investition sollte es diese Option durchrechnen. Denn die technische Herausforderung, ein Backup-RZ aufzulösen und in die Cloud zu verschieben, wird überschätzt. Vor allem muss ein adäquater Cloud-Anbieter gefunden werden, der als Ziel für eine neue Replikationssoftware dient. Mit traditionellen Replikationslösungen war es schwierig, virtuelle Infrastrukturen effizient in der Cloud abzusichern. Doch neue Lösungen, die auf genau diesen Anwendungsfall spezialisiert sind und neue Technologien nutzen, erreichen das effizient.

Die technische Umsetzung: Umstieg auf asynchrone Replikation und CDP
Organisatorisch gesehen ist der Umstieg einfach, DR in der Cloud umzusetzen: Nach der Installation der Replikationssoftware und der Wahl des passenden Cloudanbieters, repliziert die Software alle Daten in die Cloud und bietet fortan von dort Disaster Recovery und Backup. Das DR-Rechenzentrum oder zumindest der virtualisierte Teil davon, kann einfach abgeschaltet werden. Technologisch bedarf es einer Lösung, die kontinuierliche Datenreplikation (Continuous Data Protection, CDP) mit Journaling kombiniert. CDP repliziert jede einzelne IO in Echtzeit und setzt Wiederherstellungspunkte, sodass RPOs von wenigen Sekunden erreicht werden können. Alle replizierten Änderungen werden in einem Journal gespeichert. So kann man einfach auf den neuesten Zeitpunkt zurückgreifen kann - sogar bis zu 30 Tage in der Vergangenheit. Eine solche Lösung minimiert nicht nur den Datenverlust bei Ausfällen. Dank Orchestrierung und Automatisierung lassen sich Dateien, Anwendungen, VMs - oder eben das komplette Rechenzentrum - mit wenigen Klicks wiederherstellen.

Auch komplexe Umgebungen und Cloud-native Anwendungen können in der Cloud abgesichert werden
Dank Automation der Wiederherstellung und Orchestrierung, können Unternehmen sogar komplexe Multi-VM-Anwendungen konsistent wiederherstellen. Moderne Lösungen mit CDP und Orchestrierung setzen Wiederherstellungspunkte, an denen alle VMs genau den gleichen Zeitstempel besitzen. Auf diese Weise, startet jede VM der Applikation vom selben Wiederherstellungspunkt aus. Dies erlaubt der IT-Abteilung den Service nicht nur für jede VM, sondern komplexeste Anwendungen sekundenschnell nach dem Auftreten des Fehlers wieder zu starten. Und dies, ohne einzelne VMs manuell starten oder Boot-Sequenzen einhalten zu müssen. Zukünftig werden die ersten Lösungen auch Cloud-native Anwendungen der nächsten Generation unterstützen können, wie etwa Kubernetes.

Fazit: Es ist an der Zeit, den DR-Standort aufzulösen
Die Coronakrise stellt derzeit vieles auf den Kopf. Sie zwingt Unternehmen dazu, neue Wege zu gehen, um Projekte für die Digitale Transformation schneller umzusetzen. Neue Technologien wie CDP mit Journaling Sie rütteln am Standard des Betriebs eines Backup-Rechenzentrums, weil dieses jetzt einfacher und kostengünstiger in der Cloud betrieben werden kann. Cloud-Anbieter haben das Potenzial dieser sehr einfachen Methode längst erkannt und sind bereits Partnerschaften mit Lösungsanbietern eingegangen, die ihre Replizierungssoftware "as a Service" in der Cloud anbieten. Bei den zahlreichen Vorteilen, die die Auflösung des Backup-Rechenzentrums und seine Verschiebung in die Cloud bietet, scheint es nur noch eine Frage der Zeit, dass Unternehmen ihre Backup-Standorte abschalten. Die Alternative Cloud bietet so große Vorteile, dass diese nicht ignoriert werden können. (Zerto: ra)

eingetragen: 16.09.20
Newsletterlauf: 23.11.20

Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen