Sie sind hier: Startseite » Markt » Tipps und Hinweise

Die zehn häufigsten Probleme bei Datenmigrationen


Wo die größten Fallstricke beim Portieren von Daten lauern - und wie man sie vermeiden kann
Datenmanagement ist keine Voraussetzung für die Portierung von Daten. Wer aber keinen Überblick über seine Daten hat, hat es schwer, diese planvoll, korrekt und schnell zu migrieren


Von Ralf Draeger, dynaMigs

Datenmigrationen sind komplex und erfordern ein hohes Maß an Expertenwissen, damit sie ohne Probleme über die Bühne gehen. Organisationen, die potenzielle Problemfelder schon vor der Migration erkennen und entsprechend vorausplanen, sparen bei ihren Migrationsprojekten Zeit und Geld. Hier eine Liste aus der Praxis mit den zehn häufigsten Problemen bei Datenmigrationen – und wie man sie lösen kann.

1. Mangelhaftes Datenmanagement
Eines vorweggenommen: Datenmanagement ist keine Voraussetzung für die Portierung von Daten. Wer aber keinen Überblick über seine Daten hat, hat es schwer, diese planvoll, korrekt und schnell zu migrieren. Betreiben Unternehmen kein konsequentes Datenmanagement, sind die Bestände schnell unstrukturiert auf verschiedenen Systemen verteilt – und damit an sich Grund für eine Datenmigration. Denn oft liegen dann kalte Daten auf teuren Medien, unternehmenskritische Informationen dagegen auf nicht ausreichend gesichertem Speicher.

Das kann im schlimmsten Fall zum Produktionsausfall führen, weil wichtige Informationen nicht mehr verfügbar sind. Mangelhaft verwaltete Daten sind zudem teuer, weil die Verantwortlichen laufend unkoordiniert Speicher erweitern und teure Medien auf Vorrat kaufen, die nicht unbedingt nötig sind. Außerdem kann eine Migration gewachsener Datenbestände viel Zeit und Geld verbrauchen. Ein Aufräumen der Datenstruktur im Vorfeld empfiehlt sich – nicht zuletzt, um sich vielleicht von Altlasten zu befreien und Speicherkosten zu optimieren.

Lösung: Eine Migration ohne professionelles Datenmanagement geht natürlich auch – aber mit ist es oft schneller, sicherer und besser.

2. Tasks manuell abarbeiten
Die Datenberge einer Organisation von Hand zu migrieren, kostet viel Zeit und Ressourcen. Insbesondere wenn im Lauf der Zeit innerhalb von Jahrzehnten angehäufte Daten zu verarbeiten sind, wird die manuelle Migration im Prinzip bereits unmöglich. Zu viele Mitarbeiter wären dafür nötig und zeitaufwändig einzuarbeiten. Ganz entscheidend: Die manuelle Datenmigration ist bei solchen Mengen sehr fehleranfällig.

Lösung: Sich wiederholende Teile der Migration mit fortschrittlichen Migrations-Tools automatisieren. Prozessautomatisierung spart einerseits Zeit und Geld. Andererseits erhöht es die Qualität und damit die Datensicherheit.

3. Umlautproblematik
Im Mainframe war die Menge an Zeichen mit ASCII noch auf 127 begrenzt und kannte keine Umlaute. UTF-8 / Unicode (Windows NT 4.0 und höher/Unix/NAS) stellt Zeichen mit einem, zwei oder drei Bytes dar, was mehr als eine Million Zeichen ermöglicht. Bei unterschiedlichen Netzwerkprotokollen, insbesondere beim Wechsel auf NFSv4, können Sonderzeichen oder Umlaute in Dateinamen bei Datenmigrationen Probleme bereiten. Denn jedes dieser Zeichen kann in unterschiedlichen Zeichenfolgen auf dem NAS abgelegt sein, je nach Konfiguration des Clients. Ein "ä" findet sich unter Umständen im Filesystem der NAS als "e4", "c3 a4" oder "c3 83 c2 a4", wird aber je nach Konfiguration des Clients womöglich auch als Element aus der Liste "δфلהไ…" interpretiert. Dieses Problem betrifft rund 400 Sonderzeichen aus unterschiedlichen Sprachen und Sprachvarianten. Mit einem neuen falschen Namen lassen sich die Dateien nach der Migration nicht mehr ohne Weiteres finden.

Lösung: Das Wissen, dass Umlaute oder andere Zeichen Probleme bereiten können, ist der erste Schritt. Nur jahrelang erfahrene Experten können solche Probleme und deren Effekte antizipieren und schon vor der Migration entschärfen.

4. Kein einheitliches User-Mapping bei Multiprotokoll-Umgebungen
Unternehmen, die aus historischen Gründen unterschiedliche Protokolle auf ein und demselben Speicher verwenden, etwa NFS unter Linux oder CIFS unter Windows, haben oft kein einheitliches User-Mapping. Das kann bei der Migration Probleme bereiten, wenn beispielsweise Windows-Nutzer im Active Directory stehen, die Linux-Anwender jedoch nur lokal angelegt sind. So weiß das Storage-System nach einer Datenmigration nicht mehr, welchem Nutzer es welche Zugriffsrechte geben soll.

Lösung: Vor der Migration mappen die Verantwortlichen alle User unternehmensweit, z.B. via LDAP. Dies sorgt dafür, daß die Storagesysteme die User in beiden Welten korrekt erkennen und die entsprechenden Rechte ziehen.

5. Kopierfehler durch Verifikation erkennen und vermeiden
Wer Daten migriert, will die Sicherheit haben, dass diese korrekt am Ziel ankommen. Das Caching-Verhalten und Fehler im IP-Stack des Copyhost-Betriebssystems, falsches Codieren von Umlauten oder nicht korrekt dargestellte Verzeichnisse können ein falsches Überspielen der Daten in den beteiligten Speichersysteme verursachen. Die Logfiles der Migration, auf die viele Verantwortliche für die Verifikation zurückgreifen, können die korrekte Migration nicht hinreichend bestätigen, da sie etwaige Schwächen von Kopiertools außer Acht lassen.

Lösung: Moderne Verifikations-Tools, wie etwa der Stormax von dynaMigs, scannen Daten, Dateien und Ordner samt Metadaten an Quelle und Ziel und gleichen diese ohne weitere Downtime ab. So kann man Fehler finden und aufzeigen, im welchen Teilschritt der Migrationskette sie passierten.

6. Distributed File Systems (DFS) und nicht erkannter Reparse-Point
Speicherarrays unterschiedlicher Anbieter legen DFS-Links oder Widelinks unterschiedlich an. Dies kann dazu führen, dass das Kopiertool den DFS-Link nicht mehr als Reparse-Point erkennt. Mit unter Umständen überraschenden Folgen: Denn das Kopiertool merkt dann nicht, dass der Link den zu kopierenden Speicherbereich verlässt. Die Folge kann sein, dass ungewollt Daten kopiert oder sogar irrtümlich gelöscht werden.

Lösung: Um dieses Problem zu umschiffen, muss man wissen, dass es das Problem potenziell gibt – und man benötigt die nötige Erfahrung des Verhaltens verschiedener Speicherarrays und Kopiertools.

7. Wechsel des Speichersystems
Die Probleme bei Storage-Migrationen wachsen, wenn eine IT-Administration nicht nur auf ein neues Array, sondern auf ein komplett neues System migrieren will oder muss - beispielsweise anlässlich eines Anbieterwechsels oder bei Vertragsende. Das neue System ist dann so einzustellen, dass es sich genauso verhält, wie das alte. Ansonsten bindet es sich nicht in die IT-Gesamtinfrastruktur ein und bleibt ein Fremdkörper. Abläufe zum Verarbeiten der Daten – und damit Geschäftsabläufe –werden folglich unterbrochen.

Lösung: Die Migrationsverantwortlichen konfigurieren die Zielsysteme vor der Migration grundlegend und sorgfältig. Sie berücksichtigen dabei vor allem das Zusammenspiel mit der gegebenen IT.

8. Kein Blick für Bandbreite
Die immer größeren Datenmengen bringen Netzwerke unter Umständen an ihre Leistungsgrenze. Ein Datentransport über WAN kann lange dauern und zu Abbrüchen der Migration und Datenverlust führen. So manche Speichersysteme sind bereits heute zu groß geworden, um sie in einem sinnvollen Zeitrahmen über weite Strecken zu transportieren. Stichwort: Data-Gravity.

Lösung: Das lokale Kopieren der Dateien vermeidet diese Probleme. Es macht vieles einfacher und schneller.

9. Offline-Cache
Offline-Caches sind unter CIFS ein Problem. In diesen Zwischenspeichern halten Clients Dateien vor, die offline geändert werden können und daher später mit dem Server zu synchronisieren sind. Nach der zwischenzeitlichen Migration kann der Client diese nicht mehr synchronisieren, falls das Ziel einen neuen Namen trägt. Dann verwirft der Client diese nach einiger Zeit gänzlich. Die Daten gehen also verloren.

Lösung: Hier hilft nur die Analyse, ob ein Client den Offline-Cache serverseitig unterstützt sowie ein entsprechender Recall vor der Migration.

10. Übernahme von IP-Adresse und Servernamen
Will man Servernamen und IP-Adresse bei einer Datenmigration übernehmen, kann das die Address-Resolution-Protocol (ARP) - Caches der Clients verwirren. Dann sind falsche Ziel- oder Ursprungsadressen hinterlegt. Im schlimmsten Fall ist ein Reboot des Clients nötig: Bei Windows wegen korrumpierter ARP-Zwischenspeicher, bei Unix etwa wegen eines veralteten Mounting-Punkts (Stale Mount).

Lösung: Stellt man auf neue Namen / IPs um, dann ergibt sich das Problem nicht, allerdings müssen dann auf allen Clients Änderungen vorgenommen werden.
Bei Übernahme sollte man alle beteiligten Versionen der Windows Clients im Vorfeld in einer Testmigration auf ihr Verhalten prüfen. Anfällige Versionen werden dann am besten während der Migration heruntergefahren. Bei Unix-Derivaten ist ein Umount der betroffenen Exports zwingend, hierfür sollte man neben den fstabs oder gegebenenfalls auch die Auto-Mounter-Konfigurationen prüfen.

Migrationsprobleme idealerweise lösen, bevor sie aufkommen
Die Liste möglicher Probleme bei Migrationen ist lang. Zahlreiche Fallstricke sorgen dafür, dass die meisten Migrationsprojekte früher oder später ins Stocken geraten. Dabei sind die Unternehmen im Vorteil, die bereits ein professionelles Datenmanagement aufgebaut haben. Wer noch kein Datenmanagement umgesetzt hat, oder wem Manpower, Tools, Know-how und Expertise fehlen, holt sich besser frühzeitig Rat bei externen Spezialisten für Datenmanagement und Datenmigrationen. Sowohl bei der Planung als auch bei der Umsetzung. Insbesondere durch die Prozessautomatisierung spart dies am Ende Nerven, Zeit und Geld.

Der Autor
Ralf Draeger ist einer der vier Gründer von dynaMigs.net und seit 1988 in der IT-Branche tätig.
Als technischer Leiter ist er für das Solution-Design und die Administration großer NAS-, SAN- und Cloud-Umgebungen verantwortlich. Vor dynaMigs war er sieben Jahre im Bereich der Programmierung tätig, fünf weitere als Systemadministrator (Unix/Windows) und 20 Jahre im Consulting und der Implementation im NAS-Umfeld. Dabei war er hauptsächlich verantwortlich für EMC Celerra und VNX. Im Verlauf seiner Karriere war Draeger als Senior NAS-Solution-Architect und Implementation-Specialist für namenhafte Automobilhersteller, Banken, Versicherungen, IT-Dienstleister und öffentliche Institutionen zuständig.

(dynaMigs: ra)

eingetragen: 19.05.21
Newsletterlauf: 30.08.21

dynaMigs: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Mythos der maßgeschneiderten Entwicklung

    Der gezielte und flexible Einsatz von Technologie ist ein zentraler Erfolgsfaktor für Unternehmen. Digitalisierung ist für viele Unternehmen weiterhin eine Priorität, der sie eine substantielle Menge an Ausgaben einräumen: Einem Bericht des IDC zufolge, werden die weltweiten Investitionen in IT-Transformationsinitiativen voraussichtlich 4 Billionen US-Dollar bis 2027 übersteigen. Jedoch erreichen weniger als die Hälfte (48?Prozent) aller Digitalisierungsprojekte die angestrebten Ziele. Laut McKinsey scheitern sogar sieben von zehn Unternehmenstransformationen.

  • Migration in lokale Cloud-Rechenzentren

    Digitale Souveränität in und mit der Cloud - dafür sind Unternehmen gefordert, die entscheidenden Weichen zu stellen. Aus der Projekterfahrung von Yorizon, Vorreiterin für Open Source Edge-Cloud-Services, sind es fünf entscheidende Faktoren, die eine unabhängige und zukunftsfähige Cloud-Strategie sicherstellen.

  • Agentische KI im Retail-Bereich

    KI revolutioniert wie wir Ideen und Produkte entwickeln, Handel treiben und Informationen sammeln. Die menschliche Genialität bekommt dabei einen Kompagnon: die KI. Doch obwohl die generative KI häufig den größten Hype erzeugt, wird es die agentische KI sein, die Händlern den größten Nutzen bringt.

  • IT-Resilienz als Überlebensfaktor

    Angesichts der vom Bundesamt für Sicherheit in der Informationstechnik als "besorgniserregend" eingestuften Cybersicherheitslage gewinnen automatisierte Ansätze für die Stärkung der IT-Resilienz zunehmend an Bedeutung, wie aktuelle Implementierungen zeigen.

  • Backup-Lücke von Microsoft 365

    Unternehmen nutzen Microsoft 365 als Grundlage für ihre Produktivität. Doch neben den Vorteilen solcher Produktivitätsplattformen wird immer wieder eine Lücke in der Datenschutzstrategie übersehen: das Prinzip der geteilten Verantwortung. Diese Nachlässigkeit setzt wichtige Geschäftsinformationen erheblichen Risiken aus, die sich in Ausfallzeiten und wirtschaftlichen Verlusten niederschlagen können.

  • KI und digitale Souveränität

    Die europaweite Debatte rund um digitale Souveränität fokussiert sich in den vergangenen Wochen überwiegend auf das Thema "KI" (AI-Gigafactory etc.). Dabei gerät ein anderer Aspekt gerade etwas in den Hintergrund: Cyberresilienz und die Kontrolle über kritische Daten innerhalb Europas.

  • DMS und digitale Souveränität

    Die Welt ordnet sich neu und Europa steht unter wachsendem Druck, seine digitale Unabhängigkeit zu stärken. Laut einer Bitkom-Studie (2025) fordern 84 Prozent der Unternehmen, dass die neue Bundesregierung der digitalen Souveränität höchste Priorität einräumt. Gerade im Umgang mit vertraulichen Dokumenten und geschäftskritischen Informationen zeigt sich, wie entscheidend die Kontrolle über digitale Prozesse ist. Die easy software AG beleuchtet, welche Rolle das Dokumentenmanagement dabei spielt - und worauf es jetzt ankommt.

  • MDR - meist mehr Schein als Sein

    Managed Detection and Response (MDR) ist der neue Hype der IT-Sicherheitsbranche. Kaum ein Systemhaus, das nicht plötzlich MDR im Portfolio hat. Was sich hinter diesem Label verbirgt, ist oft enttäuschend: vollautomatisierte EDR- oder XDR-Lösungen mit dem Etikett "Managed", das in Wahrheit kaum mehr bedeutet, als dass ein Dienstleister Herstellerlösungen lizenziert - nicht aber selbst Verantwortung übernimmt.

  • Einblicke in die Sichtweise der Kunden

    Online-Händler erhalten täglich eine unzählige Menge an Anfragen. Ein Großteil davon wird mit KI-Agenten gelöst, da sie immer wieder ähnliche Themen wie Lieferzeiten, Rücksendungen oder Produktspezifikationen betreffen. Zum einen sind KI-Agenten damit eine Arbeitserleichterung bei wiederkehrenden Anfragen, besonders wenn diese Lösungen einfach zu bedienen sind, und den Unternehmen schnellen Mehrwert bieten. Doch hinter diesen Wiederholungen verbirgt sich zum anderen auch eine bislang oft ungenutzte Quelle strategischer Erkenntnisse: die Daten, die bei jeder einzelnen Interaktion entstehen.

  • Modernisierung birgt auch ein Risiko

    Der Trend zur Cloud-Migration setzt Vermögensverwalter zunehmend unter Druck, ihre digitale Transformation voranzutreiben. Einer der strategischen Pfeiler einer Cloud-Strategie ist dabei der Wechsel von On-Premise- zu SaaS-Lösungen. Für größere, traditionelle Institutionen stellt sich jedoch die Frage: Sollten sie direkt auf SaaS umsteigen oder lieber einen mehrstufigen Ansatz über PaaS wählen? Alberto Cuccu, COO von Objectway, erklärt, warum ein schrittweiser Migrationsprozess für bestimmte Geschäftsfälle eine sinnvolle Option sein kann, welche Rolle DORA dabei spielt und welche typischen Fehler Banken bei ihrer IT-Transformation machen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen