Sie sind hier: Startseite » Markt » Tipps und Hinweise

Zehn Vorteile von Mainframe-Rehosting


Digitaler Wandel erfordert Modernisierung von Kerntechnologie
IT-Abteilungen werden mit Beschwerden von unzufriedenen Mainframe-Nutzern überflutet, könnten die Änderungen aber kaum noch umsetzen

9. Januar 2025

Zukunftsorientierte Organisationen und Unternehmen jeder Größe setzen verstärkt auf digitale Technologien, um wettbewerbsfähig zu bleiben und gleichzeitig Neuerungen für ihre Branchen anbieten zu können. IDC prognostiziert dass die digitale Transformation in den nächsten drei bis vier Jahren makroökonomische Auswirkungen haben und die Art und Weise beeinflussen wird, wie Unternehmen weltweit agieren und die globale Wirtschaft verändern werden. Laut Analysen von IDC werden 50 Prozent der Global 2000-Unternehmen bis zum Jahr 2020 einen Großteil ihres unternehmerischen Erfolgs in direkter Abhängigkeit von ihrer Fähigkeit sehen, digital verbesserte Produkte, Dienstleistungen und Erfahrungen anzubieten.

Um den Anschluss an diese Entwicklung nicht zu verpassen, sind Unternehmen gezwungen, ihre Kerntechnologie-Bereiche, wie Mainframe-Architekturen, zu modernisieren, um sie den Bedürfnissen ihrer Kunden, Mitarbeiter und der technischen Evolution anzupassen. Rehosting ist dabei eine technisch und wirtschaftlich sinnvolle Methode, diese Modernisierung umzusetzen. TmaxSoft, Spezialistin für Cloud-, Infrastruktur- und Legacy-Modernisierung, fasst zehn Vorteile dieser Strategie zusammen.

"Investitionen in Legacy Technologie werden früher oder später zur Belastung. Die Kosten für eine Umstellung steigen mit der Zeit immer weiter an, während gleichzeitig die Gefahr wächst, Marktanteile an Wettbewerber zu verlieren", erklärt Thomas Hellweg, Vice President und Geschäftsführer für die DACH-Region bei TmaxSoft. "Hinzu kommt, dass Mitarbeiter, die sich mit den alten Systemen auskennen, in den Ruhestand gehen und bald keine Fachkräfte zur Betreuung der Systeme mehr zur Verfügung stehen. Unternehmen, die diese Entwicklung nicht berücksichtigen und an alter Technologie festhalten, wird sehr bald jeder technische Support für die entsprechenden Systeme fehlen."

IT-Abteilungen werden mit Beschwerden von unzufriedenen Mainframe-Nutzern überflutet, könnten die Änderungen aber kaum noch umsetzen, während die Kosten für Upgrades, externe Support-Dienstleistung sowie für Software, die Mainframe-Applikationen unterstützt, weiter steigen und eingeplante Budgets nicht ausreichen. Aber was ist der Weg aus dieser Zwickmühle? Durch Rehosting können Legacy-Systeme innerhalb einer Mainframe-Umgebung auf moderne, offene System-Plattformen transferiert werden. Dazu werden Hardware und Systeme ersetzt und Applikationen sowie Daten migriert.

Zehn Vorteile von Mainframe-Rehosting

1. Senkt das Risiko und liefert schneller Resultate als alternative Methoden –
Der Zeitaufwand für Re-Engineering Projekte kann sich auf Jahre belaufen. Rehosting ist nicht nur eine sehr viel schnellere Methode, es werden auch keine Änderungen zugrunde liegender Geschäftslogik oder Benutzeroberflächen benötigt, was negative geschäftliche Auswirkungen verhindert. Zudem ist der Trainingsaufwand minimal und das System funktioniert für die Anwender wie gewohnt.

2. Unterstützt ein bimodales oder zweistufiges Vorgehen – Investitionen in Legacy Unix, Mainframe oder andere proprietäre Systeme nehmen immer stärker ab, parallel zur sinkenden Nachfrage für veraltete Server-Betriebsumgebungen. Rehosting ermöglicht ein bimodales System und die Grundlage für schnell auf Veränderungen am Markt sowie zukünftige Integrationsanforderungen zu reagieren.

3. Senkt die Kosten und macht Mittel für Innovationen frei – Rehosting reduziert nachweislich Infrastruktur- und Betriebskosten. So können finanzielle Mittel können für die Umsetzung von Innovationen, wie neue Anwendungen, bereitgestellt werden.

4. Macht die Cloud nutzbar – Rehosting ermöglicht es, modernisierte Anwendungen in der Cloud zu nutzen. Bei der Wahl einer Rehosting-Lösung sollten Unternehmen daher beachten, dass diese auch in der Cloud einsetzbar ist.

5. Verbessert Performance und Ressourcen-Management – Die Fähigkeit, IT-Umgebungen je Geschäftsanforderungen dynamisch anzupassen, macht das Vorhalten von Ressourcen überflüssig, die lediglich zu Peak-Zeiten bei maximaler Auslastung benötigt werden. Man zahlt nur für die jeweils benötigten Ressourcen, ohne Abstriche bei Leistung und Zuverlässigkeit.

6. Steigert Verfügbarkeit und Zuverlässigkeit – Rehosting ermöglicht aktive Konfigurierung. Active-Clustering über die gesamte Infrastruktur hinweg wiederum bildet die Grundlage für Hochverfügbarkeit (Stichwort: 99,999) in der heutigen vernetzten Welt.
7. Hilft, Systemineffizienzen zu identifizieren – Im Zuge des Rehostings können Legacy Codes hinsichtlich ihrer Effizienz und Nutzungsmuster überprüft und angepasst werden.

8. Optimiert den flexiblen Einsatz von Ressourcen und Fähigkeiten – Mainframe-Expertise ist noch immer heiß begehrt, da so viele geschäftskritische Systeme auf Mainframes laufen. Durch Rehosting können IT-Abteilungen Mainframe-Kompetenzen effektiver nutzen und gleichzeitig Fähigkeiten im Bereich offener Systeme einbringen.

9. Ermöglicht mehr Agilität und schnellere Markteinführung – Unternehmen, die von Mainframe-Systemen abhängig sind, kämpfen mit vier Herausforderungen: es gibt immer weniger Experten zur Betreuung der Systeme, die beste aktuelle Software ist für diese häufig nicht verfügbar, die Betriebskosten sind extrem hoch und die Zeitspannen bis zur Marktreife von Angeboten sehr lang. Damit verlieren diese Organisationen zunehmend die Fähigkeit, agil auf Marktanforderungen zu reagieren und Lösungen bereitzustellen, was im heutigen digitalen Marktumfeld fatal ist.

10. Ein besseres Kundenerlebnis – In unserer vernetzten Welt erwarten Kunden ein hoch individualisiertes Kundenerlebnis, auch im virtuellen Bereich. Der digitale Wandel ist daher für viele CIOs ein besonders wichtiges Thema. Durch Rehosting können Unternehmen die Vorteile ihre Mainframe-Applikationen voll nutzen, indem sie diese auch für Web Services, mobile und digitale Applikationen zugängig machen und damit die Kundenerfahrung verbessern.

"Es kommt der Zeitpunkt, an dem ein Wechsel nicht mehr nur wünschenswert, sondern zur Notwendigkeit wird", so Thomas Hellweg. "Den Status-Quo beizubehalten bedeutet, sich mit mittelmäßiger Technologie zufrieden zu geben und zu akzeptieren, dass die Leistungsfähigkeit des Unternehmens von veralteten Mainframe-Infrastrukturen ohne den nötigen Support gefährdet wird. Ein Risiko, dass mit der Zeit immer weiter steigt."

Bereits Ende 2017 werden laut IDC über 70 Prozent der Global 500 spezielle Teams zur Umsetzung des Themas digitale Transformation und Innovation haben. Rehosting bietet eine effektive Strategie zur Modernisierung veralteter Mainframe-Architekturen – und das mit sehr viel weniger Risiken und Kosten als andere Methoden, dafür aber mit den gewohnten Mainframe-Eigenschaften Sicherheit, Performance und Zuverlässigkeit.
(TmaxSoft: ra)

eingetragen: 11.08.17
Home & Newsletterlauf: 29.08.17

TmaxSoft: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

  • Leitfaden für eine erfolgreiche DRaaS-Auswahl

    Investitionen in DRaaS (Disaster-Recovery-as-a-Service) sind sinnvoll und zukunftsweisend, denn DRaaS hilft den Unternehmen, ihre IT-Systeme und Daten im Fall eines Datenverlusts schnell wiederherzustellen. Allerdings sollte man im Vorfeld eine gründliche Marktanalyse durchführen und sich über die Funktionsweise und Kosten der verschiedenen Lösungen informieren.

  • ERP-Software muss ein Teamplayer sein

    So wichtig ERP-Systeme auch sind, bei der Auswahl der richtigen Lösung und Anbieter gibt es für Unternehmen eine Reihe von Aspekten zu beachten - schließlich bringen nur passgenaue und ausgereifte Systeme auch die erwünschten Vorteile. IFS erklärt, worauf es bei der Suche ankommt.

  • Grundlage für zukunftssichere Rechenzentren

    Rechenzentren sind das Rückgrat unserer digitalen Welt. Betreiber dieser Infrastrukturen stehen dabei vor immensen Herausforderungen: Sie müssen nicht nur den ununterbrochenen Betrieb und höchste Sicherheitsstandards sicherstellen, sondern auch strengere Umwelt- und Effizienzkriterien einhalten.

  • Cloud-basierte Tests

    Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

  • Was ist der richtige Cloud-Speicher für KMU?

    Verschiedene Arten von Unternehmen haben unterschiedliche IT-Anforderungen. So haben kleine und mittelständische Unternehmen natürlich nicht die gleichen Anforderungen wie große internationale Unternehmen.

  • ITAM on-premises versus Software-as-a-Service

    IT Asset Management (ITAM) schafft die Basis für Cybersecurity, Kostenkontrolle und effizientes IT-Management. Doch vor allem im Mittelstand fehlen häufig Manpower und Expertise, eine ITAM-Lösung inhouse zu betreiben. Software-as-a-Service-Angebote versprechen Abhilfe.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen