Sie sind hier: Startseite » Fachartikel » Hintergrund

Appliances: Engpass im Rechenzentrum?


Hardware-Appliances im Rechenzentrum: Zeit Lebwohl zu sagen
Ist es an der Zeit, sich von den letzten physischen Appliances wie Load Balancern und Web Application Firewalls zu verabschieden?



Von Guntram Alffen, Avi Networks

Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

Hybrid und Multi-Cloud sind der primäre Anwendungsfall unserer Zeit.
Aufgrund dieses Ansatzes, und obschon viele Unternehmen einen Teil ihrer Workloads auf externe Cloud-Provider verlagern, bleibt die lokale Infrastruktur im Rechenzentrum ziemlich fest etabliert. Die Cloud ist oft nur eine Erweiterung des Rechenzentrums, wobei die hybride Cloud der primäre Anwendungsfall unserer Tage ist. Einer der Gründe, warum das Rechenzentrum weiter fest verankert bleibt, sind die Verschärfung der Compliance-Regeln.

Vor allem in Europa hat die neue Gesetzgebung der DSGVO dazu geführt, dass Organisationen mehr Wert auf ihr eigenes Rechenzentrum legen, das einfacher abzusichern und zu kontrollieren scheint. Die Kontrolle jeder Facette der eigenen Architektur mag aufwändig klingen, aber zumindest haben Unternehmen die volle Kontrolle darüber, was mit ihren Daten passiert. Alle großen Public Cloud-Anbieter hatten in der Vergangenheit sowohl Ausfallzeiten als auch Datenverluste. Und Technologien für eine erhöhte Verfügbarkeit im Rechenzentrum sind schon seit ein paar Jahren verfügbar.

Ein weiterer Grund, warum Organisationen ihre Daten in unmittelbarer Nähe behalten wollen, ist das relativ neue Phänomen der "Data Gravity". Die Datenmenge wächst seit einiger Zeit exponentiell und wird weiter zunehmen, etwa indem die Digitale Transformation Technologien wie das Internet der Dinge oder künstliche Intelligenz ermöglicht. Das Problem mit wachsenden Datenmengen ist jedoch, dass sie fast nicht mehr zu bewegen sind. Selbst mit fortschrittlichen Netzwerktechnologien wie Glasfaser wird es nahezu unmöglich sein, größere Datensätze zur zeitnahen Verarbeitung an einen anderen Ort zu senden.

Dies hat dazu geführt, dass Unternehmen ihre Rechenleistung für die Verarbeitung von Daten in die Nähe des Standorts der Daten verlagern. Branchenschwergewichte wie Microsoft und Amazon haben bereits auf diesen Trend reagiert und bieten Azure Stack und Amazon Outpost an, die Cloud Computing-Technologie in das Rechenzentrum bringen. Ein weiteres Zeichen für diesen Trend ist die steigende Nachfrage nach Edge Computing. Edge Computing verarbeitet und speichert Daten dort, wo sie erzeugt werden, ohne dass sie zuerst verschoben werden müssen.

Natürlich würde niemand, der bei klarem Verstand ist, Workloads und Daten aus einer modernen Cloud-Infrastruktur in ein altmodisches, hardwarebasiertes Rechenzentrum verschieben. Seitdem Unternehmen jedoch auf eine softwaredefinierte Infrastruktur im Rechenzentrum umgestellt haben, um sie für Hybrid- und Multi-Clouds fit zu machen, ist es nun problemlos möglich, davon Gebrauch zu machen - und sogar Apps zurück ins Rechenzentrum zu holen. Der aktuelle Trend der Cloud-Repatriation belegt diese Entwicklung.

Aber einer der langjährigen Bewohner des Rechenzentrums passt nicht in die neue hybride und Multi-Cloud-Welt, die auf Geschwindigkeit, Flexibilität und Wahlmöglichkeiten ausgerichtet ist: die gute alte Hardware-Appliance. Zu den letzten noch vorhandenen physischen Appliances in vielen Rechenzentren gehören der Load Balancer oder die Web Application Firewall.

Appliances werden zum Engpass im Rechenzentrum.
Die Server-Virtualisierung läutete einst den Aufstieg des Software-definierten Rechenzentrums ein. Heutzutage sind die meisten modernen Organisationen größtenteils virtualisiert, was ihnen eine bessere Automatisierung und Elastizität verleiht. Dennoch setzen viele Unternehmen immer noch auf physische und virtuelle Appliances für Anwendungsdienste wie Load Balancing und WAF.

Das Ziel für Unternehmen ist es jedoch, dass Rechenzentren durch softwaredefinierte Technologie Cloud-ähnlicher werden. Aber Hardware und virtuelle Appliances bieten keine Cloud-ähnliche Funktionalität - und untergraben damit die Modernisierung. Diese Geräte befinden sich zwischen zwei Welten. Sie haben immer noch eine Funktion, die jedoch in der Vergangenheit verwurzelt ist, und funktionieren in der neuen Welt der softwaredefinierten Infrastruktur nicht wirklich gut.

Das klassische Beispiel ist der traditionelle Load Balancer. Er kann nicht auf die Cloud umsteigen, und seine Zeit läuft ab. Unternehmen ersetzen ihn im Rechenzentrum durch moderne Software-Load-Balancer, die in die flexiblere, softwaredefinierte Welt passen. Der Schritt ist längst überfällig, da Load-Balancer-Appliances inhärente Mängel aufweisen, die hauptsächlich mit ihrer begrenzten Automatisierung und Skalierbarkeit zusammenhängen - eine Disziplin, in der softwaredefinierte Technologien herausragen. Die Hardware-Appliances lediglich zu virtualisieren reicht nicht aus, da die Technologie sich nicht in die software-definierte Welt integrieren lässt.

Frei nach Mark Twain: Die Nachricht vom Tod des Rechenzentrums ist stark übertrieben. Im Gegenteil, das Rechenzentrum bleibt wo es ist, nur eben nicht so, wie wir es uns vorgestellt haben. Die Nutzung der Cloud bietet die fehlende Flexibilität und Agilität und da Unternehmen ihr eigenes Rechenzentrum nicht so schnell aufgeben werden, ist das neue Rechenzentrum eben Cloud-ähnlich. Das bedeutet, dass das Rechenzentrum neu strukturiert werden muss, um softwaredefiniert zu sein. Um dies zu erreichen, müssen Unternehmen softwaredefinierte Lösungen begrüßen und alte Hardware und virtuelle Appliances endlich dorthin schaffen, wo sie hingehören: Auf den Schrotthaufen der IT-Geschichte.
(Avi Networks: ra)

eingetragen: 23.06.19
Newsletterlauf: 12.07.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

  • Daten aus der iCloud extrahieren

    Zwölf Jahre ist es her, seit ElcomSoft erstmals iCloud-Backups direkt von Apple herunterladen und die Daten auslesen konnte. Während die einen sagten, dass es keine große Leistung sei, mit dem richtigen Passwort Daten aus einem Online-Backup zu laden, fühlten sich andere in ihrer Auffassung bestätigt, dass Cloud-Speicher ein unkalkulierbares Sicherheitsrisiko seien. Aber beide Sichtweisen waren damals schon stark vereinfacht und sind heute schlicht falsch.

  • Digital Twin der Lieferkette

    Fällt das Wort Lieferkettensorgfaltspflichtengesetz (LkSG), schießt einem meist zeitgleich der Begriff Transparenz in den Kopf. Denn darum geht es doch, oder? Auch! Aber nur Transparenz über die eigene Lieferkette zu erhalten, bringt erstmal wenig. Der Trick ist, zeitgleich eine flexible, optimierte Lieferkette anzustreben - sowohl operativ als auch strategisch.

  • Was bedeutet IT-Automatisierung?

    Eine neue Anwendung zur unternehmensinternen Kommunikation soll auf den PCs aller Mitarbeitenden installiert werden? Eine Routine-Aufgabe für die IT-Abteilung, die das Personal bei einem mittelständischen Unternehmen mit rund 100 Mitarbeitenden manuell umsetzen könnte. Beim Besuch jeder Kollegin und jedes Kollegen am Schreibtisch oder per Remote-Zugriff auf den PC wäre die Applikation, je nach Personalstärke, innerhalb von Stunden überall installiert.

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen