Sie sind hier: Startseite » Fachartikel » Hintergrund

Storage in der OpenStack-Ära


Open Source Framework für Private und Public Clouds
Die OpenStack-Umgebung ist anders als normal virtualisierte Umgebungen


Von Christian Arkadius Keil, Senior Pre-Sales Consultant DACH bei Tintri

(21.03.16) - Der Aufstieg von OpenStack, dem Open Source Framework für Private und Public Clouds, ist seit seinem Beginn 2010 äußerst bemerkenswert. Die Plattform ist zu einem echten Phänomen geworden und mehr als 500 Firmen, darunter einige Schwergewichte der IT, sind der OpenStack Foundation bereits beigetreten. Bereits jetzt unterstützen alle wichtigen Hypervisoren und eine große Anzahl an Speicherlösungen OpenStack, darunter Ceph, NetApp, Tintri, EMC Solidfire, LVM und GlusterFS. Unternehmen, die mit dem Gedanken spielen, für ihre neue Cloud-Architektur auf OpenStack zu setzen, benötigen jedoch den richtigen Unterbau, um die Vorteile voll nutzen zu können. Eine Frage ist auch bei OpenStack von zentraler Bedeutung: Wie sieht der ideale Speicher aus?

Es gibt eine ganze Reihe an unternehmerischen Gründen OpenStack zu nutzen. Zum einen gibt OpenStack als Open-Source-Projekt Entwicklern direkten Zugang zu Infrastruktur des Programms, die damit unglaublich schnell Innovationen umsetzen können, die in normalen virtualisierten Umgebungen nicht möglich wären. Zusätzlich können Kunden von enormen Kosteneinsparungen durch Open Source profitieren, anstatt Herstellern teure Software-Lizenzen zu bezahlen. Die hersteller-neutrale Open Source OpenStack-API vermeidet damit Herstellerbindung.

Allgemein bietet OpenStack Organisationen eine größere Flexibilität beim Einsatz der Plattform. Kunden können den OpenStack-Code einfach selbst herunterladen und aufsetzen oder sich für eine Version von Herstellern wie RedHat, VMware, SUSE, HP, Canonical oder Mirantis entscheiden. Auch vertikal integrierte Lösungen wie VMware Integrated Openstack oder Piston OpenStack sind möglich.

Auch OpenStack benötigt natürlich eine Speicherlösung auf der die Umgebung aufbaut. Das Angebot ist enorm weit gefächert und es kann schwierig sein, sich für eine Plattform zu entscheiden. Vorher ist es allerdings wichtig zu verstehen, dass Open-Stack-Umgebungen von Natur aus komplett anders sind, als die viel stärker kontrollierten Virtualisierungs-Umgebungen an die wir uns bisher gewöhnt haben. Ein wichtiger Unterschied ist etwa, dass OpenStack multiple Tenants und Nutzer unterstützt, die alle ihre eigenen VMs in einem Cloud-Pool kreieren können.

Volle Visibilität, um individuelle VMs auf der darunter liegenden Infrastruktur zu sehen, sie zu analysieren und zu verwalten, ist deshalb besonders wichtig. Mit normalen Speicherlösungen die auf LUNs und Volumes aufbauen und nicht auf VM-Ebene, ist volle Visibilität allerdings nicht zu erreichen. Es bedarf VM-zentrischen Speichers, der den wachsenden Bedürfnissen der generell virtualisierten Ära gerecht wird, inklusive OpenStack-Umgebungen mit ihren sehr komplexen Mappings für LUNs und Volumes.

So muss OpenStack-Speicher sein
Der wichtigste Faktor für den richtigen Speicher für OpenStack, um eine wachsende Anzahl an VMs mit voller VM-Visibilität zu verwalten, inklusive VMs in der Cloud, ist also VM-zentrischer Speicher, der tief mit OpenStack APIs wie Cinder, Nova oder Keystone integriert ist. Viele Speicherhersteller haben bereits Cinder-Treiber für OpenStack beigesteuert. Cinder bietet langlebige Block-Level-Speicher für OpenStack und verwaltet deren Erstellung und das Anlegen von Block-Speichern für Server.

Blockspeicher-Volumen sind voll in OpenStack integriert, also sowohl Compute als auch das Dashboard, so dass Cloud-Nutzer ihren Speicherbedarf selbst verwalten können. Das bedeutet jedoch nicht, dass alle Treiber und Lösungen gleich sind. Denn nur mit einer tiefen Integration auf VM-Ebene sind Speicherlösungen fähig, Analysen in Echtzeit und Aufschlüsselung der Latenz zu bieten. Kunden müssen sich Lösungen genau ansehen, um zu bestimmen, ob sie Sichtbarkeit von VM- und Cinder-Volumes bieten, weil dies beim Betrieb und der Problembehebung von OpenStack-Installationen einen dramatischen Unterschied machen kann.

Neben der VM-Visibilität gibt es zahlreiche weitere Faktoren, die es bei der Wahl des richtigen Speichers für OpenStack zu berücksichtigen gilt. Zum Beispiel, die immens wichtige Latenz: Organisationen sollten eine gleichmäßige und vorhersehbare Latenz über alle OpenStack-Tenants und optimierte Cinder-Snapshots, Clones und VM-Provisionierung erwarten können. Hier trennt sich oft schnell die Spreu vom Weizen, da viele Lösungen mit verbautem Flash viel Performance generieren können, die wichtige Latenz hingegen hinterherhinkt. Beim Thema Performance gilt generell: Man kann (fast) nie zu viel Performance haben. Vor der Wahl des Speichers sollte man potenzielle Hersteller # nach Garantien für Performance und QoS fragen, genauso wie nach der Möglichkeit minimale und maximale IOPS einstellen zu können. Auch dies ist bei vielen einfachen Lösungen nicht selbstverständlich.

Schritt für Schritt zu OpenStack
Viele Organisationen werden wohl schrittweise von ihren bestehenden virtualisierten Umgebungen auf OpenStack wechseln. Da ist es natürlich ein besonderer Bonus, wenn man eine Lösung zur Verfügung hat, die sowohl mit OpenStack als auch mit anderen Hypervisoren parallel arbeiten kann. Das vermeidet Investitionen in neue Hardware und bietet die Flexibilität OpenStack-Installationen schrittweise zu skalieren. OpenStack bietet viele Chancen für die IT. Um diese voll ausnutzen zu können, müssen Organisationen VM-zentrischen Speicher wählen, der vorhersehbar hohe Leistung, einfache Verwaltbarkeit und simple Skalierung bietet. (Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

  • Daten aus der iCloud extrahieren

    Zwölf Jahre ist es her, seit ElcomSoft erstmals iCloud-Backups direkt von Apple herunterladen und die Daten auslesen konnte. Während die einen sagten, dass es keine große Leistung sei, mit dem richtigen Passwort Daten aus einem Online-Backup zu laden, fühlten sich andere in ihrer Auffassung bestätigt, dass Cloud-Speicher ein unkalkulierbares Sicherheitsrisiko seien. Aber beide Sichtweisen waren damals schon stark vereinfacht und sind heute schlicht falsch.

  • Digital Twin der Lieferkette

    Fällt das Wort Lieferkettensorgfaltspflichtengesetz (LkSG), schießt einem meist zeitgleich der Begriff Transparenz in den Kopf. Denn darum geht es doch, oder? Auch! Aber nur Transparenz über die eigene Lieferkette zu erhalten, bringt erstmal wenig. Der Trick ist, zeitgleich eine flexible, optimierte Lieferkette anzustreben - sowohl operativ als auch strategisch.

  • Was bedeutet IT-Automatisierung?

    Eine neue Anwendung zur unternehmensinternen Kommunikation soll auf den PCs aller Mitarbeitenden installiert werden? Eine Routine-Aufgabe für die IT-Abteilung, die das Personal bei einem mittelständischen Unternehmen mit rund 100 Mitarbeitenden manuell umsetzen könnte. Beim Besuch jeder Kollegin und jedes Kollegen am Schreibtisch oder per Remote-Zugriff auf den PC wäre die Applikation, je nach Personalstärke, innerhalb von Stunden überall installiert.

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen