Sie sind hier: Startseite » Markt » Hintergrund

Fehleinschätzungen rund um Linux-Container


Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen
Container können nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services


Nicht mehr völlig neu, aber immer noch mit zahlreichen Unklarheiten verbunden ist das Thema Linux-Container. Red Hat zeigt gängige Einschätzungen auf und überprüft sie auf ihren Wahrheitsgehalt. Es ist kein Geheimnis, dass Container zu den wichtigsten neueren IT-Trends zählen. Um eine sinnvolle Nutzung sicherzustellen, ist es aber erforderlich, die Stärken und Grenzen zu kennen – gerade auch hinsichtlich der Abgrenzung zu Virtualisierungslösungen. Vielfach herrschen hier auf Anwenderseite noch falsche Vorstellungen.Red Hat zeigt sechs gängige Fehleinschätzungen auf:

1. Container sind neu
Prinzipiell ist das Container-Konzept nichts Neues. Technisch betrachtet läuft ein Linux-Container isoliert in einer einzelnen Instanz des gemeinsam genutzten Host-Betriebssystems. Ähnliche Ansätze gibt es auch bei Unix Chroot, FreeBSD Jail oder Solaris Zone, der von Sun Microsystems bereits 2005 als Teil von Solaris 10 eingeführten Betriebssystem-Virtualisierung für x86- und SPARC-Systeme. Nicht zu vergessen ist, dass viele der mit Linux-Containern verbundenen Technologien wie Namespaces oder cgroups auch die Basis etlicher Platform-as-a-Service (PaaS)-Angebote der ersten Generation waren. Neu ist nur, dass Linux-Container-Technologien heute für eine große Bandbreite von Applikationen genutzt werden können: von Cloud-nativen Microservices bis zu vorhandenen Legacy-Systemen.

2. Container sind in sich abgeschlossene Entitäten
Trotz ihres Namens sind Container nicht komplett in sich geschlossene Einheiten. Jedes Container-Gastsystem nutzt dasselbe Host-Betriebssystem und dessen Services. Das reduziert zwar den Overhead und verbessert die Performance, kann aber andererseits auch potenzielle Herausforderungen hinsichtlich Sicherheit oder Interoperabilität mit sich bringen.

3. Container ersetzen Virtualisierung
Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen, da sie sich für verschiedene Anwendungsszenarien eignen. Container-Lösungen bieten sich für Infrastrukturen an, in denen eine große Zahl von Applikationsinstanzen parallel beispielsweise auf Clustern oder in Private-, Public- oder Open-Hybrid-Cloud-Umgebungen betrieben wird und die Applikationen häufigen Updates und funktionalen Erweiterungen unterliegen. Auch bei Applikationen, die aus Komponenten bestehen und einer Microservices-Architektur folgen, bieten Container eine effiziente Möglichkeit, Lösungen ohne den bei traditionellen virtuellen Maschinen üblichen Overhead zu implementieren. Für andere Anwendungsfelder ist die Virtualisierung mit Hypervisoren nach wie vor die geeignete Lösung. Das gilt vor allem, wenn in IT-Umgebungen eine Betriebssystemunabhängigkeit gefordert ist und heterogene Welten mit unterschiedlichen Windows-Versionen und Linux unterstützt werden müssen. Schwerpunktmäßig wird die Virtualisierung weiterhin im Bereich traditioneller Applikationen genutzt werden, die nur in längeren Zyklen von mehreren Monaten geändert werden.

4. Container sind universell portabel
Zunächst ist zu berücksichtigen, dass Container nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services. Um eine vollständige Portabilität über physische Hardware, Hypervisoren, Private Clouds und Public Clouds hinweg gewährleisten zu können, muss eine integrierte Plattform für die Applikationsbereitstellung vorhanden sein, die auf offenen Standards basiert.

5. Container sind prinzipiell sicher
Es gibt zahlreiche Gründe für den Container-Einsatz im Unternehmen, aber dabei müssen immer auch die mit der Technologie verbundenen Risiken Berücksichtigung finden. Bei zwei physischen Maschinen ist es möglich, diese vom Netzwerk zu isolieren; fällt eine aus oder wird sie mit einem Virus infiziert, bleibt das andere System geschützt. In einer containerisierten Umgebung hingegen wird der Betriebssystem-Kernel auf dem Host-System von allen Containern genutzt. Die damit einhergehenden Sicherheitsrisiken liegen auf der Hand. Deshalb müssen auf jeden Fall Technologien wie SELinux als zusätzlicher Layer für die Policy- und Zugriffsüberwachung genutzt werden. Auch Container-Scanner wie OpenSCAP oder Black Duck zur einfachen Überprüfung von Container-Inhalten empfehlen sich.

6. Container heißt Docker
Vielfach wird die Container-Technologie mit Docker gleichgesetzt. Das greift aber eindeutig zu kurz. Das Docker-Format hat sich zwar inzwischen als der De-facto-Standard bei Linux-Containern im Markt weitgehend durchgesetzt, aber die Docker-Nutzung erfordert deutlich mehr, gerade im Hinblick auf Aspekte wie Sicherheit, Orchestrierung oder Management. Und hier sind dann zusätzliche Lösungen wie SELinux, Kubernetes oder Red Hat CloudForms unverzichtbar.

"Hinsichtlich der vielfältigen Einsatzmöglichkeiten von Containern herrscht auf Unternehmensseite oft noch Unsicherheit. Die Entwicklung im Linux-Container-Bereich ist inzwischen derart weit fortgeschritten, dass nahezu jede Unternehmensanforderung abgedeckt werden kann, sowohl bei der Modernisierung vorhandener Infrastrukturen als auch bei der Umsetzung von Innovationen", erklärt Lars Herrmann, General Manager Integrated Solutions und Container Strategy bei Red Hat. (Red Hat: ra)

eingetragen: 06.11.16
Home & Newsletterlauf: 24.11.16

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Innovation strategisch angehen

    Um im Markt dauerhaft erfolgreich zu bestehen, sind Software-Unternehmen gefordert, ihre Innovationskraft fortlaufend unter Beweis zu stellen. Dabei sehen sie sich immer wieder mit der anspruchsvollen Frage konfrontiert, wie sie ihre begrenzten Ressourcen am sinnvollsten einsetzen: Sollen sie bewährte Produkte, Dienstleistungen und Prozesse weiter optimieren - oder neue Ideen zu marktreifen Innovationen entwickeln?

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

  • 2025 zeichnen sich laut Fico fünf KI-Trends ab

    Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Java bewegt die Cloud

    Java mag mittlerweile 30 Jahre alt sein, doch die bewährte Programmiersprache bildet immer noch das Fundament zahlreicher geschäftskritischer Anwendungen. Um aktuellen Entwicklungen und Trends nachzuspüren, hat Azul im Rahmen des "2025 State of Java Survey and Report" mehr als 2.000 Java-Experten auf der ganzen Welt befragt. Die wichtigsten Ergebnisse gibt es hier im Überblick.

  • Nutzung von KI-Tools

    In einer Gartner-Studie¹ aus dem Jahr 2024 gaben zwei Drittel der Befragten an, dass Kunden zögern, wenn es um den Einsatz von KI im Kundenservice geht. Dies stellt Unternehmen vor ein Dilemma, da sie zunehmend auf KI setzen, um Kosten zu senken, Einblicke in Geschäftsprozesse zu gewinnen und mit innovativen Technologien auf dem neuesten Stand zu bleiben, während sie gleichzeitig die Kundenzufriedenheit aufrechterhalten.

  • Cloud-Edge-Infrastruktur in Europa

    eco - Verband der Internetwirtschaft e.V. übernimmt das Projektmanagement für das neu gestartete Projekt FACIS im Rahmen der europäischen Infrastrukturinitiative IPCEI-CIS/8ra . FACIS steht für das Konzept der Federation Architecture for Composed Infrastructure Services und wird seit November 2024 für die kommenden zwei Jahre vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) mit rund 6,8 Millionen Euro gefördert.

  • 2025 zeichnen sich fünf KI-Trends ab

    Scott Zoldi, KI-Visionär und Chief Analytics Officer bei Fico, sieht aktuell folgende fünf KI-Trends: Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI. Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Nutzung von KI als Wirtschaftsfaktor

    Die Entwicklung und Adaption von Künstlicher Intelligenz in Deutschland geht einigen viel zu langsam. Ist das wirklich so? Tatsächlich haben wir die KI weder verschlafen noch mutwillig ein- und ausgebremst. Aber es gibt eine Reihe von Besonderheiten, die der Nutzung von KI als Wirtschaftsfaktor nicht förderlich sind.

  • Erste Warnungen in Europa vor US-Clouds

    Norwegen und Dänemark warnen vor US-Cloud-Anbietern. Werden Deutschland und weitere europäische Länder diesem Beispiel folgen? Wann werden Regeln zum Datenschutz verschärft und wie können Unternehmen diese Hürde meistern?

  • Weg zu mehr Nachhaltigkeit

    Die sich zunehmend verschärfende Energieknappheit stellt Industrie, Haushalte und Politik vor enorme Herausforderungen. In einigen Branchen führt dies bereits dazu, dass Produktionskapazitäten gedrosselt werden. Vor diesem Hintergrund geraten auch Rechenzentren ins Blickfeld, die als digitale Infrastrukturen der modernen Gesellschaft zwar eine zentrale Rolle spielen, aber auch als besonders energieintensiv gelten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen