Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-native Anwendungen so effizient wie möglich


Fünf Tipps für einen herrlich langweiligen Betrieb von Cloud-Anwendungen
Das Versprechen der Cloud-nativen Entwicklung ist es, neue Features schneller in Produktion zu bringen als zuvor


Nach dem Deployment einer Applikation in der Cloud und deren Live-Gang beginnt die dritte Phase ihres Lebenszyklus: der Regelbetrieb. Je langweiliger er vonstatten geht, desto besser. Doch bis alles reibungslos läuft, haben Entwickler wie Admins noch einiges zu tun. IT-Dienstleister Consol nennt fünf essentielle Aufgaben für den sogenannten "Day after".

Wenn DevOps-Teams von "Day 0", "Day 1” und "Day 2" sprechen, geht es weniger um die genaue Zeiteinteilung als vielmehr um die chronologische Abfolge. Mit Day 0 ist das Deployment einer Cloud-Anwendung gemeint, Day 1 markiert deren Live-Gang und am Day 2 beginnt der Regelbetrieb. Während die ersten beiden Phasen eines Cloud-Projekts häufig sehr stressig sind, wünschen sich Entwickler und Admins für den Betrieb der Cloud-Anwendung möglichst Langeweile. Wie sie diesen Zustand erreichen, erklärt IT-Dienstleister Consol – und gibt einen Ausblick, worauf sich DevOps-Teams am Day 3 einstellen müssen.

1. Automatisierung ist das A und O
Das Versprechen der Cloud-nativen Entwicklung ist es, neue Features schneller in Produktion zu bringen als zuvor. Das funktioniert allerdings nur, wenn nicht bei jedem Update ein Plattform-Team die Deployments manuell durchführen muss. Automatisierung ist daher essentiell, um die Vorteile der Cloud maximal zu nutzen. Fortschrittliche DevOps-Teams setzen dafür in der Regel auf Continuous-Integration- und Continuous-Deployment (CI/CD)-Pipelines. Das sind feste Prozesse, die vollständig in Code gegossen sind und die bei Code-Änderungen automatisch ablaufen.

2. Observability verbessert die Fehlerprävention
Wissen ist Macht – das gilt auch für die Fehlersuche in IT-Systemen. Leider verhindern auch gute Review-Prozesse und automatisierte Tests in CI/CD-Pipelines nicht sämtliche Fehler. Daher benötigen DevOps-Teams Observability, die ihnen Informationen aus drei Quellen bereitstellt: Metriken, Logs und Traces. Metriken liefern den Experten Kennzahlen, um Probleme schnell zu erkennen. Logs erlauben ihnen zu sehen, was genau in einer Applikation vor sich geht. Und Traces unterstützen sie schließlich dabei, Aufrufe und eben auch Fehler zwischen verteilten Systemen nachzuvollziehen. Die Korrelation der Daten bringt einen enormen Mehrwert gegenüber dem reinen Monitoring, bei dem DevOps-Teams ihre Systeme nur dahingehend überwachen, ob sie einwandfrei laufen.

3. Optimierung ist vor allem eine Frage der Architektur
Um Cloud-native Anwendungen so effizient wie möglich zu gestalten, setzen die meisten Entwickler auf eine Microservices-Architektur. Die Aufteilung in kleinere überschaubare Services, die untereinander kommunizieren, erleichtert deren Wartung und Weiterentwicklung. Zudem müssen DevOps-Teams nicht das gesamte System anfassen, nur um einzelne Teile einer Anwendung zu ändern. Setzen sie zudem auf automatisierte CI/CD-Pipelines, können Entwickler und Admins sehr schnell auf sich ändernde Anforderungen reagieren. Microservices-Architekturen sorgen zudem dafür, dass sie einzelne Anwendungsteile unabhängig voneinander skalieren können.

4. Sicherheit setzt sich aus vielen Faktoren zusammen
Das Thema Sicherheit lässt sich nicht pauschalisieren. Das komplexe Feld umfasst unter anderem das passende Training für Entwickler und Administratoren sowie das Live-Monitoring der Aktivitäten in und um die eigentliche Anwendung herum. Ein gerade für das Cloud-native Umfeld sehr wichtiges Sicherheits-Asset ist IaC, also Infrastructure as Code. Bei dieser Methode ist nicht nur die Applikation selbst, sondern auch die gesamte Konfiguration einer IT-Infrastruktur als Code definiert. Dadurch können DevOps-Teams zu jedem Zeitpunkt den Zustand des Systems prüfen und verifizieren, sodass sich Sicherheitslücken seltener einschleichen. Auch die Möglichkeit, den Code vor dem Deployment zu prüfen, senkt das Sicherheitsrisiko.

5. Die Zukunft gehört der KI
Ist alles optimiert, sicher und läuft reibungslos – ist der Betrieb also "langweilig" – schlägt die Stunde der künstlichen Intelligenz: Mit ihr ist es möglich, die Automatisierung anhand von Algorithmen und Machine-Learning-Verfahren noch weiter voranzutreiben, sodass DevOps-Teams immer weniger Aufgaben tatsächlich manuell erledigen müssen. In Bezug auf den automatisierten Betrieb, Optimierung und Überwachung von IT-Infrastrukturen und Cloud-nativer Anwendungen hat das Verfahren bereits einen Namen: AIOps.

"Mit dem erfolgreichen Deployment und dem Live-Gang einer Cloud-nativen Anwendung ist die Arbeit für DevOps-Teams noch nicht vorbei – im Gegenteil: Sie hat gerade erst begonnen", betont Lukas Höfer, Cloud Solutions Architect bei Consol. "Jetzt ist es an Entwicklern und Administratoren, den reibungslosen Betrieb der Anwendung sicherzustellen und deren Effizienz zu steigern. So schaffen sie ein Fundament für den Day 3, also die Implementierung weiterführender Technologien." (Consol: ra)

eingetragen: 07.11.22
Newsletterlauf: 27.01.23

Consol: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Sicher: Hybrid-Cloud mit Netzwerksichtbarkeit

    Helmut Scheruebl, Senior Sales Engineer bei Gigamon weiß: Die Vorteile einer Hybrid-Cloud-Infrastruktur haben ihren Preis und der heißt Komplexität. Eine solche IT-Landschaft ist die perfekte Möglichkeit für cyberkriminelle Hinterhalte. Dagegen gibt es eine Lösung: vollständige Sichtbarkeit auf den gesamten Datenverkehr. 82 Prozent der IT-Entscheider haben laut einer globalen Umfrage von Cisco in ihrem Unternehmen eine Hybrid-Cloud-Umgebung aufgebaut.

  • Vorbehalte keine Seltenheit

    ERP-Systeme sind der Booster für effiziente Geschäftsprozesse und die Produktivität von Unternehmen. Mit den steigenden Anforderungen an Produktivität, Effizienz und Budgetkalkulation sind ERP-Systeme auf dem wettbewerbsintensiven Markt allerdings auch auf Innovationen angewiesen.

  • Sicherheit und Compliance gewährleisten

    Die voranschreitende Digitalisierung hat eine neue Ära für Unternehmen und Institutionen in den verschiedensten Bereichen eingeläutet, in der die nahtlose Integration von hybriden Cloud-Umgebungen von entscheidender Bedeutung für den Erfolg ist.

  • Ist der Cloud-Traum schon ausgeträumt?

    Hypes und kurzfristig in den Himmel gelobte Trends sind in der IT-Welt nun wirklich nichts Neues. Dennoch sticht das Thema Cloud dabei so stark heraus, dass es vermutlich nur von dem neuen Heilsbringer KI noch übertroffen wird.

  • KI-Boom bringt Datenschutzbedenken mit sich

    Generative künstliche Intelligenz (KI) hat bereits zu radikalen Veränderungen geführt - und dies war erst der Anfang. In Zukunft sollten IT-Führungskräfte insbesondere die Chancen und Herausforderungen priorisieren, die durch generative KI entstehen - angefangen bei der Art und Weise, wie wir arbeiten, bis hin zur Bewertung von Talenten und der Interaktion mit Kunden.

  • Cloud-Gefahren & Maßnahmen zur Risikominderung

    Unternehmen nutzen heute verstärkt Multi-Cloud-Modelle. Damit steigt zum einen die Komplexität des Cloud-Managements. Zum anderen erhöhen sich aber auch die Anforderungen an die Sicherheit. CyberArk nennt vier typische Cloud-Risiken und zeigt, mit welchen Maßnahmen Unternehmen potenzielle Lücken und Schwachstellen beseitigen können.

  • Nutzung einer Cloud-Monetarisierungsplattform

    Mit dem Wechsel von der Cloud Solution Provider (CSP)-Plattform zum New Commerce Experience (NCE)-Modell ändert Microsoft das Verfahren für das Geschäft mit Service-Provider-Partnern. Die Umstellung beinhaltet Änderungen bei der Lizenzierung und führt eine einheitliche Abrechnungsplattform für Microsoft 365, Dynamics 365, Windows 365, Copilot und Power Platform ein.

  • Cloud-Services: Was es zu beachten gilt

    Immer mehr Unternehmen in Deutschland setzen auf Cloud Computing - Tendenz steigend. Dabei nennt sich die Verlagerung von Rechenressourcen wie etwa Daten, Anwendungen oder IT-Prozesse in die Cloud Migration. Heißt konkret: In der Regel meint das den Weg vom lokalen Serverraum zum Rechenzentrum beziehungsweise Cloud-Anbieter.

  • Potential von WaaS zu entfalten

    Die Arbeitswelt entwickelt sich rasant weiter und hybride Arbeitsmodelle sind längst die Norm. In dieser dynamischen Landschaft ist die Art und Weise entscheidend, wie Mitarbeitende das Gerätemanagement ihres Arbeitgebers wahrnehmen.

  • Proaktive Ansätze senken Kosten

    Unternehmen setzen auf die Cloud, um ihren IT-Betrieb flexibler, effizienter und sicherer zu gestalten - dies wird auch 2024 so bleiben. Einige Unternehmen, die sich mit der Migration beeilt haben, wurden jedoch enttäuscht und stellen nun zukünftige Cloud-Investitionen in Frage.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen