Sie sind hier: Startseite » Markt » Interviews

Was treibt die Cloud um?


Die Nutzung von Multi-Cloud und Hybrid-Cloud zielt darauf ab, Flexibilität zu erhöhen, Risiken zu streuen und die Abhängigkeit von einem einzelnen Anbieter zu verringern
Künstliche Intelligenz (KI) kann einen bedeutenden Teil des Cloud-Managements erleichtern, insbesondere bei der Bewältigung von Engpässen und der Automatisierung wiederkehrender Aufgaben


Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, setzt sich mit dem Thema Cloud auseinander und geht im Interview auf verschiedene Bereiche ein. Welche aktuellen Trends und Themen nehmen aktuell Einfluss auf den Cloud-Markt? Welche Anwendungsbereiche haben Priorität im Zusammenhang mit Cloud Computing?

Jerome Evans: Meiner Beobachtung nach führen vor allem Multi-Cloud- und Hybrid-Cloud-Strategien, Edge-Computing sowie künstliche Intelligenz und Machine Learning in der Cloud zu einer tiefgreifenden Veränderung des Cloud-Marktes. In diesem Kontext spielen Large Language Models (LLMs) wie ChatGPT eine bedeutende Rolle, indem sie auf eine breite Palette von Datenquellen zugreifen, um Informationen zu beispielsweise Multi-Cloud- und Hybrid-Cloud-Strategien bereitzustellen. Der zunehmende Einsatz von LLMs wird voraussichtlich die Expansion von Cloud-Ressourcen vorantreiben, da die Nachfrage nach Kapazitäten steigt, unter anderem durch den Bedarf an großen Datenmengen für das jeweilige Training und die Bereitstellung von LLMs sowie für andere datenintensive Anwendungen wie Big-Data-Analysen, Machine Learning und generell KI-Anwendungen.

Die Nutzung von Multi-Cloud und Hybrid-Cloud zielt darauf ab, Flexibilität zu erhöhen, Risiken zu streuen und die Abhängigkeit von einem einzelnen Anbieter zu verringern. Dies führt zu einer verstärkten Nachfrage nach Lösungen, die eine nahtlose Integration und Verwaltung von Workloads über verschiedene Cloud-Plattformen erlauben. Die Integration von KI und ML-Funktionen in der Cloud ermöglicht Unternehmen, die Entwicklung fortschrittlicher Analyse- und Prognosemodelle voranzutreiben, ohne eine umfangreiche eigene Infrastruktur aufbauen zu müssen. Dies eröffnet neue Möglichkeiten für datengesteuerte Entscheidungen und Innovationen in verschiedenen Branchen.

Trends wie Edge-Computing gewinnen mit der zunehmenden Verbreitung von IoT-Geräten und Anwendungen, die eine schnelle Datenverarbeitung erfordern, an Bedeutung. Unternehmen nutzen Edge-Infrastrukturen, um Daten näher an den Ort der Erzeugung zu bringen, was zu geringeren Latenzzeiten, verbesserten Reaktionszeiten und einer effizienteren Nutzung der Bandbreite führt.

Insgesamt treibt die zunehmende Datenmenge die Entwicklung der Cloud voran, indem sie die Nachfrage nach skalierbaren Speicher-, Rechen-, und Analysekapazitäten erhöht und die Notwendigkeit betont, robuste Sicherheits- und Datenschutzmaßnahmen zu implementieren.

Existieren Nachteile und Gefahren, die von Cloud-Technologien ausgehen? Wie lässt sich darauf reagieren?
Entscheidend ist eine strategische Herangehensweise bei der Einführung oder dem weiteren Ausbau von Cloud-Technologien. Dabei sind sowohl rechtliche als auch technische Aspekte zu berücksichtigen. Kann man beispielsweise sicherstellen, dass eine deutsche Cloud zu 100 Prozent DSGVO-konform ist, und weiß darüber hinaus, wo genau sich die entsprechende Cloud-Infrastruktur in Deutschland befindet, hat man bereits wesentliche Risiken im Blick (im Vergleich zwischen DSGVO und Cloud Act).

Die Cloud stellt grundsätzlich eine sichere und leistungsstarke Lösung dar, da der Anbieter regelmäßige Updates, Wartungen und Sicherheitsüberprüfungen durchführt – dagegen erfordern On-Premise-Lösungen mehr manuelle Wartung und Updates seitens des Betreibers. Dies kann zu Sicherheitslücken führen, wenn Updates nicht zeitnah installiert werden. Allerdings haben On-Premise-Lösungen auch Vorteile, beispielsweise wenn strenge Compliance-Anforderungen erfüllt werden müssen oder bestimmte Anwendungen aus technischen Gründen nicht in die Cloud migriert werden können.

Zudem sollte man sich Folgendes vergegenwärtigen: Eine Cloud-Umgebung zu nutzen, bedeutet gleichzeitig auch eine gewisse Abhängigkeit von einem externen Anbieter. Wenn dieser aus irgendeinem Grund seine Dienste einstellt oder sich deren Qualität deutlich verschlechtert, kann dies erhebliche Auswirkungen auf die betroffenen Unternehmen haben, einschließlich Datenverlust oder einer Downtime von auf der Cloud gehosteten Anwendungen.

Im Hinblick auf Wirtschaftlichkeit und Skalierbarkeit gilt es, Ressourcen effizient zu verwalten, da ansonsten die Kosten im Laufe der Zeit steigen können. Eine genaue Überwachung und Verwaltung helfen, unerwartete Ausgaben zu vermeiden und sicherzustellen, dass die Cloud-Umgebung wirtschaftlich bleibt.

Generell müssen potenzielle Risiken und Herausforderungen sorgfältig bewertet werden und umfassende Strategien zur Risikominimierung und zum Compliance-Management vorhanden sein, um die Vorteile der Cloud-Technologie auszuschöpfen.

Ist der Edge-Ansatz ein Gegenmodell zum Cloud-Ansatz?
Meiner Ansicht nach schließen sich beide Modelle nicht gegenseitig aus. Edge-Rechenzentren bieten Unternehmen, die ihren Hauptsitz außerhalb traditioneller Kernmärkte haben, klare Vorteile. Daher können Unternehmen Edge-Datacenter "ergänzend" zu ihren Cloud-Umgebungen nutzen, da auch in diesen Rechenzentren Cloud-Dienste bereitgestellt werden können – je nach verfügbarer Kapazität. Es kommt unterm Strich auf die Perspektive und den Anwendungsfall an.

Um den Edge-Ansatz einzuordnen, müssen mehrere Aspekte berücksichtigt werden. Zuerst sollten wir einen Blick auf die Lokalität der Datenverarbeitung werfen: Im Cloud-Ansatz werden Daten zentral in entfernten Rechenzentren verarbeitet, während im Edge-Ansatz die Datenverarbeitung näher am Ort der Datenerzeugung und ‑Verarbeitung stattfindet. Auch Latenz und Bandbreite spielen eine Rolle: Der Edge-Ansatz reduziert die Latenzzeit, da Daten lokal verarbeitet werden; das ist besonders wichtig für Anwendungen, die eine schnelle Reaktionszeit erfordern, wie etwa IoT, autonomes Fahren oder Augmented Reality. Für eine Anwendung, bei der die Latenzzeit nicht die oberste Priorität hat, sondern zum Beispiel eine komplexe Datenverarbeitung im Fokus steht, bietet die Cloud jedoch leistungsstarke Rechenressourcen und spezialisierte Dienste, die die Verarbeitung und Analyse großer Datenmengen effizienter sowie kostengünstiger machen als lokale Edge-Infrastrukturen.

Insgesamt kann Edge-Computing als eine Ergänzung zum Cloud-Ansatz betrachtet werden, da spezifische Anforderungen hinsichtlich Latenzzeit, Skalierbarkeit und Datenschutz adressiert werden. In einigen Fällen kann der Edge-Ansatz jedoch auch als Gegenmodell angesehen werden, insbesondere wenn es um die Dezentralisierung von Datenverarbeitung und die Betonung lokaler Ressourcen geht. Letztendlich hängt die Wahl zwischen Cloud- und Edge-Computing von den spezifischen Anforderungen der jeweiligen Anwendung ab.

Spielt das Thema KI beim Cloud-Management eine Rolle?
Künstliche Intelligenz (KI) kann einen bedeutenden Teil des Cloud-Managements erleichtern, insbesondere bei der Bewältigung von Engpässen und der Automatisierung wiederkehrender Aufgaben. Durch KI ist es möglich, präziser zu simulieren, wie viele Cloud-Ressourcen Unternehmen zukünftig benötigen, um ihre Anwendungen effektiv für ihre Nutzer bereitzustellen und zu orchestrieren. Angenommen ein Einzelhändler steht vor einer saisonalen Nachfrage, wie zum Beispiel während der Feiertagssaison. Durch den Einsatz von KI kann das Unternehmen historische Daten sowie aktuelle Trends analysieren, um präzise Vorhersagen darüber zu treffen, wie stark die Nachfrage nach seinen Online-Diensten und Anwendungen während der Feiertage sein wird. Basierend auf diesen Prognosen kann das Unternehmen Cloud-Ressourcen entsprechend skalieren, um sicherzustellen, dass seine Online-Plattformen und Anwendungen selbst bei einem plötzlichen Anstieg der Nutzeraktivität reibungslos funktionieren.

Trotzdem bleibt der Mensch am Ende des Tages unerlässlich, da er die Hauptverantwortung für das Management der Cloud-Ressourcen trägt. Es bieten sich dennoch enorme Chancen, Ressourcen parallel zu betreiben und somit die Effizienz zu steigern.

Wir haben mitunter die Möglichkeit, Prozesse zu automatisieren, insbesondere was Routineaufgaben betrifft, wie beispielsweise Ressourcenbereitstellung, Skalierung, Fehlererkennung und -behebung sowie Sicherheitsüberwachung. Das führt zu einer effizienteren Nutzung von Ressourcen und einer Reduzierung manueller Aufwände.

Welche Bedeutung haben FinOps? In welche Richtung geht dieser Trend?
FinOps-Teams haben meines Erachtens das Potenzial, sowohl die Finanz- als auch die IT-Branche sowie die Cloud tiefgreifend zu transformieren. Warum? Weil sie die Chance bieten, die Zusammenarbeit zwischen Cloud-Engineers und IT-Controllern kollaborativ zu gestalten. Eine enge Zusammenarbeit zwischen Cloud-Engineers und IT-Controllern ist nicht nur sinnvoll, sondern würde echte Synergien schaffen: Durch die sorgfältige Planung von Ressourcen in allen Bereichen würde die Kosten- und Energieeffizienz maximiert und gleichzeitig der Ausstoß von CO2-Emissionen minimiert werden.

Hinsichtlich der aktuellen Dynamik zeigt sich, dass die genannten Aspekte zunehmend als relevant wahrgenommen werden. Außerdem beobachten wir eine verstärkte Nachfrage nach Fachkräften mit FinOps-Kenntnissen sowie nach Tools und Plattformen, die eine transparente Kostenverwaltung ermöglichen. Die Entwicklung von Best Practices und Standards im Bereich FinOps nimmt Fahrt auf, was darauf zurückzuführen ist, dass Unternehmen nach bewährten Methoden suchen, um ihre Cloud-Ausgaben zu optimieren und die Rentabilität ihrer Investitionen zu maximieren. (firstcolo: ra)

eingetragen: 09.05.24
Newsletterlauf: 21.06.24

Firstcolo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Interviews

  • Nutzung von Cloud-Lösungen in Unternehmen

    Die Nutzung von Anwendungen im Bereich Cloud Computing nimmt weiter zu. Doch welche Vorteile bietet diese Technologie konkret? Und wie können Hürden überwunden werden? Das und noch mehr verrät Alexander Vogel, Head of Sales Large Enterprises bei SD Worx, in diesem Interview.

  • Herausforderungen für MSP

    COVID-19 und der Shutdown sollten ideal geeignet sein, um den Wert eines Managed Services-Modells zu zeigen. Worin liegen aktuell die wichtigsten Vorteile, die MSPs ihren Kunden jetzt bieten können? Zu diesem Thema haben wir mit Doug Lilley, Senior Security Consultant bei Synopsys, gesprochen: Doug Lilley: "Das Managed Services-Modell hat eine Reihe von Schlüsselvorteilen, die gerade jetzt in Zeiten des Covid-19 Shutdown hilfreich sind. Zuallererst und unmittelbar einsichtig: Das Modell war schon immer zu einem großen Teil auf Remote-Working-Szenarien und die damit verbundenen Kundenanforderungen fokussiert. In vielen Fällen wurden Remote-Zugriff, interne und externe Kommunikation und Service Workflows bereits implementiert, getestet und haben sich als effektiv bewährt. Lange vor dem abrupten Zwangsumstieg auf eine Remote-Working-Kultur für ganze Belegschaften rund um den Globus.

  • Unternehmensdaten in der Cloud

    Fachkräfte und innovative Geschäftsmodelle sind wichtige Treiber-Themen der deutschen Wirtschaft. Beides ist in Gefahr - wenn sensible Informationen dazu beispielsweise in der Cloud für faktisch jeden verfügbar sind. Mitverantwortlich für den leichteren Zugang zu den entsprechenden Daten sind Regierungen und Geheimdienste. Denn IT-Sicherheitslücken wurden in der Vergangenheit zum Selbstzweck erst spät oder möglicherweise gar nicht bekanntgegeben. Durch derartige "Einfallstore" sind sensible Unternehmensdaten in der Cloud leichter an- und abgreifbar. Der War for Talents kann so unsichtbar in der extern gehosteten Personalverwaltungssoftware ablaufen. Neuartige, digitale Geschäftsmodelle liegen bereit für "Copy and Paste" durch die Konkurrenz. Marco Lenck, Vorstandsvorsitzender der Deutschsprachigen SAP-Anwendergruppe e.V. (DSAG), kennt die Bedenken und appelliert an Politik, Hersteller und Anwender, hier verlässliche Grundlagen zu schaffen - über Gesetze, eine transparente Kommunikationspolitik und das rasche Etablieren eines digitalen Binnenmarktes.

  • Datenschutz im Cloud Computing

    Seit Standards für den Datenschutz in der Cloud durch die ISO/IEC-Norm 27018 im April 2014 definiert sind, gibt es immer wieder Meldungen von Herstellern, die eine Zertifizierung für die Datenschutzanforderungen durchlaufen haben wollen. Aber ist es überhaupt möglich, eine Zertifizierung nach ISO/IEC 27018 zu erlangen? Wie sieht denn die Prüfung aus und wer ist der Prüfer und Zertifikatsgeber? Sind die in der Cloud gespeicherten Daten tatsächlich sicher vor dem Zugriff Dritter, wie diese Meldungen suggerieren? Das Bundesministerium für Wirtschaft und Energie (BMWI) hat in Deutschland die Trusted Cloud Initiative ins Leben gerufen, die sich mit der Datensicherheit in Cloud-Diensten beschäftigt und Entwicklungen zur sicheren Datenverarbeitung in der Cloud unterstützt. Für ein mögliches Zertifizierungsverfahren wurde ein Pilotprojekt aus Mitgliedern aus Standardisierung, Forschung, Wirtschaft, Prüfern und Aufsichtsbehörden zusammengestellt, die einen Anforderungskatalog zur Zertifizierung nach den Vorgaben des BDSG und den Umsetzungsempfehlungen des ISO/IEC 27018:2014 entwickelt haben, das Trusted Cloud Datenschutzprofil (TCDP).

  • Vertrauen in die Cloud zurückgewinnen

    Der Skandal um die Späh-Programme der amerikanischen und britischen Regierungen hat dem Boom des Cloud Computing einen ersten Dämpfer verpasst - plötzlich keimen Zweifel auf, ob es so eine gute Idee ist, vertrauliche Daten in der Cloud zu speichern. Altrans IT-Security Consultant Benedikt Heintel erläutert im Interview, wie es um die Sicherheit und das Vertrauen in Cloud-Diensten bestellt ist und was Unternehmen nun tun können, um ihre IT-Sicherheit zu erhöhen.

  • Big Data, Cloud und Cyber-Crime

    In der neuen Welt von Cloud und Big Data ist das Thema "Trust" - Vertrauen - essentiell. EMC subsumiert darunter drei Themen: "Identifying & Repelling Threats" (d.h. Identifizierung und die Abwehr von Bedrohungen - Advanced Security), Datenschutz- und Sicherheit (Integrated Backup & Recovery) sowie die Sicherstellung der Verfügbarkeit von Daten, Applikationen und Systemen (Continuous Availability). Gerade die Identifizierung und die Abwehr von Bedrohungen stellen auf Security-Seite eine neue Herausforderung dar. Roger Scheer, Regional Director Germany bei RSA, The Security Division of EMC, erklärt, warum.

  • Sicherheitsfragen beim Cloud Computing

    Ein großes Versicherungsunternehmen und auch die Vorzeige-Internetpartei "Piraten" haben es im Jahr 2012 an Bewusstsein für Datenschutz und Datensicherheit mangeln lassen. Damit liegt das Jahr voll im Trend der vergangenen zehn Jahre. Denn noch immer ist es das fehlende Bewusstsein für die Schutzbedürftigkeit von Daten, das dem Datenklau Tür und Tor öffnet. Gleichzeitig nehmen Compliance-Verpflichtungen immer weiter zu, nach denen Unternehmen gesetzliche und brancheninterne Vorgaben zum Datenschutz einhalten müssen. Deshalb gilt: Wer bisher nicht aufgefallen ist, besitzt noch längst keinen optimalen Schutz. Dr. Volker Scheidemann, Marketingleiter der Applied Security GmbH (apsec), über Sicherheitsfragen beim Cloud Computing und Informationssicherheit als Management-Aufgabe.

  • Performance-Probleme beim Cloud Computing

    Viele Unternehmen migrieren Anwendungen in die Private Cloud. Mit dem Private Cloud-Ansatz können diese Unternehmen einige Vorteile des Cloud Computing in ihrem eigenen Rechenzentrum realisieren. Die IT-Administratoren sind jedoch völlig überrascht, wenn sie erkennen müssen, dass sie auch in ihrer eigenen IT-Infrastruktur mit Performance-Problemen zu kämpfen haben. Chris James, Director of EMEA Marketing bei Virtual Instruments, erklärt die Gründe von Performance-Problemen in der Cloud und wie man ihnen zu Leibe rücken kann.

  • Breitband-Internet und Cloud Computing

    Cloud Computing-Services brauchen Bandbreite. Und seit dem Start der Breitbandinitiative der Bundesregierung hat sich in der Anbindung unterversorgter Flächen und ländlicher Gebiete einiges getan. Doch die Situation ist für Unternehmen abseits der Metropolen immer noch nicht rosig. Hier ist die Kooperation aller Stakeholder gefragt. Josef Glöckl-Frohnholzer, Geschäftsführer von BCC, im Interview zur Versorgung von Gewerbegebieten.

  • Mehr Transparenz für die IT-Steuerung

    Netzwerkmanagement bedeutet mehr als zu überwachen, ob alle Geräte einwandfrei arbeiten. Richtig aufbereitet lassen sich aus der Flut von Überwachungsdaten wichtige Erkenntnisse zur Steuerung der ITK-Infrastruktur eines Unternehmens ableiten. Frank Koppermann, Teamleiter Netzmanagement bei BCC, im Interview.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen