Sie sind hier: Startseite » Fachartikel » Hintergrund

KI-Nutzung am Edge


KI-Modelle an jedem Ort in Echtzeit betreiben
KI lässt Edge-Computing exponentiell wachsen


Von Tobias Pföhler, StorMagic

Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann.

Künstliche Intelligenz wird bereits in sehr vielen Bereichen eingesetzt und breitet sich weiter aus. Für die IT vieler Unternehmen geht es im Kern darum, die Infrastruktur so aufzubauen, dass Unternehmen die Vorteile der schlauen Algorithmen voll nutzen können. Dabei erweist sich die seit Jahrzehnten erstellte Zentralisierung der Computerinfrastruktur als Hemmschuh, denn in Private und Public Cloud zentralisierte Infrastrukturen eignen sich nicht sehr gut für KI-Workloads, die nur dann ihre Stärken voll ausschöpfen können, wenn sie schnelle Analysen in Echtzeit dort bereitstellen, wo die Daten generiert werden – am Edge.

Die Lösung des Problems liegt auf der Hand: Edge-Computing. Der Ansatz ist beileibe nichts neues und mehrere Generationen hyperkonvergenter Infrastruktur helfen Unternehmen mit über großen Distanzen verteilten Niederlassungen schon seit Jahren dabei, Workloads vor Ort bereitzustellen. Mit KI kommt ein weiterer wichtiger Anwendungszweck für Edge Computing hinzu. Der Ansatz verschiebt die Verarbeitungsressource in die Nähe der Datenquelle, eliminiert so das Problem langer Latenzzeiten und hilft so das Potenzial von KI-Anwendungen voll auszuschöpfen. Da viele Unternehmen gerade dabei sind, KI-Anwendungen einzuführen, wächst der Bedarf an Lösungen für Edge-Computing exponentiell an. Diese Dezentralisierung stellt die IT vieler Unternehmen mit hohen Investitionen in Cloud-Technologien jedoch vor ein Dilemma.

Der Platz der Cloud in einer dezentralen Architektur
Diese Unternehmen sträuben sich gegen Dezentralisierung und die Einführung neuer Hardware am Netzwerkrand, obwohl sie Probleme mit der Kommunikation von Edge-Anwendungen haben. Dies betrifft vor allem Unternehmen, die in den letzten Jahren stark in Cloud-Technologien investiert haben, insbesondere, über Strategien wie "Cloud-First" oder gar "Cloud-Only". Für solche Unternehmen wäre der Einsatz von Edge Computing mit einer grundlegenden Abkehr ihrer Cloud-Philosophie verbunden. Und Unternehmen mit einem "Cloud-Only"-Ansatz fehlt es möglicherweise auch an der nötigen Flexibilität, um Änderungen vorzunehmen, wenn sie bereits in teure Cloud-Verträge eingebunden sind. Auch wirft der Ort der Datenspeicherung komplexe Fragen auf, die Compliance und Security betreffen.

Eine leichtgewichtige, auf KI ausgerichtete Architektur
Die gute Nachricht für solche Firmen ist, dass modernes Edge-Computing heutzutage äußerst einfach zu nutzen ist. Die Anbieter von HCI-Lösungen haben sich von Generation zu Generation darauf konzentriert, die Komplexität bei der Einrichtung und Verwaltung der kompakten Lösungen zu reduzieren. Für die Implementierung ist heute schon kein spezielles Fachwissen mehr erforderlich, stattdessen können IT-Experten neue Standorte oder Anwendungen in weniger als einer Stunde einrichten und in Betrieb nehmen. Zentralisierte Verwaltungstools sorgen dafür, dass Administratoren Edge-Standorte von einer einzigen Konsole aus fernverwalten können. Die Lösungen kommen in einem Format, das seine Ressourcen automatisch balanciert, um optimale Effizienz zu erzielen und Über- oder Unterversorgung zu vermeiden. Modernste Lösungen sind kompakt, flexibel und modular und wurden von Anfang an für kleinere Edge-Standorte konzipiert. Sie beinhalten alle Funktionen, die für die lokale Ausführung von Anwendungen und die Verbindung mit der Cloud und dem Rechenzentrum erforderlich sind.

Fazit: Nutzung von Synergien zwischen HCI, Cloud und Edge macht KI-Nutzung am Edge möglich
IoT- und KI-Anwendungen am Netzwerkrand benötigen dezentralisierte, flexible und skalierbare Infrastrukturen, die die Leistungs-, Logistik- und Kostenprobleme beseitigt, die die Cloud nicht lösen kann. Synergien zwischen Edge Computing, Cloud und HCI ermöglicht es IT-Abteilungen, schnell robuste und skalierbare dezentralisierte Infrastrukturen einzurichten, so dass Unternehmen das volle und wachsende Potenzial von KI im Edge-Bereich nutzen können. Moderne hyperkonvergente Infrastrukturen erfüllen diese anspruchsvollen Anforderungen. Sie werden einen großen Beitrag dazu leisten, dass Latenzzeiten im verteilten Computing der Vergangenheit angehören, ohne das Budget zu sprengen.

Über Tobias Pföhler
Tobias Pföhler ist Regional Sales Manager für die DACH-Region bei StorMagic. Mit seiner Expertise in der IT, davon über 12 Jahre mit dem Schwerpunkt für Software-Defined Storage, hilft er Kunden und Partnern dabei, Hochverfübarkeit von Daten bei maximaler Funktionalität und Einfachheit zu erreichen. (StorMagic: ra)

eingetragen: 03.07.25

StorMagic: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • KI-Nutzung am Edge

    Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann.

  • Einsatz von Cloud-Umgebungen

    Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt - oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von Digitaler Souveränität. Daher entscheiden sich immer mehr Unternehmen für eine (teilweise) Verlagerung von Workloads aus der Cloud auf eigene On-Premises-Strukturen. Doch auch da lauern Herausforderungen. Wie behält man die Kontrolle über beide Welten?

  • Unsicherheiten verändern die Cloud-Landschaft

    Die geopolitischen Entwicklungen der letzten Monate haben der Diskussion um digitale Souveränität neue Brisanz verliehen. Unmittelbar beobachten lässt sich eine zunehmende Nachfrage nach Alternativen zu US-amerikanischen Cloud-Diensten. Vielen Unternehmen ist bewusst geworden, dass ihre Abhängigkeit von Anbietern wie AWS, Azure oder Google Cloud ein Risiko darstellt, das weit über abstrakte Datenschutzbedenken hinausgeht.

  • Barrieren für den Datenzugriff abbauen

    Große Datenmengen stellen für Unternehmen eine immer größere Herausforderung dar. Unterstützt von Cloud-basierten Daten- und Orchestrierungsplattformen bieten sie jedoch auch wertvolle Chancen. Vor allem der Einsatz von KI- und ML-basierten Technologien erweist sich für das Aufbereiten und Analysieren großer Datenmengen als hilfreich.

  • Was bedeutet Datenqualität im KI-Kontext?

    Künstliche Intelligenz basiert auf guter Datengrundlage - an genau diesem Punkt kommt Datenqualität ins Spiel. Dabei bedeuten große Datenmengen nicht zwangsläufig, dass diese für einen KI-Anwendungsfall geeignet sind.

  • Herausforderungen für CIOs

    Die Fertigungsindustrie befindet sich in einem tiefgreifenden Wandel. Vernetzte und digitalisierte Smart Factories ersetzen heute die traditionellen Produktionslinien. IT-Systeme werden dabei nahtlos in sämtliche Fertigungsprozesse integriert, um in Echtzeit auf Daten zuzugreifen und Prozesse zu automatisieren.

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen