Sie sind hier: Startseite » Markt » Hintergrund

Vom KI-Hype zum Produktivbetrieb


Herausforderung, KI-Modelle effizient und sicher in die Produktion zu bringen
Neben der Professionalisierung von DevOps durch Platform Engineering geht es im Kontext von KI dann zwangsläufig um das Thema MLOps, gewissermaßen die DevOps-Adaption für Machine Learning (ML)


Ist der KI-Hype noch ungebrochen oder macht sich bereits Ernüchterung breit? Man mag den Eindruck gewinnen, Letzteres träfe zu. Schließlich ist es von der ersten Experimentierphase bis zum effizienten Echteinsatz oft ein weiter, beschwerlicher Weg. Markus Eisele, Developer Strategist bei Red Hat, zeigt, mit welchen Konzepten und Plattformen Unternehmen einen erfolgreichen KI-Einsatz erreichen können.

Viele Unternehmen stehen derzeit vor der Herausforderung, KI-Modelle effizient und sicher in die Produktion zu bringen. Zentrale Fragen lauten dabei: Wie kann dies aus Sicht der Softwareentwickler erfolgen und wie können die beiden Welten der Entwickler und Data Scientists verbunden werden? Das zentrale Bindeglied kann dabei eine Plattform sein, die eine Professionalisierung von DevOps mittels Platform Engineering und eine Integration von MLOps unterstützt.

Doch was bedeutet die Professionalisierung von DevOps? Blickt man in die Vergangenheit, so hat die zunehmende DevOps-Nutzung dazu geführt, dass in vielen Unternehmen eine große Lösungsvielfalt entstanden ist. Das Ergebnis war vielfach durchwachsen: Standards wurden nicht eingehalten und Best Practices nicht umgesetzt. Entgegengewirkt wurde dieser Entwicklung unter anderem mit der Bereitstellung von Referenzarchitekturen und Musterlösungen. Dieses Vorgehen war aber sehr starr und folglich mit einer starken Einschränkung der Entwicklerflexibilität verbunden.

Der aktuelle Trend geht deshalb in Richtung Platform Engineering – laut Gartner ein zentrales Thema der nächsten Jahre. Beim Platform Engineering handelt es sich um einen strategischen Ansatz zur Bereitstellung grundlegender Infrastruktur und Tools sowie notwendiger Prozesse für Entwicklungsteams, um deren Effizienz zu steigern und die Anzahl wiederkehrender Aufgaben zu reduzieren. Dabei stehen die konkreten Bedürfnisse der Anwender im Mittelpunkt. Hierzu stellen Platform Engineers den Entwicklerinnen und Entwicklern maßgeschneiderte Produkte mit den benötigten Funktionen zur Verfügung, beginnend mit umfangreichen Self-Service-Funktionen bis hin zu Anwendungsfall-getriebenen Vorlagen.

So wird sichergestellt, dass Software den organisatorischen Best Practices und Standards entspricht und diese trotzdem keine Einschränkung für die Entwicklungsteams darstellen. Eine wesentliche Komponente des Platform Engineering ist die "Interne Entwicklerplattform" (Internal Developer Platform, IDP), die den Entwicklern eine Sammlung von Tools und Technologien bietet, die sie zum Erstellen, Testen und Bereitstellen von Software benötigen. Bestandteile sind dabei neben den "Software Templates" oder allgemein Vorlagen auch die notwendigen Integrationen mit verwendeten CI/CD-Werkzeugen und Ablaufumgebungen. All dies wird mitunter als sogenannte Plug-Ins eingebunden und individuell auf die Bedürfnisse der Teams zugeschnitten.

Neben der Professionalisierung von DevOps durch Platform Engineering geht es im Kontext von KI dann zwangsläufig um das Thema MLOps, gewissermaßen die DevOps-Adaption für Machine Learning (ML). MLOps ähnelt zwar dem DevOps-Konzept, allerdings geht es dabei um das Deployment und Management sowie das Training von ML-Modellen. Das heißt, MLOps unterstützt eine effiziente Entwicklung, Bereitstellung und Verwaltung von Machine-Learning-Modellen.

Auch hier ist wieder das Konzept Platform Engineering von Bedeutung, das die nahtlose Verbindung von DevOps und MLOps beziehungsweise von Entwicklern und Data Scientists ermöglicht. Data Scientists verantworten die Entwicklung und das Training der KI-Modelle und stellen kuratierte Versionen der Modelle etwa in einem Softwarekatalog für die Produktion bereit. Ein Softwareentwickler muss dann nicht lange nach einem geeigneten Modell für einen spezifischen Anwendungsfall suchen, sondern greift auf einen vorbereiteten Katalog zu, dem er die Attribute der Modelle entnehmen kann. Durch die Auswahl in entsprechenden Software-Templates wird dann die Anbindung an den Applikations-Code bereitgestellt.

Eine zentrale Voraussetzung für die einfache und schnelle Produktivsetzung und Einbindung in neue und bestehende Anwendungen von Modellen ist somit eine Plattform, die alle erforderlichen Aspekte abdeckt, also nicht nur die Softwareentwicklung, sondern auch die KI-Modell-Entwicklung, das KI-Modell-Training und die KI-Modell-Einbindung in die Applikationslandschaft. Es geht also um eine Plattform, die für DevOps, Platform Engineering und MLOps eine Basis bilden kann und unterschiedlichste Prozesse vereinheitlicht.

Dabei darf eines nicht vergessen werden: Es ist zwar ein relativ neues Thema, KI in großen Mengen in die Produktion zu bringen. Es geht hier aber keineswegs nur um große Sprachmodelle, sondern auch etwa um prädiktive oder analytische KI. Auch hier bestehen Herausforderungen, die letztlich nur mit einem Plattformansatz sinnvoll in den Griff zu bekommen sind. (Red Hat: ra)

eingetragen: 28.09.24
Newsletterlauf: 25.11.24

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

  • Finanzbranche steht vor einem Wendepunkt

    Immer mehr traditionelle Banken erkennen endlich die Vorteile des Outsourcings, um ihren Weg zur Digitalisierung zu beschleunigen und so ihre Effizienz und Kundenzufriedenheit zu optimieren. In Deutschland bremsen jedoch regulatorische Anforderungen das Tempo der Transformation. Karl im Brahm, CEO von Objectway DACH, betont, dass Banken diese Hürden nur durch Kooperationen mit Fintechs überwinden können.

  • CPUs und DSAs für Cloud- und KI-Erfolg

    Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz der Schlange

  • Vertrauen gegenüber Generative AI schwindet

    Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.

  • Bedeutung der Cyber-Sicherheit

    Wie in jedem Jahr, so hat auch in diesem die Firma IBM zusammen mit dem Ponemon Institute die Studie Cost of a Data Breach 2024 veröffentlicht. Die Ergebnisse sprechen Bände: Mit 4,88 Millionen US-Dollar (rund 4,50 Millionen Euro) je Sicherheitsverletzung im weltweiten Durchschnitt liegen diese Kosten 10 Prozent über dem Jahr 2023 mit 4,5 Millionen US-Dollar (rund 4,16 Millionen Euro) und erreichen ein Rekord-Hoch.

  • Sicherheit in der Cloud

    Der Cloud Computing-Markt wächst beständig weiter und ein Ende dieses Aufwärtstrends scheint nicht in Sicht zu sein. Laut Prognosen könnte er bis 2032 die Marke von gut 2,29 Milliarden US-Dollar knacken. Das würde einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,5 Prozent entsprechen.

  • Demokratisierung der Künstlichen Intelligenz

    Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Ein offener Ansatz für Künstliche Intelligenz ist unerlässlich.

  • Wie KI den Customer Service revolutioniert

    Die IT-Branche ist ein Umfeld des ständigen Wettbewerbs. CIOs treiben heute die digitale Transformation voran und investieren in digitale Technologien, um die Effizienz und Rendite ihres Unternehmens zu maximieren. Da sie dafür nur wenig Zeit und Ressourcen für IT-Services aufwenden möchten, wenden sie sich immer mehr der generativen KI zu.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen