Serverloses Computing in der Google Cloud


Databricks kündigt die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Workflows und Delta Live Tables an
Serverless Compute ist derzeit für schnelle Starts, Skalierung und Leistung optimiert. Benutzer werden bald in der Lage sein, auch andere Ziele wie niedrigere Kosten anzugeben


Databricks hat die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Jobs und Delta Live Tables (DLT) auf AWS und Azure angekündigt. Unternehmen schreiben den Code und sind nun in der Lage, Workloads schnell zu starten, die Skalierung der Infrastruktur zu automatisieren und nahtlose Versions-Upgrades der Databricks Runtime durchzuführen. Mit Serverless bekommen Kunden nur die geleistete Rechenarbeit berechnet im Gegensatz zu der Zeit für die Beschaffung und Initialisierung von Instanzen bei Cloud-Anbietern.

Die Konfiguration und Verwaltung von Datenverarbeitungssystemen wie Spark-Clustern war lange Zeit eine Herausforderung für Data Engineers und Data Scientists. Die Zeit, die für die Konfiguration und Verwaltung von Rechenleistung aufgewendet wird, ist Zeit, die nicht für die Wertschöpfung des Unternehmens genutzt wird. Die Auswahl des richtigen Instanztyps und der richtigen Größe ist zeitaufwändig und erfordert Experimente, um die optimale Wahl für eine bestimmte Arbeitslast zu treffen. Das Herausfinden von Cluster-Richtlinien, automatischer Skalierung und Spark-Konfigurationen verkompliziert diese Aufgabe zusätzlich und erfordert darüber hinaus Fachwissen. Sobald die Cluster eingerichtet und in Betrieb sind, muss noch Zeit für die Wartung und Abstimmung der Leistung und die Aktualisierung der Databricks Runtime-Versionen aufgewendet werden. Nur dann können Unternehmen auch von den neuen Funktionen profitieren.

Zeit, die nicht mit der Verarbeitung von Arbeitslasten verbracht wird, für die Unternehmen aber trotzdem zahlen - ist ein weiteres kostspieliges Ergebnis der Verwaltung einer eigenen Recheninfrastruktur. Während der Initialisierung und Skalierung von Rechenkapazitäten müssen Instanzen hochgefahren werden, Software, einschließlich Databricks Runtime, muss installiert werden. Unternehmen bezahlen den Cloud-Anbieter für diese Zeit. Und wenn ein Unternehmen zu viele Instanzen oder Instanztypen mit zu viel Arbeitsspeicher, CPU usw. einsetzt, wird die Rechenkapazität nicht voll ausgelastet, und dennoch zahlen sie für die gesamte bereitgestellte Rechenkapazität. Die Beobachtung dieser Kosten und Komplexität bei Millionen von Workloads war der Anlass, die Serverless Compute Innovationen zu entwickeln. (Databricks: ra)

eingetragen: 22.08.24
Newsletterlauf: 10.10.24


Sie wollen mehr erfahren?
Mit Serverless Compute entfällt die Komplexität der Delegierung von Berechtigungen über komplexe Cloud-Richtlinien und Cloud-Rollen hinweg, um den Lebenszyklus von Instanzen zu verwalten.

Databricks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Applikationen / Lösungen

  • IFS Cloud eine zentrale Quelle für alle Daten

    Das neue "Sustainability Management"-Modul der IFS Cloud und die ESG-Expertise von PwC UK erleichtern das Nachhaltigkeitsmanagement und helfen Unternehmen dabei, die Anforderungen der Corporate Sustainability Reporting Directive (CSRD) zu erfüllen.

  • Identity Governance und Administration (IGA)

    Omada, Anbieterin von Identity Governance und Administration (IGA), gibt die Erweiterung ihrer "Omada Identity"-Cloud-Plattform um Analysefunktionen für Benutzerrollen auf Basis von Machine Learning (ML) bekannt.

  • Verbesserte SQL-ELT-Funktionalität für Azure

    Informatica gab die Einführung von drei hochentwickelten Funktionen für Microsoft Azure bekannt. Mit ihnen können KI- und analysebasierte Innovationen anhand zuverlässiger Daten entwickelt, bereitgestellt und aktiviert werden.

  • Fortschrittlichen Testautomatisierung

    Tricentis, Anbieterin von Continuous Testing und Quality Engineering, stellt erweiterte Cloud-Funktionen für ihre Lösung "Tricentis Tosca" vor. Diese ermöglichen Unternehmen eine End-to-End-Testautomatisierung in der Cloud.

  • Vom Code bis zur Cloud aus einer Hand

    Fortinet hat die Markteinführung von "Lacework FortiCNAPP" bekannt gegeben. Diese einheitliche, KI-gestützte Plattform ermöglicht die Absicherung der gesamten Umgebung - vom Code bis zur Cloud - aus einer Hand.

  • Maßgeschneiderte SAP-S/4HANA-Transformation

    Bereits 2015 präsentierte SAP mit S/4HANA eine neue Softwaregeneration, die als sofort einsatzbereites Cloud-ERP die neuesten branchenspezifischen Best Practices und kontinuierliche Innovationen versprach.

  • Veeam erweitert "Veeam Data Cloud Vault"

    Veeam Software, Anbieterin von Datenresilienz, kündigte wichtige Updates für "Veeam Data Cloud Vault" an, einen vollständig gemanagten, sicheren Cloud-Storage-Service, der die Möglichkeiten von Microsoft Azure nutzt, um die Offsite-Backup-Speicherung von geschäftskritischen Daten und Anwendungen zu vereinfachen um unübertroffene Business-Resilienz zu gewährleisten.

  • KI-gestützte Startseite für "IFS Cloud"

    IFS, Technologieanbieterin von Enterprise-Cloud- und Industrial-AI-Software, stellt eine Reihe neuer Features für IFS Cloud vor, die auf IFS.ai basieren und mit der Version 24R2 von IFS Cloud eingeführt werden. Die Features erhöhen die Wertschöpfung in der Industrie und verbessern die User Experience.

  • GenAI Model-as-a-Service

    Informatica, Unternehmen im Bereich KI-gestütztes Enterprise Cloud Data Management, gab die Verfügbarkeit von Generative AI Blueprints (GenAI) bekannt, die es Kunden ermöglichen, generative KI-Anwendungen auf Unternehmensebene schneller und einfacher auf sechs branchenführenden Technologieplattformen zu erstellen.

  • Risiken schnell zu reduzieren

    Qualys gab auf der "Qualys Security Conference" die Einführung eines Risk Operations Center (ROC) mit Enterprise TruRisk Management (ETM) bekannt. Die Lösung ermöglicht es CISOs und Geschäftsführern, Cybersecurity-Risiken in Echtzeit zu managen und fragmentierte, isolierte Daten in verwertbare Erkenntnisse umzuwandeln, die Cyber-Risiko-Operationen mit geschäftlichen Prioritäten in Einklang bringen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen