Sie sind hier: Startseite » Fachartikel » Hintergrund

Datenqualitäts-Services aus der Cloud


Data Quality aus der Cloud: Den Anwendernutzen im Fokus
Auch Data Quality-Services werden als On-Demand-Lösung aus der Cloud angeboten, entweder als Software-as-a-Service oder als geschickt implementierter Web-Service, der unauffällig im Hintergrund arbeitet


Autor Holger Stelz:
Autor Holger Stelz: Die Kombination von installierter Software und Data-Quality-on-Demand schließt eine besondere Bedarfslücke, Bild: Uniserv

Von Holger Stelz, Leiter Marketing & Geschäftsentwicklung, Uniserv GmbH

(27.08.12) - Wir schreiben E-Mails, verwalten Kontakte, tummeln uns auf Social-Media-Plattformen: Dabei produzieren wir Unmengen von Daten. Jeden Tag. Um die Kontrolle über diese Datenflut zu behalten und möglichst viel Nutzen aus den darin enthaltenen Informationen zu ziehen, ist ein effektives Datenqualitäts-Management unabdingbar. Bis vor kurzem stand dies Unternehmen nur als Software-Lösung zur Verfügung. Datenqualitäts-Lösungen nach dem klassischen Lizenzmodell sind aber für viele Anforderungen oft entweder zu mächtig – und werden dennoch angeschafft und implementiert. Oder sie sind zu kostspielig – und Unternehmen verzichten auf sinnvolle Services. Die Alternative: Datenqualitäts-Services aus der Cloud.

Der zentrale Mehrwert der Cloud
Applikationen aus der Cloud bieten im Idealfall genau das, was man braucht – nicht mehr, aber auch nicht weniger. Meist schnell, unkompliziert und kostengünstig. Aber neben den rein finanziellen Überlegungen spielen in vielen Anforderungsszenarien vor allem Effizienzsteigerung und Nutzerorientierung eine wichtige Rolle. Die stärkere Fokussierung auf den Nutzer und den Nutzwert bilden den Kern des Cloud-Ansatzes. Selbstverständlich geht es dabei auch um die dahinterstehende Technik, die intuitive Steuerung, die Architektur der Cloud-Dienste, die Leistung und Vernetzung der Server sowie um Datensicherheit und Risikominimierung. Aber erst die Möglichkeit, eine Anwendung wirklich on Demand zu nutzen und dabei ausschließlich die tatsächlich benötigten Ressourcen zu bezahlen, macht die Cloud so attraktiv. In vielen Bereichen ist sie darum zu einer echten Alternative zur traditionellen On-Premise-Lösung geworden.

Data Quality aus der Cloud
Auch Data Quality Services werden als On-Demand-Lösung aus der Cloud angeboten, entweder als Software-as-a-Service (SaaS) oder als geschickt implementierter Web-Service, der unauffällig im Hintergrund arbeitet. Der Nutzen dabei? Sie bieten maßgeschneiderte Lösungen für die branchenspezifischen und individuellen Bedürfnisse von Unternehmen – im besten Fall schneidert sich das Unternehmen seine Lösung sogar selbst auf den Leib.

On Demand: Data Quality auf Abruf
Ein Unternehmen übernimmt einen Mitbewerber, mehrere Tochterunternehmen werden fusioniert oder zwei vollkommen selbstständige Niederlassungen einer Firma werden im Zuge von Konsolidierungsmaßnahmen zusammengelegt. Solche M&A-Prozesse erfordern meist die Integration der Daten aller Beteiligten. Sollte es sich um Unternehmen handeln, die einen recht überschaubaren und stabilen Kunden- und Lieferantenstamm besitzen, kann man davon ausgehen, dass sie nicht über Datenqualitäts-Lösungen verfügen. Durch die veränderte Unternehmensstruktur wird schnell deutlich, dass viele Kunden- und Lieferantendaten mehrfach im System vorkommen, vermutlich auch noch in unterschiedlichen Formaten und mit unterschiedlichen Werten. Spätestens jetzt besteht also ein Bedarf an Datenbereinigung und -konsolidierung. Das Unternehmen plant aber, aufgrund der Kunden- und Lieferantenstruktur, nach der einmaligen Optimierung keine weiteren Data-Quality-Lösungen einzusetzen. Die Lizenzierung und Installation einer Data-Quality-Lösung scheidet damit als zu kostspielig und aufwendig aus. Bis dato hat man dieses Problem meist folgendermaßen gelöst: Ein oder mehrere Mitarbeiter werden damit beauftragt, die Daten manuell auf den neuesten Stand zu bringen.

Die smarte Alternative: Innovative Cloud Computing-Technologien. Die entsprechenden Daten werden einfach, bequem und vor allem sicher via Webbrowser auf das Portal eines Data-Quality-Dienstleisters geladen und von diesem im eigenen Rechenzentrum bereinigt und konsolidiert. Zudem lassen sich die Adressen der Kunden noch gegen aktuelle Umzugsdaten und Sterbefälle abgleichen oder um Telefonnummern und Geo-Daten ergänzen.

Neben dieser einmaligen Erfassung und Optimierung von Daten – vergleichbar der Stapelverarbeitung bei klassischen On-Premise-Lösungen – sind auch interaktive Ad-hoc-Bereinigungen von einzelnen Adressdaten mit Cloud Services möglich und sinnvoll: beispielsweise für eine weniger umfangreiche, dafür umso hochwertigere Mailing-Aktion oder bei häufigeren Änderungen innerhalb der Kundenstammdaten und der Notwendigkeit in Echtzeit auf korrekte Adressen zurückgreifen zu können. So lange hier die zu optimierenden Daten nicht ein bestimmtes Volumen überschreiten, sind lokale Data-Quality-Softwareinstallationen nicht wirklich sinnvoll. Im Gegenteil – die verwendeten Ressourcen stehen in keinerlei Verhältnis zum erzielten Nutzen. Auch dann nicht, wenn immer häufiger einzelne Daten optimiert werden sollen. Hier bietet sich viel mehr die feste Integration von Data Quality-Web-Services in die bestehenden Datenmanagement-Systeme an. So können Adressdaten auch ohne Webbrowser aber ebenfalls über die Cloud jederzeit nach Bedarf optimiert werden. Wichtig ist hier das Know-how des Anbieters, der für die entsprechenden Schnittstellen sorgen muss.

Webbasierte Datenqualitätsangebote eignen sich damit sowohl für die Ad-hoc-Optimierung von einzelnen Datensätzen – über einen Webbrowser oder als interaktiver Web-Service im Hintergrund – als auch für die periodische Bereinigung größerer Datenvolumen. Der Workload sollte dabei bestimmte vom Nutzer individuell festzulegende Grenzen nicht überschreitet.

Das Hybrid-Modell: Intelligente Verknüpfung
Die Integration von Web-Services in Business-Anwendungen über Konnektoren – Schnittstellen – bietet dabei die Voraussetzung für ein weiteres Nutzungsmodell im Bereich Cloud Computing: das Hybrid-Modell.

Die Kombination von installierter Software und Data-Quality-on-Demand schließt eine besondere Bedarfslücke. Volumenaufgaben übernimmt die installierte Software, bei besonderen Aufgabenstellungen oder Ad-hoc-Bereinigungen ist die Cloud-Lösung gefragt. Das ist beispielsweise der Fall, wenn eine Data-Quality-Lösung bereits für optimale Adressdaten bei einem Onlinehändler mit hauptsächlich deutschem Kundenstamm sorgt, dieser aber vermehrt Kunden aus den Nachbarländern gewinnt. Für lediglich einige hundert internationale Kundendaten die bestehende Lösung um die entsprechenden lizenzpflichtigen Referenzadressdatenbanken zu ergänzen, ist nach dem zu erwartenden Umsatz und Gewinn vermutlich nicht wirtschaftlich. Eine intelligente und flexible Alternative: Die Ergänzung um On-Demand-Funktionen, die die gleiche Aufgabe übernehmen, aber nur nach dem tastsächlichen Bedarf abrechnen. Vergleichbares ist auch denkbar, wenn es um die Anreicherung von Daten geht. Und je nach Bedarf des Kunden sollten sich dabei alle klassischen Installationslösungen mit beiden On-Demand-Ansätzen – Stapelverarbeitung und Echtzeit-Services – kombinieren lassen.

Aus der Nutzerperspektive
Zwar sind Datenqualitäts-Angebote aus der Cloud – wie andere Cloud-Dienste auch – meist nicht so umfänglich wie ihre traditionellen Pendants und auch deutlich standardisierter, aber der höhere Grad an Standardisierung hat gegenüber lokal installierten Software-Produkten den entscheidenden Vorteil: Die Cloud-Services sind ohne Schulungsaufwand vom Anwender direkt nutzbar. Die relevanten Funktionen zur Datenbereinigung, zum Datenabgleich und zur Datenanreicherung bieten sie ebenso wie die On-Premise-Lösungen.

Die Nutzung der Cloud-Services ist von jedem Arbeitsplatz aus möglich, der über einen Webzugang verfügt. Die stets hohe Verfügbarkeit und der minimale Integrationsaufwand werden noch durch einfache Bedienbarkeit ergänzt. Data Quality Cloud Services sind damit eine schlanke und intelligente Lösung für eine Vielzahl von Datenqualitätsinitiativen. Eine Hybrid-Lösung stellt dabei in vielen Fällen das Optimum dar, da sie die Wirtschaftlichkeit von On-Premise-Installationen erhöht und die meisten Szenarien abdecken kann. Zudem ist bei Bestandskunden der Wechsel von lokalen zu Cloud-Services ohne jedwede Unterbrechung von Arbeitsprozessen realisierbar.

Auf eine einfache Bedienbarkeit und die erforderliche Usability sollten Anwender besonders achten. Das beginnt bereits mit der Oberfläche der Browseranwendung, die den modernen Web-2.0-Anforderungen genügen muss und deren Funktionen sich intuitiv erschließen sollten. Allein dadurch lässt sich Aufwand einsparen, denn Einarbeitungszeiten werden wesentlich reduziert. Außerdem ist es wichtig, dass sich alle Einzelanwendungen aus der Browseranwendung heraus starten und managen lassen, dass zu allen Prozessen eine begleitende Step-by-Step-Anleitung zu finden ist und dass alle laufenden Prozesse sowie bisherige Kosten und eventuell gebuchte Kontingente sofort im Blick sind. Dann sind die eigenen Mitarbeiter in der Lage, eine Cloud Computing-Lösung wirklich schnell und produktiv zu nutzen.

Allgemein gilt: Von Data-Quality-on-Demand lässt sich immer dann besonders profitieren, wenn sich eine Lizenz nicht oder besser gesagt noch nicht rechnet. Die transaktionsgebundenen Kostenmodelle bieten dabei eine große Kalkulationssicherheit. Bezahlt wird nur für tatsächlich genutzte Leistung. Damit rentiert sich die Optimierung der Datenqualität für jede Datenmenge und jede Aufgabenstellung.

Sicherheit
Ein wichtiger letzter Punkt: Da bei DQ-Anwendungen aus der Cloud personenbezogene Daten verarbeitet werden, müssen die Anforderungen an die Sicherheit naturgemäß sehr hoch sein. Dem sollte die Architektur des Portals bzw. der Web-Service-Schnittstellen durch eine SSL-verschlüsselte HTTPS-Verbindung Rechnung tragen. Zum anderen sind die Verarbeitungsdaten durch ein mehrstufiges Firewall-basiertes Sicherheitssystem gegen unberechtigten Zugriff zu schützten. Schließlich sollte auch das Rechenzentrum selbst, in dem die Cloud-Services gehostet werden, für bestimmte Sicherheitsstandards zertifiziert sein. (Uniserv: ra)


Uniserv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

  • Wenn das Flussdiagramm in die Cloud zieht

    Business-Process-Management (BPM) hat in den letzten Jahren eine steile Weiterentwicklung hingelegt. Das Dokumentationstool von einst, dessen Zweck vorwiegend darin bestand, eine möglichst große Zahl von Prozessen präzise zu visualisieren, hat sich zu einer vielseitig vernetzbaren Technologie entwickelt, die Geschäftsprozesse systemübergreifend analysiert und überwacht, mit dem Ziel Optimierungspotenziale zu nutzen.

  • Kenntnisse über AWS-Cloud-Mechanismen

    Das Sysdig Threat Research Team entdeckte kürzlich eine ausgeklügelte Cloud-Operation, genannt Scarleteel, welche in einer Kundenumgebung, zum Diebstahl geschützter Daten führte. Der Angreifer nutzte eine containerisierte Arbeitslast aus und verschaffte sich so Zugang zu einem AWS-Konto, um geschützte Software und Anmeldeinformationen zu stehlen.

  • Den richtigen Cloud-Service-Anbieter auswählen

    Vorschriften zur Datenhoheit, wie der Data Governance Act in Europa, können für Unternehmen eine Herausforderung darstellen. Eine der Hauptschwierigkeiten besteht darin, den Überblick darüber zu behalten, wo Daten gespeichert sind. Zudem müssen Unternehmen sicherstellen, dass die Speicherung mit den lokalen Datenschutzbestimmungen übereinstimmt.

  • Compliance vs. oder sogar mit IT-Sicherheit?

    Kleine und mittelständische Unternehmen (KMU) sehen sich seit Jahren mit Cyberattacken konfrontiert, die vor allem auf ihre Daten abzielen. In den letzten Jahren hat sich diese Perspektive dahingehend geändert, dass sie sich mit immer mehr Ransomware-Bedrohungen auseinandersetzen müssen. Beispiele dafür lassen sich so viele finden, dass sie nicht einzeln erwähnt werden müssen, allerdings sind in jüngster Zeit bereits Fahrradhersteller, Chemieproduzenten oder Nachrichtenmagazine darunter zu finden.

  • Data Act könnte schon 2024 in Kraft treten

    Wir erleben es jeden Tag: Datenmengen steigen ins Unermessliche. Die Prognose der EU-Kommission erwartet allein in der EU zwischen 2020 und 2030 einen Anstieg des Datenflusses in Cloud- und Edge-Rechenzentren um 1500 Prozent - kein Tippfehler. Entsprechend riesig ist das wirtschaftliche Potential, denn Daten sind der zentrale Rohstoff etwa für das Internet of Things.

  • Mit richtiger Unterstützung zum MSSP-Erfolg

    Auch kleine und mittlere Unternehmen (KMU) benötigen heute eine ganzheitliche IT-Sicherheitsstrategie, inklusive einer 24/7-Überwachung durch ein Security Operations Center (SOC). Sie verfügen aber meist nicht über die nötigen personellen und finanziellen Ressourcen, um diese Aufgabe selbst zu stemmen. Mit den richtigen Managed-Security-Angeboten schließen Reseller diese Lücke.

  • Keine Bestnoten für Deutschlands Rechenzentren

    Rechenzentren werden geplant, gebaut, in Betrieb genommen und dann viele Jahre lang mehr oder minder unverändert genutzt. Doch die Anforderungen der betreibenden Unternehmen, die technologischen Möglichkeiten und die gesetzlichen Rahmenbedingungen ändern sich im Laufe der Zeit. Um böse Überraschungen zu verhindern, Kosten zu sparen und Risiken zu vermeiden, ist es notwendig, Defizite in Bestandsrechenzentren zu entfernen und Optimierungspotentiale zu nutzen. Hierzu sollten Rechenzentren regelmäßig einer ganzheitlichen Betrachtung unterzogen werden.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen