Sie sind hier: Startseite » Markt » Hintergrund

Umsetzung von Big Data-Projekten


Sechs Gründe, weshalb Unternehmen an Big Data-Projekten scheitern können
Annäherung an das Thema Big Data minimalistisch denken und zunächst möglichst kleine Projekte realisieren

(04.09.14) - Viele Unternehmen sind zu zögerlich, wenn es um die Implementierung von Big Data-Lösungen geht. Eine schrittweise Einführung, ausgehend von einem kleinen Lösungsansatz, kann hierbei sehr hilfreich sein, um die üblichen Probleme bei der Umsetzung von Big Data-Projekten frühzeitig zu erkennen und erfolgreich zu umschiffen zu können.

Das Thema Big Data ist in aller Munde und viele Unternehmen sind fasziniert von dem Gedanken, möglichst vollumfängliche Antworten auf bestehende unternehmerische Fragen, aus allen zur Verfügung stehenden Daten, herauszufiltern.

Doch zwischen andenken und umsetzen klafft eine gewaltige Lücke, wie eine Studie des Forschungsinstituts Gartner im Jahr 2013 ergab. Demzufolge sind 92 Prozent aller Unternehmen in Sachen Big-Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten größtenteils. Die Gründe für ein Scheitern sind hierbei oftmals identisch.

Der Schlüssel für die erfolgreiche Umsetzung eines Big Data-Projekts liegt in der schrittweisen Umsetzung des Projekts und ist auch geprägt vom Willen der jeweiligen Mitarbeiter, die mit der Umsetzung betraut sind, denn diese können nur durch frühzeitiges scheitern effektiv hinzulernen. Aus diesem Grunde ist es erforderlich, bei der Annäherung an das Thema Big Data minimalistisch zu denken und zunächst möglichst kleine Projekte zu realisieren, um Erfahrungswerte sammeln zu können.

Big Data und der Herdentrieb
Big Data boomt. Gemäß des Forschungsinstituts Gartner haben bereits 64 Prozent aller im Jahr 2013 befragten Unternehmen angegeben, bereits eine Big Data Investition in Systeme durchgeführt zu haben oder diese zu planen. Dies ist eine Steigerung von 6 Prozent im Vergleich zum Jahr 2012. Immer mehr Unternehmen sind somit bestrebt möglichst umfangreiche Erkenntnisse aus ihren Datensammlungen zu gewinnen. Sei es zur besseren Kundenbindung, der Analyse von Finanz- und IT-Risiken oder zur Analyse von Log-Protokollen.

Von diesen 64 Prozent haben 30 Prozent der Befragten bereits schon einmal in eine Big Data-Technologie investiert und 19 Prozent planten, dies innerhalb eines Jahres zu tun, weitere 15 Prozent gaben an dieses innerhalb von zwei Jahren zu tun. Weniger als 8 Prozent der 720 durch Gartner befragten Unternehmen gaben hierbei an, bereits erfolgreich eine Big Data-Lösung im Einsatz zu haben.

Die Gründe für ein Scheitern sind hierbei oftmals auf ein gewisses Maß an Naivität zurückzuführen, denn oftmals wissen viele Unternehmen nicht, welche und wie sie eine Big Data-Lösung produktiv implementieren sollen. Denn für eine erfolgreiche Datenanalyse benötigt man auch entsprechendes Personal und Infrastruktur.

Kuert Datenrettung Deutschland nennt sechs Gründe, die ein Unternehmen bei Big-Data Projekten scheitern lassen:

1. Widerstand im Management
Unabhängig davon was Daten uns mitteilen können, fand die Fortune Knowledge Group heraus, das 62 Prozent aller Geschäftsführer sich bei Ihren Geschäftsentscheidungen mehr auf Ihre Erfahrung, als auf die Analyse von Daten zu berufen.

Auswahl des falschen Verwendungszwecks - Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big Data Probleme durch traditionelle und vorherrschende Daten-Technologie in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert ist.

2. Große Datensilos
Hersteller von Big Data Applikationen sprechen sehr gern von "Daten-Seen" oder "Daten-Hubs", die Realität in vielen Unternehmen zeigt jedoch, das viele Unternehmen hier eher "Daten-Pfützen" installieren. Verbunden mit scharfen Abgrenzungen zwischen der "Marketing-Pfütze", der "Produktionsdaten-Pfütze", usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im Besten Fall sogar bei der Big Data Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem unterfangen oftmals konträr gegenüber. Die Einführung von Big Data Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.

3. Falsche Fragestellungen
Datenwissenschaft ist eine komplexe Mischung aus Branchenwissen, Mathematik, Statistik und Programmierkenntnissen. Exakt diese sind die Anforderungen deren einer Big Data-Lösung bedarf, um die Ergebnisse liefern zu können die sich das Unternehmen verspricht. Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, welche jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.

4. Unvorhergesehene Big Data Probleme
Die Datenanalyse ist nur eine Komponente eines Big Data Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie Netzwerküberlastung oder die unzureichende Ausbildung von Mitarbeitern.

Meinungsverschiedenheiten bei der Unternehmensstrategie - Big Data Projekte sind u.a. dann erfolgreich, wenn es sich hierbei nicht um vollkommen isolierte Projekte handelt, sondern Abteilungsübergreifend Einverständnis darüber herrscht, wie durch die Datenanalyse alle Abteilungen des Unternehmens direkt oder indirekt profitieren können. Probleme treten zumeist dann auf, wenn unterschiedliche Abteilungen unterschiedliche Prioritäten bei der Wertigkeit der einzelnen Projekte verfolgen, z.B. "Cloud Computing-Virtualisierung ist wichtiger als Big Data-Analyse, weil wir dadurch..."

5. Fehlende Qualifikation
Viele zu groß skalierte Big-Data Projekte schreiten nur sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die bei der Umsetzung beteiligten Personen nur über unzureichende Qualifikationen verfügen. Einer der Hauptgründe hierbei liegt in der Tatsache, dass die zu einem Big-Data Projekt involvierten Personen aus der eigenen IT-Abteilung des Unternehmens stammen.

6. Problemvermeidung
Manchmal wissen oder vermuten wir, dass die Erkenntnisse der Datenanalyse uns zu Aktionen verleiten können, die wir nicht realisieren möchten. Wie z.B. innerhalb der Pharmaindustrie, die keine Sentiment-Analysen durchführen möchte, um hierdurch Meldepflichten zu umgehen oder um Szenarien zu vermeiden, die mehr Ärger einbringen könnten, als das sie Nutzen stiften. Was sich wie ein roter Faden durch diese Liste zieht ist die Erkenntnis, dass je stärker man sich auf die Daten fokussiert, festzustellen ist, dass der Mensch hierbei im Wege steht. So sehr ein Unternehmen auch bestrebt sein dürfte, Unternehmensentscheidungen einzig und allein aufgrund von Kennziffern zu treffen, so werden die Entscheidungen im Big Data Prozess welche Daten, gesammelt und mit in die Analyse einbezogen werden oder welche Fragen durch die Analyse beantwortet werden sollen, im Endeffekt doch wiederum nur von Menschen getroffen.

Besser schrittweise Innovation
Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.

Ein "Kleiner Start / Schnelles scheitern" Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data-Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Computing-Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error-Prinzip zu unterstützen.

"Beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big Data-Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big Data-Analyse”, so Martin Eschenberg Marketingleiter bei Kuert.

Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (Kuert Datenrettung Deutschland: ra)

Kuert Datenrettung: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Wohin zieht die Cloud?

    Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, blickt voraus und betrachtet die anstehenden Entwicklungen rund um die Cloud in 2025: Die Einführung der Cloud hat nicht nur unsere Arbeitsweise, sondern auch unseren Alltag verändert.

  • Generative KI-Inferenz im Fokus

    Die fortschreitende Entwicklung der IT-Landschaft bringt neue Trends mit sich, die 2025 die Technologienutzung in Unternehmen grundlegend verändern werden. Themen wie generative KI und Datensouveränität werden Branchen dazu zwingen, ihre Strategien anzupassen und sich auf neue Realitäten einzustellen. Jeff Wittich, Chief Product Officer bei Ampere Computing, hat vier Prognosen für diese Zukunft formuliert.

  • Bewältigung der KI-Arbeitslasten

    Der Paradigmenwandel der stark digitalisierten Welt von heute stellt Unternehmen hinsichtlich ihrer IT-Infrastrukturen vor große Herausforderungen, bietet aber auch neue Chancen. Zunehmende Cyberbedrohungen, stärkere Virtualisierung oder Transformation durch künstliche Intelligenz (KI) - Unternehmen sind gezwungen, ihre Datenspeicherstrategien zu überdenken, um widerstandsfähig, flexibel und zukunftssicher zu bleiben.

  • KI verankert sich zunehmend in Prozessen

    Die im Wandel befindliche Weltwirtschaft hat den Unternehmen im zurückliegenden Jahr viele Veränderungen und Anpassungen abverlangt. Dieser Trend wird sich nach Einschätzung von Patric Dahse, CEO der Natuvion Group, im kommenden Jahr fortsetzen. Konkret sieht Dahse fünf Trends, mit denen sich die Unternehmen im neuen Jahr auseinandersetzen müssen.

  • Compliance bleibt ein Muss

    Der Wechsel auf SAP S/4HANA wird im kommenden Jahr nochmals an Dringlichkeit gewinnen und damit auf die Archivierungsprozesse ausstrahlen. Der Umstieg zwingt die Unternehmen dazu, ihre Daten- und Dokumentenverwaltung, inklusive deren Archivierung, neu zu denken und bestehende Lösungen so anzupassen, dass sie mit den Anforderungen an Flexibilität, Performance und Compliance Schritt halten können.

  • KI-Einsatz und stringentere Sicherheit

    Mit Blick auf 2025 sind Unternehmen gut beraten, der Datensicherheit in der Cloud angesichts des verstärkten KI-Einsatzes höchste Priorität einzuräumen. Im kommenden Jahr werden Unternehmen zunehmend unter Druck geraten, groß angelegte KI-Initiativen abzusichern und gleichzeitig eine wachsende Zahl von Datenbeständen vor Cyber-Bedrohungen zu schützen.

  • Vom KI-Hype zum Produktivbetrieb

    Ist der KI-Hype noch ungebrochen oder macht sich bereits Ernüchterung breit? Man mag den Eindruck gewinnen, Letzteres träfe zu. Schließlich ist es von der ersten Experimentierphase bis zum effizienten Echteinsatz oft ein weiter, beschwerlicher Weg. Markus Eisele, Developer Strategist bei Red Hat, zeigt, mit welchen Konzepten und Plattformen Unternehmen einen erfolgreichen KI-Einsatz erreichen können.

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen