Umsetzung von Big Data-Projekten
Sechs Gründe, weshalb Unternehmen an Big Data-Projekten scheitern können
Annäherung an das Thema Big Data minimalistisch denken und zunächst möglichst kleine Projekte realisieren
(04.09.14) - Viele Unternehmen sind zu zögerlich, wenn es um die Implementierung von Big Data-Lösungen geht. Eine schrittweise Einführung, ausgehend von einem kleinen Lösungsansatz, kann hierbei sehr hilfreich sein, um die üblichen Probleme bei der Umsetzung von Big Data-Projekten frühzeitig zu erkennen und erfolgreich zu umschiffen zu können.
Das Thema Big Data ist in aller Munde und viele Unternehmen sind fasziniert von dem Gedanken, möglichst vollumfängliche Antworten auf bestehende unternehmerische Fragen, aus allen zur Verfügung stehenden Daten, herauszufiltern.
Doch zwischen andenken und umsetzen klafft eine gewaltige Lücke, wie eine Studie des Forschungsinstituts Gartner im Jahr 2013 ergab. Demzufolge sind 92 Prozent aller Unternehmen in Sachen Big-Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten größtenteils. Die Gründe für ein Scheitern sind hierbei oftmals identisch.
Der Schlüssel für die erfolgreiche Umsetzung eines Big Data-Projekts liegt in der schrittweisen Umsetzung des Projekts und ist auch geprägt vom Willen der jeweiligen Mitarbeiter, die mit der Umsetzung betraut sind, denn diese können nur durch frühzeitiges scheitern effektiv hinzulernen. Aus diesem Grunde ist es erforderlich, bei der Annäherung an das Thema Big Data minimalistisch zu denken und zunächst möglichst kleine Projekte zu realisieren, um Erfahrungswerte sammeln zu können.
Big Data und der Herdentrieb
Big Data boomt. Gemäß des Forschungsinstituts Gartner haben bereits 64 Prozent aller im Jahr 2013 befragten Unternehmen angegeben, bereits eine Big Data Investition in Systeme durchgeführt zu haben oder diese zu planen. Dies ist eine Steigerung von 6 Prozent im Vergleich zum Jahr 2012. Immer mehr Unternehmen sind somit bestrebt möglichst umfangreiche Erkenntnisse aus ihren Datensammlungen zu gewinnen. Sei es zur besseren Kundenbindung, der Analyse von Finanz- und IT-Risiken oder zur Analyse von Log-Protokollen.
Von diesen 64 Prozent haben 30 Prozent der Befragten bereits schon einmal in eine Big Data-Technologie investiert und 19 Prozent planten, dies innerhalb eines Jahres zu tun, weitere 15 Prozent gaben an dieses innerhalb von zwei Jahren zu tun. Weniger als 8 Prozent der 720 durch Gartner befragten Unternehmen gaben hierbei an, bereits erfolgreich eine Big Data-Lösung im Einsatz zu haben.
Die Gründe für ein Scheitern sind hierbei oftmals auf ein gewisses Maß an Naivität zurückzuführen, denn oftmals wissen viele Unternehmen nicht, welche und wie sie eine Big Data-Lösung produktiv implementieren sollen. Denn für eine erfolgreiche Datenanalyse benötigt man auch entsprechendes Personal und Infrastruktur.
Kuert Datenrettung Deutschland nennt sechs Gründe, die ein Unternehmen bei Big-Data Projekten scheitern lassen:
1. Widerstand im Management
Unabhängig davon was Daten uns mitteilen können, fand die Fortune Knowledge Group heraus, das 62 Prozent aller Geschäftsführer sich bei Ihren Geschäftsentscheidungen mehr auf Ihre Erfahrung, als auf die Analyse von Daten zu berufen.
Auswahl des falschen Verwendungszwecks - Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big Data Probleme durch traditionelle und vorherrschende Daten-Technologie in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert ist.
2. Große Datensilos
Hersteller von Big Data Applikationen sprechen sehr gern von "Daten-Seen" oder "Daten-Hubs", die Realität in vielen Unternehmen zeigt jedoch, das viele Unternehmen hier eher "Daten-Pfützen" installieren. Verbunden mit scharfen Abgrenzungen zwischen der "Marketing-Pfütze", der "Produktionsdaten-Pfütze", usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im Besten Fall sogar bei der Big Data Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem unterfangen oftmals konträr gegenüber. Die Einführung von Big Data Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.
3. Falsche Fragestellungen
Datenwissenschaft ist eine komplexe Mischung aus Branchenwissen, Mathematik, Statistik und Programmierkenntnissen. Exakt diese sind die Anforderungen deren einer Big Data-Lösung bedarf, um die Ergebnisse liefern zu können die sich das Unternehmen verspricht. Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, welche jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.
4. Unvorhergesehene Big Data Probleme
Die Datenanalyse ist nur eine Komponente eines Big Data Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie Netzwerküberlastung oder die unzureichende Ausbildung von Mitarbeitern.
Meinungsverschiedenheiten bei der Unternehmensstrategie - Big Data Projekte sind u.a. dann erfolgreich, wenn es sich hierbei nicht um vollkommen isolierte Projekte handelt, sondern Abteilungsübergreifend Einverständnis darüber herrscht, wie durch die Datenanalyse alle Abteilungen des Unternehmens direkt oder indirekt profitieren können. Probleme treten zumeist dann auf, wenn unterschiedliche Abteilungen unterschiedliche Prioritäten bei der Wertigkeit der einzelnen Projekte verfolgen, z.B. "Cloud Computing-Virtualisierung ist wichtiger als Big Data-Analyse, weil wir dadurch..."
5. Fehlende Qualifikation
Viele zu groß skalierte Big-Data Projekte schreiten nur sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die bei der Umsetzung beteiligten Personen nur über unzureichende Qualifikationen verfügen. Einer der Hauptgründe hierbei liegt in der Tatsache, dass die zu einem Big-Data Projekt involvierten Personen aus der eigenen IT-Abteilung des Unternehmens stammen.
6. Problemvermeidung
Manchmal wissen oder vermuten wir, dass die Erkenntnisse der Datenanalyse uns zu Aktionen verleiten können, die wir nicht realisieren möchten. Wie z.B. innerhalb der Pharmaindustrie, die keine Sentiment-Analysen durchführen möchte, um hierdurch Meldepflichten zu umgehen oder um Szenarien zu vermeiden, die mehr Ärger einbringen könnten, als das sie Nutzen stiften. Was sich wie ein roter Faden durch diese Liste zieht ist die Erkenntnis, dass je stärker man sich auf die Daten fokussiert, festzustellen ist, dass der Mensch hierbei im Wege steht. So sehr ein Unternehmen auch bestrebt sein dürfte, Unternehmensentscheidungen einzig und allein aufgrund von Kennziffern zu treffen, so werden die Entscheidungen im Big Data Prozess welche Daten, gesammelt und mit in die Analyse einbezogen werden oder welche Fragen durch die Analyse beantwortet werden sollen, im Endeffekt doch wiederum nur von Menschen getroffen.
Besser schrittweise Innovation
Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.
Ein "Kleiner Start / Schnelles scheitern" Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data-Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Computing-Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error-Prinzip zu unterstützen.
"Beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big Data-Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big Data-Analyse”, so Martin Eschenberg Marketingleiter bei Kuert.
Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (Kuert Datenrettung Deutschland: ra)
Kuert Datenrettung: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Ihr PMK-Verlags-Newsletter hier >>>>>>