In Memory Computing, Hadoop, NoSQL – am Big Data Markt tummeln sich zahlreiche Technologien mit unterschiedlichen Stärken und Schwächen. Der IT-Dienstleister adesso erläutert die wichtigsten Schritte auf dem Weg zur passenden Big-Data-Technologie.
Big Data ist nicht in erster Linie eine Frage der Technologie, sondern der Strategie. Eine Big-Data-Technologie kann nur dann gewinnbringend eingesetzt werden, wenn der gewünschte Nutzen mit allen Projektbeteiligten – von Fachabteilung bis IT – eindeutig definiert wurde.
Erst nach einer Potenzialanalyse lässt sich die Frage nach der richtigen Technologie beantworten. Worauf sollten Unternehmen bei der Auswahl besonders achten? adesso zeigt das richtige Vorgehen anhand von fünf Schritten auf:
1. Anwendungsfälle ermitteln.
In einem ersten Schritt sollten Unternehmen aus ihrer Unternehmensstrategie, ihren Zielen und ihren Kernkompetenzen ableiten, welchen Mehrwert ihnen Big Data liefern kann, und so konkrete Nutzungsszenarien ermitteln. Beispielsweise könnten Unternehmen aus dem Automotive-Sektor basierend auf Informationen aus den Daten der Steuerungssysteme von Fahrzeugen neue Services ableiten – etwa Ferndiagnosen oder Wartungs- und Verschleißhinweise. Die Definition der tatsächlichen Anwendungsfälle sollte allerdings mit viel Bedacht durchgeführt werden, um Fehlinvestitionen zu vermeiden.
2. Reifegrade überprüfen.
Einige Anwendungsfälle können zwar sehr interessant und vielversprechend sein, die benötigten Daten aber noch nicht die erforderliche Reife aufweisen – beispielsweise, wenn Systeme, die Daten liefern, erst neu integriert oder vorhandene Daten bisher nur angesammelt und noch nicht klassifiziert wurden. Auch Aspekte jenseits von Technologien und Daten spielen meist eine entscheidende Rolle für die Bewertung eines Anwendungsfalls.
Zum Beispiel, wie viele Organisationseinheiten sind beteiligt, wie stark sind Datenschutzfragestellungen betroffen, wie sehr spielen Compliance-Anforderungen eine Rolle? Durch derartige Hürden könnte ein Big-Data-Vorhaben trotz großem Nutzenpotenzial scheitern. Deshalb ist es sinnvoll, zunächst Projekte anzugehen, die eine kurz- oder mittelfristige Umsetzung ermöglichen. Beispielsweise solche, für die einerseits eine sicher verwertbare Datenbasis vorliegt, auf die sich einfach zugreifen lässt, und mit denen andererseits alle beteiligten Organisationseinheiten gut zusammenarbeiten können.
3. Konsens herstellen.
Die Entscheidung, welche Anwendungsfälle ein Unternehmen umsetzt, sollte unbedingt im Konsens zwischen Fachbereichen und IT-Abteilung getroffen werden. Geschieht dies nicht, ist das Risiko hoch, dass die Fachbereiche andere Vorstellungen und Ziele haben, als die IT dann umsetzt.
Gegenseitiges Verständnis und eine enge Zusammenarbeit sind bei Big-Data-Projekten besonders wichtig, vor allem dort, wo die Resultate komplexer maschineller Lernverfahren interpretiert werden müssen. Üblicherweise können nur die Experten aus den Fachabteilungen verstehen und erklären, welche Ergebnisse einer Datenanalyse interessant und relevant sind. Dieser fachliche Input ist höchst relevant für das "Tuning", also die Einstellung später eingesetzter Datenanalyseverfahren.
4. Kriterien ableiten.
Stehen die Anwendungsfälle fest, lässt sich daraus ableiten, welche Eigenschaften die eingesetzte Technologie mitbringen muss. So benötigen manche Szenarien eher die Ad-hoc-Abfrage von Daten, andere dagegen bestimmte Aggregationen, erkundende Verfahren oder Verfahren für Vorhersagen oder Empfehlungen.
Weitere wichtige Kriterien, die sich aus den Nutzungsszenarien ergeben, sind unter anderem die erforderliche Integrierbarkeit mit existierenden Anwendungen im Unternehmen, die Geschwindigkeit und der Umfang des Datenflusses, die erforderliche Bearbeitungsgeschwindigkeit der Daten oder der richtige Umgang mit den vorhandenen Datenstrukturen.
5. Technologie auswählen.
Anhand der so ermittelten Kriterien lässt sich dann gezielt die passende Technologie auswählen. Die heute verfügbaren Datenverarbeitungsplattformen von Hadoop über NoSQL bis hin zu relationalen Datenbanken unterstützen nicht nur unterschiedliche Skalierungsmechanismen, sie unterstützen auch unterschiedliche Vorgehensweisen.
Ist mit häufiger Veränderung zu rechnen beziehungsweise ist die Aufrechterhaltung von Diensten auch bei Veränderung besonders wichtig, dann muss die Datenverarbeitung die benötigte Flexibilität mitbringen. Verlangt ein Anwendungsfall besonders hohe Verarbeitungsgeschwindigkeiten, empfiehlt sich In-Memory-Computing. Stehen hohe Skalierbarkeit sowie eine schnelle Speicherung und eine einfache Abfrage riesiger Datenmengen im Vordergrund, spricht das für Key-Value-Datenbanken.
Traditionelle relationale Datenbanken sind in diesem Fall dagegen eher nicht geeignet, da sie komplexere Skalierungs-modelle unterstützen und einen hohen Aufwand für den Umgang mit heterogenen oder sich häufig ändernden Daten erfordern. Eine allgemeingültige Regel gibt es allerdings nicht. Die vorhergehende Auseinandersetzung mit den Anwendungsfällen ist deshalb entscheidend.