Die Auswertung von großen Datenmengen birgt neue, ganz eigene Schwierigkeiten. Damit Big Data erfolgreich angewendet werden kann, müssen diese neuen Risiken verstanden und im Blick behalten werden.
Datenmengen in der Größenordnung von mehreren Terabytes (1.024 GB) oder Petabytes (1.048.576 GB) auszuwerten bringt ganz eigene Risiken mit sich. Sobald das Wort „Risiko“ im Zusammenhang mit Big Data fällt, taucht normalerweise zunächst die Datenschutzproblematik auf. Doch wenn hier von Risiken die Rede ist, sind darüber hinaus risikobehaftete Bereiche gemeint, die speziell beim Umgang mit großen Datenmengen und bei der Interpretation von diesen Daten auftauchen.
Bereits bei der Planung von Big-Data-Projekten dürfen bestimmte Aspekte nicht außer Acht gelassen werden. Ein tief greifendes Verständnis dieser Bereiche führt zu einer realistischen Perspektive und räumt Fehlerquellen aus. Die neuen Risiken, die es bei der Anwendung von Big Data gibt, sprechen also nicht prinzipiell gegen die Nutzung von Data Intelligence.
[selectivetweet float=“left“]Big Data Risiken: Was bei der Auswertung großer Datenmengen beachtet werden muss.[/selectivetweet]
Vielmehr handelt es sich um Faktoren, die im Vorfeld beachtet werden müssen, um zu entscheiden, in welchen Fällen Big-Data-Lösungen sinnvoll sind. Werden etwa weitreichende Geschäftsentscheidungen mit Datenanalysen gestützt, ist bei der Beurteilung der Auswertungen wichtig, diese Risiken genau zu kennen. Fehlentscheidungen und die Gefahr von falscher Interpretation der Daten werden so minimiert. Rentabilität und Machbarkeit hängen von den Risiken auf mehreren Ebenen ab: auf juristischer, technischer, kommunikativer und auf analytischer Ebene.
Kein Big-Data-Projekt ohne juristische Begutachtung
In juristischer Hinsicht erfordern Big-Data-Projekte eine umfassende Begutachtung. Schon bei der Planung eines Projektes sind die rechtlichen Rahmenbedingungen zu beachten. Erhebung, Speicherung und spätere Weiterverarbeitung von Daten unterliegen zum Teil strengen Regelungen. Beispielsweise spielt bei der Erhebung der Daten der geografische Standort der Datenquellen eine zentrale Rolle. Er entscheidet darüber, welche Datenschutzverordnung eingehalten werden muss. Bei Projekten von internationalem Ausmaß stellt das Zusammenspiel verschiedener Rechtsräume eine komplexe Herausforderung dar.
Risiko Betriebsspionage – Sensible Daten benötigen besonderen Schutz
Der Umgang mit großen Datenmengen, insbesondere bei Daten über betriebsinterne Zusammenhänge, stellt Unternehmen bzw. die IT-Abteilungen vor technische Herausforderungen. Die Balance zwischen Zugänglichkeit und Sicherheit muss genau austariert sein. Nicht jedes Unternehmen verfügt über die technischen Infrastrukturen, um diese Mengen zu speichern und zu verarbeiten. Cloud- und On-Demand-Lösungen bringen automatisch das Risiko des Datenverlusts oder Datendiebstahls mit sich. Sensible Daten müssen deshalb besonderen Schutz genießen, um digitale Betriebsspionage auszuschließen. Die Platzierung von gezielt gefälschten Datensätzen schafft ebenso Sicherheit wie Verschlüsselungstechniken. Datenverlust stellt datengetriebene Unternehmer vor ein finanzielles Problem: Sicherungskopien von Daten im Petabyte-Bereich sind kostspielig.
Big Data als Gefahr bei der Kundenwahrnehmung
Die Nutzung von Big Data für Marktforschung, zur Unterstützung von Entscheidungen oder in der Forschung und Entwicklung ist ein vergleichsweise junges Feld. Entscheidet sich ein Unternehmen für Big-Data-Projekte, stellt sich die Frage, ob und wie dies nach außen kommuniziert wird. Die Reputation eines Unternehmens hängt auch von der Wahrnehmung der Kunden und Konkurrenten ab. Je nach Art der Analyse stammen Daten einerseits aus zum Teil sensiblen Quellen und anderseits ist Big Data als solches gesellschaftlich noch nicht vollständig akzeptiert. Aufgrund dieser Gründe besteht ein kommunikatives Risiko. Präsentiert sich ein Unternehmen als Big-Data-freundlich, könnte es auf der einen Seite als innovativ und fortschrittlich wahrgenommen werden, auf der anderen Seite aber auch in Misskredit geraten.
Nur vollständige Daten gewährleisten richtige Vorhersagen
Bei der eigentlichen Analyse der Daten kommen die Daten selbst ins Visier. Eine Risikoquelle ist die Qualität der Daten. Nicht alle Daten sind geeignet, die Realität in dem Maße abzubilden, wie dies die Fragestellung erfordert. Gute Entscheidungen und richtige Vorhersagen gelingen nur, wenn die Daten vollständig sind und ihre Qualität gesichert ist. Die Faktoren, die zu einer mangelnden Datenqualität führen, sind vielfältig:
- fehlerhafte Datensätze
- mehrfach abgespeicherte Datenkopien
- missverständliche, falsche oder mehrdeutige Interpretation
- mangelnde Kontrolle oder fehlende Verantwortlichkeit
- ungenaue oder fehlleitende Fragestellungen
All diese Faktoren bergen das Risiko, dass aus den Daten ein Modell gebildet wird, das die Wirklichkeit nicht oder nur unzureichend beschreibt. Zur Sicherung der Datenqualität, und damit zur Sicherung der Aussagen, ist eine permanente Überprüfung in zweierlei Hinsicht nötig: Daten haben sowohl hinsichtlich ihrer Bedeutung (Semantik) als auch hinsichtlich ihrer Menge (Statistik) Aussagekraft.
[selectivetweet] Um #BigData erfolgreich anzuwenden, müssen diese neuen Risiken richtig verstanden werden! #Daten[/selectivetweet]
So komplex und vielfältig die Risiken von Big-Data-Projekten sind, so einzigartig und passgenau müssen die Lösungen ausfallen. Um Big Data erfolgreich in ein Unternehmen zu integrieren, ist das Zusammenspiel vieler Abteilungen bzw. Kompetenzen nötig. Gerade weil Big-Data-Strategien deshalb ressourcenintensiv werden können, lohnt es sich, die Risiken genau im Blick zu behalten. Nur wenn aus Daten abgeleitete Aussagen in der Wirklichkeit zutreffen, trägt Big Data zu Wertsteigerung bei.