Wir kennen diese Zahlen: Experten erwarten 44 Zettabytes an Daten bis 2020, rechnerisch rund 5.200 Gigabyte für jeden Erdenbürger. Speicherhersteller heben bereits warnend den Finger vor einem drohenden Speicherengpass. Einen Großteil der Daten werden dann allerdings Geräte beisteuern: 50 Milliarden davon sind im Internet of Things bis 2020 verbunden. Diese „Dinge“ sondern unentwegt Informationen ab, die Antworten auf Fragen bergen, die wir noch gar nicht kennen – soweit die Geschichte von Big Data, die Ihnen vertraut sein dürfte.
Was wir brauchen sind logische Schlussfolgerungen – das Beispiel Predictive Policing
Die große Kunst besteht in der logischen Verbindung vieler Daten aus unterschiedlichen Quellen und deren schnelle Auswertung. Beeindruckende Ergebnisse liefert bereits die vorausschauende Polizeiarbeit. Entwickelt wurden die Analysewerkzeuge für „Predictive Policing“ in den USA auf Basis von Programmen, die bei Erdbeben die Nachbeben vorhersagen. Die Polizei von Los Angeles setzt sie erfolgreich ein. Inzwischen ist diese Art der Polizeiarbeit in Zürich im Dauerbetrieb und auch Bayern testet solche Systeme seit 2014. Bei Einbrüchen wertet der Computer Daten aus wie: Tageszeit, Gebäude, wie kamen die Täter ins Haus, was haben sie mitgenommen? Und der Computer schaut in die Zukunft und prognostiziert weitere Einbrüche in der näheren Umgebung in den nächsten sieben Tagen. Von immerhin bis zu 30 Prozent weniger Einbrüchen soll aufgrund des Verfahrens die Rede sein.
Services wandern ins Internet und verwalten sich selbst
Technische Basis für solche Algorithmen sind viel Speicherplatz, schnelle Rechner und Analyseprogramme. Nur werden die wenigsten Unternehmen diese Infrastruktur für eine kleine Anzahl von Analysen anschaffen. Sogar die Autoindustrie mietet solche Ressourcen für digitale Crashtests. Das bedeutet: Die Bausteine für Big Data werden Stück für Stück ins Internet wandern, wie wir es schon bei vielen anderen Prozessen gesehen haben.
Beispiel Software-defined data center: Erst haben wir Speicherplatz virtualisiert, dann Rechenkapazitäten, dann Programme. Inzwischen arbeiten wir an Security-as-as-Service und Network-as-a-Service. Am Schluss steht im Grunde genommen IT-as-a-Service. Alle Komponenten sprechen die selbe Sprache, sind aus der Ferne ansteuerbar und können Ressourcen teilen. Sie verwalten sich weitgehend selbst.
Damit die Technik nicht zum Flaschenhals wird, wie es die Speicherindustrie fürchtet, müssen die Daten in die Wolke umziehen. Massendaten brauchen zwar Sicherheitskopien, müssen aber nicht 1.000 Mal parallel gespeichert werden. Dies ist eines der Grundprinzipien der Digitalisierung: Es reicht ein Original für viele zeitlich beschränkte Kopien – bei Musik und Film heißt das Streaming. Bei Big Data beginnt diese Entwicklung etwa mit einem Marktplatz für Massendaten: Jedes Unternehmen, dass viele Daten produziert, könnte diese auf dem Marktplatz anbieten.
Big Data-as-a-Service: Wie Cloud Computing und Big Data voneinander profitieren
Voraussetzung ist ein gemeinsames Datenformat für Big Data. So könnte die Bahn viele Daten von Temperaturfühlern aus tausenden von Weichen veredeln. Die Bahn braucht diese Sensoren, um im Winter drohende Vereisung zu erfassen. Drei Viertel des Jahres aber liefern diese Geräte Informationen, die die Bahn gar nicht braucht. Irgend ein kluger Kopf auf der Welt wird jedoch auf eine Idee kommen, diese zu nutzen, weiterzuverarbeiten und zu verkaufen. So funktionieren Plattformen als Geschäftsmodell: Sie sind erfolgreich, wenn andere damit mehr Geld verdienen.
[selectivetweet]#Cloud & #BigData werden eins – wie Wolken und Daten künftig voneinander profitieren können.[/selectivetweet]
Die Massendaten sind bereits im Internet: Sei es als Open Source oder über erste Marktplätze. Es gibt auch schon Ansätze für den zweiten Schritt: Die Analysetools werden virtualisiert und stehen in der Cloud bereit. Das ist der richtige Weg: Aus Big Data wird Big Data-as-a-Service. Die technischen Hürden nimmt uns die Cloud. Als letzte Herausforderung bleibt nur noch unsere Kreativität.