Big Data: Die Potentiale von Daten verstehen, Projekte daraus verwirklichen und seine Daten entfalten.

Harte Nüsse. Das Hochlohn- und Qualifiziertendeutschland tut sich bei der Nutzung von Big Data-Potentialen schwer. Dabei sehen Konzerne, Start-Ups, Forscher und Kommunen durchaus die strahlende Zukunft, die ihnen gemalt wird. Sie alle wollen eine Scheibe vom Kuchen. Aber sie sind hierzulande bisweilen nicht engagiert genug, sich zu informieren und die richtigen Angebote zu finden – oder dürfen es schlicht nicht.

Paragraph 75 des zehnten Sozialgesetzbuches trennt Menschen und Welten. Der Paragraph trennt die Forscher von Millionen von Patientendaten und anderen Datensätzen, die recht leicht und durchaus anonym Fakten über Krankheitsverläufe andere sozio-demografische Informationen bereitstellen. Ohne “konkreten Verdacht” darf an diesen Datenbanken nicht geforscht werden. Einwilligungen müssten von Betroffenen neu eingeholt werden, und “Genehmigung durch die oberste Bundes- oder Landesbehörde, die für den Bereich, aus dem die Daten herrühren, zuständig ist” ebenso. Das ist ein großer Standortnachteil für Forscher wie Iris Pigeot vom Leibnitz-Institut für Präventionsforschung und Epidemiologie BIPS in Bremen. Sie hat die 17 Millionen Versichertendaten im Institut – und darf sie nicht nutzen. Auf ähnliche Probleme stößt aber auch jeder andere sozialbezogene Forscher. Ökonomen und Sozialwissenschafter mussten schon von je her größere Bürden auf sich nehmen als ihre amerikanischen und britischen Kollegen. Ob Datenbanken oder Experimente in Soziallabors: Gesetzliche Schranken erfüllen ihren Dienst viel zu gut. So gut, dass sich wissenschaftliche Mitarbeiter oft mit einem Fuß im Knast sehen – und mit dem anderen im Arbeitsamt. Denn das Risiko, unbeabsichtigterweise sensible Daten in Arbeiten mit eigentlich zusammenfassendem Charakter mitzuveröffentlichen, ist nicht gering.

Das FDZ in Nürnberg, Forschungsdatenzentrum der Bundesagentur für Arbeit (BA) im Institut für Arbeitsmarkt- und Berufsforschung, legt neben ausführlichen vertraglichen Verpflichtungen Stapelweise Datenschutzrichtlinien vor. Jedes Forschungsprojekt, dass auf die Daten zugereifen möchte, hat sich und die genauen Analyseschritte im voraus(!) anzugeben und exakt zu befolgen. Da sich neue Analyseschritte aber nicht vorhersehen lassen, ist für jeden ein gesonderter Antrag fällig, der bearbeitet und beschieden werden muss. Bürokratie galore! Das dürfe “aber nicht über die Tatsache hinwegtäuschen, dass Big Data für die empirische Sozialforschung und viele andre Disziplinen ein bisher weitgehend ungenutztes Potenzial darstellt“, sagt York Sure-Vetter vom GESIS-Institut der Leibnitz-Gesellschaft dem Scinexx.

Neben dem Datenschutz behindern durch Lizenzen geschütze Datenbanken oder der in der Gesellschaft eher unbekannte Nutzen von Big Data-Anlysen den Betrieb. Unternehmen kontrollieren den Zugang zu Daten – manchmal selbst dann, wenn sie die Daten im Auftrag oder mit im Kontext des Staates gesammelt haben. Das gefährdet sowohl die wissenschaftliche Praxis als auch die Innovationsfreudigkeit von Unternehmen. Eine überflüssige Barriere. Andererseits gebe es Datenbanken aber heute in einen Überfluss, der nicht einmal ansatzweise durch die wenigen Forscher genutzt werden kann.

Der Astronom Alex Szalay sucht in den Datenbergen seiner Teleskope und Sensoren nach Mustern, Korrelationen und neuen Formen. Früher ist man dabei gezwungenerweise deduktiv vorgegangen, also von einer theoretischen Forschungsfrage ausgehend “ins Feld”, um sie an der empirischen Realität zu testen. Heute werden Daten en masse auf die Server geschoben und erst einmal veröffentlicht. Im zweiten Schritt können sich ganz unabhängig von den Datensammlern Experten, Fachfremde und Laien an die Analyse und Interpretation machen. In den sozialwissenschaftlichen Disziplinen ist so ein Vorgehen kaum denkbar.

Eine globale Initiative für allgemeinverfügbare Datennutzung ist Open Data. Sie kämpft dafür, dass auch Fachfremde aus anderen Disziplinen mitzuarbeiten und Erkenntnisse zu produzieren. Die Crowd wird dabei zunehmend eingebunden. Gamification ist der nächste Schritt, der die Mitmach-Analyse auch für unattraktive Aufgaben interessant machen soll. So soll auf der Basis eines gesellschaftlichen Konsensus eine verlässliche Arbeitsgrundlage entstehen. Ohne Unsicherheiten bei Datenerhebung und Veröffentlichung.

Daten müssen frei und offen sein, damit sie ihre Schätze freigeben und dort verfügbar sind, wo sie gebraucht werden.

Big Data kommt für Alex Szalay deshalb auch außerhalb von Natur- und Sozialwissenschaft eine große Rolle zu, was ihn zu interdisziplinären Spekulationen veranlasst. Die Idee: Big Data-Analysen können live und ähnlich eines Mikroskops jede medizinische Analyse und Therapie begleiten, sodass man nicht nur das Kleine sehe, sondern auch den großen Überblick über die vielen alten und neuen Krankheitsbiografien, Befunde und anatomisch-biologischen Eigenheiten des vorliegenden Patienten erhalte. Was wäre, wenn einem ein Bildschirm oder eine Datenbrille zu jedem Schritt automatisch die richtigen Statistiken, Wahrscheinlichkeitsanalysen und Alternativmedikationen auf der Basis aktueller Patientenewerte anzeigen könnte? Ebenfalls ein Fall von Datenschutz, der persönlichen und gesellschaftlichen Nutzen verhindert. Die Bedenken sind ernst zu nehmen – der Blick in die USA ist jedoch immer häufiger neidvoll.

Ähnlich sehen das Big Data-Experten, die es schwer haben, ihre Dienste und Visionen an die deutsche Wirtschaft zu vermitteln. Man sei im internationalen Vergleich “zwei Jahre zurück”, sagt Michael Hummel, Mitgründer des Kölner Big Data-Startup Parstream. Er, aber auch andere Firmen und Initativen wie Attivio versuchen, die Möglichkeiten von Big Data an Organisationen und Institutionen zu vermitteln. Mehrwert, Perspektiven, Kosten und Techniken. Dabei stoßen sie insbesondere beim deutschen Mittelstand nur sehr mühsam durch die Wände in den Köpfen.