Predictive Maintanence und Predictive Analytics: Interview mit Matthias Mierisch von arvato Systems

Predictive Maintanence und Predictive Analytics: Interview mit Matthias Mierisch von arvato Systems
Interview mit dem Matthias Mierisch, Vorsitzender der Geschäftsleitung von arvato Systems | © Tsyhun @ Shutterstock.com

Die Arvato AG mit ihrem Hauptsitz im nordrhein-westfälischen Gütersloh, ist ein international tätiges Unternehmen, das zur Berteslmann SE & Co. KGaA gehört. Mit über 70.000 Mitarbeitern weltweit gehört arvarto zu einem der führenden Dienstleister. Das Kunstwort arvato ist zusammengesetzt aus ar – für “ars”, also Kunst – va – für Variation – t – für Technik – und schließlich o – für Organisation.

Arvato ist in sieben unterschiedlichen Bereichen, sogenannte Solution Groups, untergliedert:

  • Customer-Relationship-Solutions,
  • Digital Marketing,
  • Financial Solutions,
  • IT Solutions, Print Solutions,
  • Replikation und
  • Supply-Chain-Management.

Big Data und Predictive Analytics wurde in den letzten Jahren in all diesen Bereichen relevant. Matthias Mierisch, Vorsitzender der Geschäftsleitung von arvato Systems, hat sich Zeit für unsere Fragen genommen.

Big Data Blog: Herr Mierisch, arvato Systems bietet seit mehr als 30 Jahren Lösungen im IT-Bereich an. Seit wann konnten Sie den rasanten Anwuchs an Daten wahrnehmen und mussten sich darauf einstellen?

Matthias Mierisch: Intensiv befassen wir uns mit dem Thema Big Data seit gut fünf Jahren. In der Zeit sind auch einige Kunden mit den ersten Problemstellungen zur Beherrschung und Analyse von stark wachsenden Datenmengen auf uns zugekommen. Grundsätzlich ist ein großes Wachstum der Datenbanken über die letzten Jahre zu verzeichnen, das auch eine Bereitstellung von neuen Ressourcen erfordert, um den erweiterten Anforderungen der Kunden, z. B. nach Echtzeitauswertungen, nachzukommen.

Wir haben aber keinen abrupten Wandel wahrgenommen, es war eher eine schleichende Entwicklung, in der wir Stück für Stück Expertise aufgebaut und entsprechende Projekte anhand der Kundenbedarfe realisiert haben. Auf diesem Weg haben sich dann auch verschiedenste Technologien etabliert, die wir für unsere Kunden prüfen und in individuelle und teils komplett neue Services integrieren.

Wie stark hat sich Ihr Technologie-Stack in den letzten Jahren verändert und wie schnell verändern sich die Anforderungen, so dass neue technologische Lösungen erforderlich sind?

Im Umfeld Big Data hat sich die Bandbreite an technischen Lösungen in den letzten Jahren bis heute stark vergrößert und auch verändert. In Bezug auf strukturierte Daten sind Technologien wie Flashstorage und In-Memory-Technologien sowie Engineered Systems dazu gekommen.

Bei semi-strukturierten Daten sind teilweise komplett neue Technologien entstanden. Hier bieten große Hersteller oft zusammengestellte Technologien in Appliances an, es gibt aber auch viele Anbieter mit Ergänzungsprodukten und neuen Technologien. Die Anforderungen ändern sich dabei stetig, sodass oft Implementierungsprojekte durchgeführt werden müssen, jeder Datenbestand ist anders.

Wir befassen uns generell mit vielen Technologien verschiedenster Anbieter, und prüfen, welche davon für unsere Kunden nützlich sind. Mit SAP HANA haben wir uns zum Beispiel auch sehr stark befasst und den Nutzen für unsere Kunden erkannt. Daher sind wir seit diesem Jahr auch „SAP-Certified Provider of SAP HANA Operations Services“. Themen, wie Virtualisierung, Echtzeitanalysen oder die Einbindung von Mobilgeräten zum Abrufen von Daten von überall zu jeder Zeit sind aktuell interessant.

Ergänzt wird Big Data immer um das Thema Datensicherheit. Der Kern der Sache hat sich dabei aber nicht stark verändert, es kommen lediglich neue Ausprägungen hinzu, für die es wiederum neue Technologien gibt. Für uns ist es wichtig, dass unsere Kunden sich bei all den Veränderungen und verschiedensten Technologie nicht mit den einzelnen Bausteinen befassen müssen. Sie formulieren lediglich ihre Anforderungen, zu denen wir eine passende Referenzarchitektur für genau die Fragestellung aufbauen – mit den aktuellen Technologien.

Welche Rolle spielen die Angebote aus dem Apache-Park wie beispielsweise Hadoop, Spark oder Hive?

Big Data und Hadoop: Apache macht das Unmögliche möglich

Big Data lebt von großer Datenvielfalt, enormen Datenmengen und guter Verfügbarkeit. Hadoop hilft, diese zu bewerkstelligen. Wie geht das?

bigdatablog.de

Als technologieunabhängiger Systemintegrator befassen wir uns grundsätzlich mit vielen aktuellen Technologien, auch natürlich mit den Apache-Lösungen. Hadoop ist die zentrale Komponente einer Big Data Lösung für semi-strukturierte Daten, hier werden die Datenbestände abgelegt.

Ein weiterer wichtiger Baustein ist für uns aber auch eine Implementierung von System R, mit dem, neben Map-Reduce Technologien, Auswertungen implementiert werden können. In diesem Umfeld spielt dann wieder HIVE eine Rolle, bei dem die Hersteller auch eine Integration in SQL-Technologien anbieten. Aber auch neue Speichertechnologien wie NoSQL Datenbanken oder andere Werkzeuge kommen bei uns zum Einsatz. Das macht das Feld aktuell ein wenig unübersichtlich, hier wird sich in den kommenden Jahren aber die „Spreu vom Weizen“ trennen.

Im Moment geht der Trend in Richtung SaaS und Cloud-Computing. Gehören On-Premise-Lösungen der Vergangenheit an, oder gibt es noch Szenarien, in denen diese Variante weiterhin erforderlich ist?

Natürlich gehen wir gerade auch verstärkt in die Richtung Cloud, das ist für uns das große Wachstumsfeld der nächsten Jahre. Wir sind der festen Überzeugung, dass das Thema Hybrid Cloud ein zukünftig bewährtes Betriebsmodell für unsere Kunden ist, mit all seinen Vorteilen aus reduzierter Komplexität, erhöhter Skalierbarkeit oder Kostensenkungen. Dafür bieten wir schon heute Lösungen und dafür erarbeiten wir kontinuierlich weitere Lösungen.

Dennoch wird es nach wie vor auch Anforderungen für On-Premise Lösungen geben, etwa für große Enterprise Applikationen z. B. über Oracle/Exadata, oder Lösungen für semi-strukturierte Daten. Vor allem Unternehmen mit besonders sensiblen Daten fragen weiterhin On-Premise Lösungen bei uns an, das wird sich meiner Einschätzung nach mittelfristig auch nicht ändern.

Was sind aus Ihrer Perspektive die kommenden Trends: in welchen Geschäftsbereichen wird Big Data eingesetzt werden, wo es bislang noch keine große Rolle spielt? Welche Möglichkeiten bieten sich dadurch?

Ein großes Potential sehe ich aktuell darin, präzise Voraussagen zu zukünftigen Entwicklungen auf Basis von Datenmodellen treffen zu können. Diesen Trend kann man unter dem Begriff Predictive Analytics zusammenfassen. Wo das Reporting aufhört, kann ein Unternehmen mit Predictive Analytics weitergehen, um Entwicklungen besser einschätzen und letztendlich fundierte Entscheidungen für die nächsten Jahre treffen zu können.

Das kann ein großer Wettbewerbsvorteil sein, quer durch fast alle Branchen. Ich denke da z. B. an Energieversorger, die präzisere Lastprognosen erstellen, oder Industrieunternehmen, die mit „Predictive Maintenance“ eine vorausschauende Wartung vornehmen können. Gerade der Handel wird davon profitieren, Konsumentenverhalten besser voraussagen zu können.

“Handel, Energieversorger & die Industrie werden von #PredictiveMaintanence #Analytics profitieren.“

Twittern WhatsApp

Endkundenorientierte Unternehmen werden die Verbraucher in Zukunft immer besser verstehen und können so z. B. auch gezieltere Marketingkampagnen mit einem größeren ROI durchführen. Insgesamt wird sich aber das „Ökosystem“ zu Big Data noch weiter wandeln und in nächster Zeit immer wieder neue Lösungen, Standards auch natürlich daraus entwickelte Geschäftsmodelle hervorbringen.

Big Data ist sehr schnell in allen Geschäftsbereichen relevant geworden, so dass sich viele Herausforderungen erst nach und nach herauskristallisiert haben.

Was ist die größte Herausforderung im Zusammenhang mit Big Data? Die rechtlichen Rahmenbedingungen, die Datensicherheit oder die technische Machbarkeit?

Für uns selbst fangen die Herausforderungen oft schon mit dem berühmten „Henne-Ei-Problem“ an: Kunden erwarten von uns für ihre Anforderungen fertige Use Cases und Vorschläge für mögliche Big-Data-Projekte. Wir müssen aber vor einer Lösung erst einmal beleuchten, aus welchen Datenbeständen des Kunden welche Informationen die gewünschten Ergebnisse und Vorteile bringen.

Es gibt also kaum fertige Services von der Stange, jeder Kunde ist in der Lösungsfindung individuell zu betrachten. Wenn man das Thema Big Data insgesamt betrachtet, ist Datensicherheit aktuell sicher eine der größten Herausforderungen. Daher beteiligen wir uns gerade u. a. auch an dem Projekt „Trusted Data Port“, in dem es genau um die Lösung für sichere und effektive Datennutzung geht.

Arvato ist weltweit mit über 70. 000 Mitarbeitern tätig. Sie haben also einen guten Überblick über die internationale Wettbewerbsituation.

Ist der Standort Deutschland international konkurrenzfähig? Sind noch mehr oder andere Ausbildungs- und Studienmöglichkeiten notwendig?

Amazon: 450 Big-Data-Experten für Berlin | Big Data Blog

Im neuen Machine-Learning-Zentrum in Berlin will Amazon hunderte Big-Data-Experten beschäftigen, um digitale Innovationen zu entwicklen und voranzutreiben.

bigdatablog.de

Ein klares Ja zum Standort Deutschland. Die Unternehmen erfahren nach wie vor große internationale Wertschätzung und sind konkurrenzfähig. In vielen Branchen sind wir da im Vergleich gut aufgestellt und ein Wandel innerhalb der digitalen Transformation ist schon deutlich sichtbar. Dieser Wandel spiegelt sich teilweise auch schon in den Ausbildungs- und Studienmöglichkeiten wider, sodass die nachfolgenden Generationen besser gerüstet sind.

Gerade im universitären Umfeld steht z. B. „System R“ auf dem Lehrplan, die gesuchten Spezialisten werden bereits als „Data Scientists“ ausgebildet. Aber auch auf Konferenzen spüre ich die Entwicklung – hat man sich dort in der Vergangenheit „nur“ mit strukturierten Daten befasst, wird der Bogen heute deutlich mehr in Richtung semi-strukturierter Daten gespannt oder die Verknüpfung der beiden Bereiche beleuchtet.

Das „Ar“ in Arvato steht für „Kunst“ („Art“) – was ist die Kunst oder der künstlerische Aspekt bei der Datenauswertung? Die Kunst der Daten-Interpretation?

Die Kunst besteht hier in der richtigen Mischung der verschiedenen Aspekte. Als IT-Systemintegrator müssen wir unseren Kunden nicht nur aus den verschiedensten Big-Data-Technologien am Markt eine optimale und sichere Lösung für seinen Unternehmensbedarf aufstellen. Wir müssen hier schon vor der eigentlichen Auswertung ansetzen und mit dem Kunden gemeinsam erörtern, welche Daten aus welchen Quellen mit welchen Regeln auszuwerten sind, um dann die wertvollen Schlüsse aus deren Interpretation zu ziehen – optimal in Echtzeit.

“Was erwarten Kunden von IT-Dienstleistern? Matthias Mierisch von @arvatoag im Interview. #BigData“

Twittern WhatsApp

Es sind also nicht Einzelaspekte, die Kunst liegt im Zusammenspiel für ein optimales Daten-Gesamtbild, das das Unternehmen wirklich in der täglichen Arbeit unterstützt und Wettbewerbsvorteile schafft. Ein Beispiel aus der Fertigungsindustrie: Wir befassen uns gerade unter anderem mit der Auswertung von Massendaten aus der Produktionssteuerung oder Betriebs- und Maschinendatenerfassung. Die Kunst besteht hier darin, präzise Vorhersagen aus den Daten für das Unternehmen zum genau passenden Zeitpunkt zu ermöglichen, sodass man bei Bedarf in den laufenden Produktionsprozess eingreifen und die Maschinen effektiver nutzen kann. Damit bietet man Kunden einen echten Mehrwert.

Herzlichen Dank für das Interview!

Retweets

Jetzt tweeten

Wie fühlen Sie sich nach der Lektüre dieses Blogbeitrags?

"Predictive Maintanence und Predictive Analytics: Interview mit Matthias Mierisch von arvato Systems"