Was motiviert einen Anbieter für Produktionssteuerungs- und Qualitätssicherungssoftware sowie Dienstleistungen im Bereich High-Tech-Fertigung zur Einführung von Big-Data-Lösungen? Welche Herausforderungen können mit solchen Lösungen gemeistert werden? Und warum scheitern dennoch so viele Big-Data-Vorhaben in den Unternehmen? Im Interview stand uns Dr. Dirk Ortloff, Department Manager bei der camLine GmbH und Mitglied im Konsortium des Big-Data-Forschungsprojektes PRO-OPT, zu diesen Fragen Rede und Antwort.
Der Kundennutzen aus dem Projekt PRO-OPT:
• Prototypische Analysen über Standorte sind jetzt möglich
• Potenzial für die Abschaffung von teils manuellen Prozessen; viel mehr Digitalisierung
• Neue Datenanalysen und -visualisierungen
• Flexible Möglichkeit, Desktop-Analysen mit Big-Data-Analysen zu verknüpfen
Interview
Herr Ortloff, was war Ihre Motivation, sich beim Forschungsprojekt PRO-OPT zu beteiligen?
Wir hatten uns aus zwei Motivationen heraus entschieden, uns am Projekt PRO-OPT zu beteiligen: Zum einen wollten wir einfach mehr über Big-Data-Technologien lernen, weil wir diese in unsere Produktpalette integrieren wollen. Außerdem hatte sich einer unserer größten Kunden, ein namhafter Automobilzulieferer, bereits entschieden, im Projekt mitzuwirken und seine besonderen Supply-Chain-Herausforderungen hier einzubringen. Dieser Automobilzulieferer arbeitet unter anderem mit unserer Data-Warehouse-Lösung LineWorks mDICE, die wir nun im Projekt prototypisch um neue Big-Data-Ansätze erweitert haben. mDICE ist unser Tool zur detaillierten Traceability-Analyse aus den Tracking- und Tracing-Daten der gesamten Produktion sowie zum KPI Reporting.
Was waren denn die besonderen Herausforderungen dieses Automobilzulieferers?
Ein zentrales Thema war die Garantieabwicklung und Analyse der Tracking- und Tracing-Daten. Automobilzulieferer müssen bei Garantieanfragen schnell reagieren und als Teil der Supply Chain Auswertungen über ihre Produktion fahren – Stichwort Traceability. Dies gilt in einigen Bereichen auch für verbaute Teile von Zulieferern. Vom Automobilkonzern geforderte Reaktionszeiten von 24 Stunden waren bei der Unternehmensstruktur von über 60 Werken und deren lokaler Datenhoheit über die interne Supply Chain nur schwer realisierbar. Analysen nahm der Automobilzulieferer in jedem Werk separat vor und führte sie anschließend zusammen. Mit der Folge, dass die Reaktionsfristen manchmal nicht einzuhalten waren. Zudem führten die teilweise langen Laufzeiten bei zu weit gefassten Abfragekriterien zu Abbrüchen durch Timeouts. Außerdem ließ das eingesetzte Warehouse-System aufgrund der existierenden technischen Limitierungen bei so großen Datenmengen die Implementierung zusätzlich gewünschter Reports und Analysen einfach nicht zu.
Welchen Kundennutzen kann der Automobilzulieferer aus dem Projekt PRO-OPT ziehen?
Mit den prototypisch umgesetzten Big-Data-Erweiterungen und der ansatzweisen Umsetzung neuer Möglichkeiten sind nun teilautomatisierte Analysen über alle Standorte durchführbar – die lokale Datenhoheit bleibt dabei trotzdem erhalten. Durch die schnellen Datenanalysen über die interne Supply Chain konnten Abfragen teilweise um Größenordnungen beschleunigt werden. Dadurch kann der Zulieferer sehr rasch nachvollziehen, ob die Garantieansprüche an ihn gerechtfertigt sind oder nicht. Und das innerhalb der vom Automobilkonzern geforderten 24-Stunden-Frist. Somit können nun Garantieansprüche häufiger abgewehrt und Strafen wegen Überschreitung der Frist vermieden werden. Darüber hinaus sind jetzt erste Versionen von völlig neuen Datenanalysen und Visualisierungen möglich, durch die unser Kunde tiefere Einsichten in die Produktion und das Verhalten der Maschinen erhält. Generell hat das Projekt PRO-OPT für das Unternehmen die Perspektive auf Lösungen geschaffen, Desktop-Analysen flexibel mit Big-Data-Analysen zu verknüpfen.
Warum scheitern denn Ihrer Ansicht nach so viele Big-Data-Projekte in den Unternehmen?
Vielen Unternehmen fehlt einfach das Know-how, um große Big-Data-Projekte zu stemmen. Getreu dem Motto »Wir machen erst mal einen Data Lake« führen sie alle verfügbaren Daten in einem System zusammen. Denn oft unterliegen sie dem Irrglauben, dass man so viele Daten wie möglich in das System stecken sollte, um maximal viele und maximal flexible Auswertungen fahren zu können. So funktioniert das leider nicht, da wir hier ein Performance-Problem erwarten können. Deshalb muss sich das Unternehmen auch bei Big-Data-Analysen im Vorfeld Gedanken über sinnvolle Auswertungen machen, die unter Berücksichtigung der Kosten-Nutzen-Relation einen Mehrwert bieten. Eine vorgeschaltete Potenzialanalyse ist zu empfehlen und kann hier Aufschluss geben. Hinzu kommt, dass vielen Unternehmen das praktische Know-how bei der Speicherung der Daten in verteilten Systemen fehlt.
Speicherung in verteilten Systemen – wie muss ich mir das vorstellen?
Klassische Data-Warehouse-Systeme arbeiten mit relationalen Datenbanken, z. B. SQL. Diese stoßen bei datenintensiven Anwendungen und den damit verbundenen Transaktionslasten zunehmend auf Leistungs- und Effizienzprobleme. Nicht mehr akzeptable Reaktionszeiten sind die Folge. Im Projekt PRO-OPT haben wir für die Big-Data-Analysen NoSQL-Datenbanken eingeführt. Diese sind von Grund auf als verteilte, horizontal skalierende Systeme ausgelegt. Sie können riesige Datenmengen effizient speichern und punkten auch bei einer großen Anzahl parallel stattfindender Schreib- und Lesezugriffe mit ausgezeichneten Antwortzeiten – teilweise sehen wir hier eine Verbesserung der Antwortzeiten um Größenordnungen. Allerdings benötigt man auch bei NoSQL-Datenbanken ein gewisses Fachwissen, um tatsächlich schnellen Zugriff zu ermöglichen: Denn zusammengehörende Daten sollten nicht willkürlich zusammengewürfelt, sondern aufgeteilt in möglichst wenige Partitionen auf den einzelnen Rechnern gespeichert werden.
Inwiefern werden Sie die Erkenntnisse aus dem Projekt in Ihre Softwarelösungen für Produktionsunternehmen einfließen lassen?
Unsere Data-Warehouse-Lösung mDice haben wir dahingehend prototypisch erweitert, dass wir nun auch eine NoSQL-Datenbank mit verteilten Systemen integriert haben. Dadurch haben wir die Performance deutlich verbessert, und die PRO-OPT-Architektur bietet jetzt die Möglichkeit des Zugriffs über Standorte hinweg, ohne Daten zentralisieren zu müssen. Außerdem haben wir unser Datenanalysetool Cornerstone um Big-Data-Datenbankabfragen und -analysen sowie neue Visualisierungen erweitert. Auch im Bereich Supply Chain Quality Management haben wir in unser Tool LineWorks SQM die Erkenntnisse aus dem Projekt einfließen lassen. Hier geht es um die Fragestellung, wie Qualitätsdaten über die Supply Chain weitergegeben werden können. Das heißt, Qualitätsdaten werden schon vor der Lieferung ausgetauscht, sodass der Empfänger die Lieferung vor Versand freigeben oder sperren kann und die Wareneingangskontrolle nur noch stichprobenartig durchführen muss.
Wie konnte das Fraunhofer IESE zum Erfolg des Projektes PRO-OPT beitragen?
Neben einer hervorragenden technischen Projektleitungskompetenz sind die Wissenschaftler des Fraunhofer IESE bestens vertraut mit der Umsetzung von Big-Data-Projekten. Die Zusammenarbeit in PRO-OPT hat gezeigt, wie wichtig es ist, sich beim Thema Big Data Experten an die Seite zu holen. Potenzialanalysen, verteilte Datenbanksysteme, Datenmodellierung, Softwarearchitektur – das sind einige der Themen, die das IESE kompetent in das Projekt eingebracht hat. So hat das Institut die Ausarbeitung der zweckmäßigen PRO-OPT-Architektur übernommen. Außerdem haben die IESE-Kollegen für uns den ersten Datenmodellierungsansatz ausgearbeitet, sodass man gleich in Richtung Query-based Modeling gekommen ist. Mit Query-based Modeling möchte man schnellere Antwortzeiten erzielen, indem Daten als konkrete Antworten auf Fragestellungen angesehen und entsprechend auch als Antwortdaten für jede einzelne Fragestellung modelliert werden. Insgesamt kann man sagen, dass die Zusammenarbeit mit den Big-Data-Experten des Fraunhofer IESE unsere Lernkurve unglaublich reduziert hat.
Zum 31.12.2017 wird das vom Bundesministerium geförderte Projekt PRO-OPT nach drei Jahren Laufzeit zu Ende gehen. Wird Ihre Zusammenarbeit mit dem Fraunhofer IESE danach weitergehen?
Das will ich doch schwer hoffen. Gerne würden wir die erfolgreiche Zusammenarbeit mit dem Fraunhofer-IESE-Konsortium weiter ausbauen und sind gerade dabei, die nächsten Weichen zu stellen.
PRO-OPT ist ein Forschungs- und Entwicklungsprojekt im Rahmen des Technologieprogramms »Smart Data – Innovationen aus Daten« des Bundesministeriums für Wirtschaft und Energie. Projektziel ist es, Unternehmen in dezentralen, kooperativen Strukturen (Smart Ecosystems) die effektive und intelligente Analyse großer Datenmengen zu ermöglichen. Vor allem durch die Digitalisierung und Automatisierung fallen bei der Produktion immer größere Datenmengen an. Die Datenquellen liegen dabei verteilt in unterschiedlichen Standorten eines Teilnehmers oder bei verschiedenen, wirtschaftlich unabhängigen Teilnehmern des Ecosystems − insbesondere deshalb, weil in die Produktion meist nicht nur Teile aus eigener Fertigung eingehen. Übergreifende Analysen müssen unter Berücksichtigung von Zugriffsberechtigungen auf diese Quellen heruntergebrochen werden. Big-Data-Strategien sollen hier helfen, diese Analysen zu ermöglichen bzw. effizienter zu gestalten. Die Lösung wird in der Automobildomäne angesiedelt, da diese in Deutschland eine Schlüsselstellung besitzt und einen starken Leuchtturmeffekt für weitere Branchen hat.