Wie Digitalisierung machbar wird


// Connected Manufacturing: Trends, Tipps und Erfahrungen – greifbar aufbereitet
- Anzeige -

Kooperation RWTH Aachen und Dell

Ein Win-Win für die deutsche Industrieforschung

14.05.2020
Fertigungsverfahren und -prozesse haben einen hohen Reifegrad erreicht. Um weitere Verbesserungen zu erzielen, bedarf es der effizienten Zusammenarbeit von interdisziplinären Teams, die auf modernste und leistungsstärkste IT-Systeme zurückgreifen können.

Über Big Data wird schon lange viel geredet, doch der effiziente und effektive Umgang mit sehr großen Datenmengen steckt immer noch in den Kinderschuhen. Das hat viele Gründe. Da gibt es die Unsicherheit über die potenziellen Erkenntnisse, die sich aus den schnell wachsenden Daten extrahieren lassen. Dann gibt es Akzeptanzprobleme bei den neuen Daten- und Algorithmen-basierten Entscheidungshinweisen. Und letztlich können auch die technischen Möglichkeiten nicht immer mit Vielfalt und Menge der neuen Datenberge mithalten.

Um diesen Herausforderungen zu begegnen, forscht man auch am Werkzeugmaschinenlabor (WZL) der RWTH Aachen. Dort arbeiten Wissenschaftler aus verschiedenen Disziplinen zusammen, um neue Erkenntnisse aus Maschinen-, Produkt- und Fertigungsdaten zu gewinnen. Die Teams setzen sich zusammen u.a. aus Mathematiker, Informatiker und Software-Entwickler.

Die Experten von Dell und der RWTH Aachen beim Aufbau des Streaming-Systems im Herbst 2019. Dieses System wurde weltweit nur bei der RWTH Aachen und bei zwei weiteren Pilotkunden in den USA und Asien getestet.
Die Experten von Dell und der RWTH Aachen beim Aufbau des Streaming-Systems im Herbst 2019. Dieses System wurde weltweit nur bei der RWTH Aachen und bei zwei weiteren Pilotkunden in den USA und Asien getestet.
Foto: Dell

Machen und testen, statt lange zu diskutieren

Ein Forschungsgebiet beschäftigt sich damit, Fertigungsprozesse zu optimieren. Hierzu wurden vor zwei Jahren vier Pilotlinien, sogenannte Inkubatoren, mit einem entsprechenden Umfeld eingerichtet. Eines der wesentlichen Merkmale dieser Inkubatoren ist ein starker Praxisbezug. Denn auch die Wissenschaftler haben erkannt, dass es wenig bringt, lange zu diskutieren und von vornherein alle Eventualitäten zu berücksichtigen: "Es ist viel effizienter, neue Prozesse an einem konkreten Beispiel zu erarbeiten und die Ergebnisse dann auf andere Bereiche zu übertragen", erläutert der Produktionswissenschaftler Prof. Thomas Bergs, der den Direktorien des WZLs und dem Fraunhofer-IPT angehört.

Seiner Ansicht nach wurde Digitalisierung viel zu lange abstrakt diskutiert. Jetzt sei es an der Zeit, Technologien und Verfahren zu entwickeln, um die digitale Vernetzung in Betrieben alltagstauglich und durchgängig umzusetzen.

Am Inkubator Feinschneiden werden beispielsweise die Möglichkeiten und Grenzen einer Datenökonomie untersucht. Folgendes Video des WZL zeigt den Abschluss eines Pilotprojekts. Dr. Daniel Trauth, Oberingenieur und Leiter des Bereichs für Digitale Transformation am WZL, gibt darin einen kurzen Einblick, wie sich das Internet of Production für künftige Datenmarktplätze nutzen lässt.

Feinschneiden unter der Streaming-Lupe

Einer der Inkubatoren am WZL befasst sich mit dem "Feinschneiden", also hochpräzisen Schnitten bei Großserien. Dazu müssen zunächst große Datenmengen an vorderster Front erfasst und enorm schnell verarbeitet werden. Zum System gehören analoge Sensoren, Körperschall-Sensoren sowie periphere Sensoren für die Materialeigenschaften und die Oberflächenbeschaffenheit.

Hinzu kommen bis zu 1000 Kennwerte aus den Maschinensteuerungen, die alle 0,4 Millisekunden aufgenommen werden. "Das ergibt zusammen pro Sekunde etliche Gigabytes, die sofort gespeichert und in Echtzeit voranalysiert werden müssen, damit sie sich dann später mit KI- und ML-Modellen weiter auswerten lassen", sagt Philipp Niemietz, Gruppenleiter Digitale Technologien am WZL.

Traditionell werden solche Datenmengen in kleinen Batches verarbeitet - also kein echtes Streaming. Doch den WZL-Ingenieuren war das zu wenig. Sie suchten Programme und eine Infrastruktur, mit denen sie ohne viel Eigenentwicklung echte Streaming-Modelle mit extrem geringen Latenzen implementieren und nutzen können.

Hier beginnt die Zukunft der Fertigungstechnik

An diesem Punkt mischten sich Thomas Gande und Ralf Fünders in die Diskussion ein. Gande ist Account Executive und Fünders ist System Engineer bei Dell Technologies. Beide kannten die Problematiken an der RWTH aus Ihrer täglichen Kundenbetreuung. "Ich glaube, wir haben da was passendes in petto", war Fünders ursprüngliche Vermutung. In den Folgemonaten wurde daraus eines der bedeutendsten Forschungs- und Entwicklungsprojekte von Dell Technologies. Gestartet wurde das Projekt Anfang 2019 mit viel Engagement und Manpower auf beiden Seiten.

Herausgekommen ist dabei eine Art Super-Edge-Computing-Cluster, der alle Anforderungen der Forschungs-Ingenieure weit übertrifft. Das installierte System umfasst 240 Prozessorkerne, 1,563 TB RAM, 3,84 TB SSD Speicher, 360 TB HDD Speicher und sechs Tesla GPU-Grafikkarten.

Hinzu kommt eine Software-Plattform, die darauf optimiert ist, große Datenmengen mit KI zu analysieren. Diese Plattform verbindet alle Komponenten und Services - vom smarten IoT-Sensor bis hinauf zur Cloud-Einbindung. "Wir bündeln hierbei vom Server über Storage und Netzwerke bis hin zur standardisierten Middleware alles in einer Art 'hyperconverged KI-System'", beschreibt Dr. Florian Baumann, CTO für die Bereiche Automotive und KI bei Dell Technologies in Deutschland, die Architektur.

Streaming-Plattform von Dell verarbeitet täglich 80 TByte

Für die Berechnung der Trainingsmodelle kommt die Dell Streaming Data Plattform zum Einsatz. Sie ist die Weiterentwicklung von einer Lambda- zu einer Kappa-Architektur. Diese ermöglicht es, alle Daten - auch die historischen - als "Stream" zu verarbeiten. Dadurch muss man im Programmiermodell nicht zwischen Stream und historischen Daten unterscheiden, was Overhead spart.

Das Speicher-Management des Dell-Pilots sind so konzipiert, dass die Latenzen so gering wie möglich ausfallen. Eine Virtualisierung regelt zusätzlich automatisch den Lastenausgleich.

Dies alles zusammen ermöglicht eine Streaming-Analyse von Produktionsdaten im großen Maßstab, denn bei einem 24-Stunden-Betrieb fallen an der Linie für Feinschneiden 80 TByte an. Die Berechnung der Modelle ist zwar sehr rechen- und zeitintensiv, erfolgt aber durch die Streaming Data Plattform nahezu in Echtzeit.

Das System ist am Standort Rotter Bruch installiert, an dem das WZL die Grenzen der Umformtechnik und Zerspantechnologie erforscht. In der Halle hat das WZL ein Cluster an modernsten Fertigungsmaschinen installiert, dessen Komponenten folgendes Video präsentiert:

Partnerschaft mit Dell - ein Glücksfall für die RWTH

Aufbauend auf die von Dell Technologies gelieferte Infrastruktur konnten die Ingenieure des WZL spezielle Analyseprogramme und Algorithmen entwickeln, mit denen man den Geheimnissen von minimalsten Schnittdifferenzen auf der Spur ist. Inzwischen gibt es erste Ergebnisse, die schon bald in der entsprechenden wissenschaftlichen Literatur veröffentlicht werden sollen.

Für Dell Technologies ist dieses Engagement bei einer deutschen Forschungsanstalt kein Einzelfall. "Soziales Engagement war für uns schon immer wichtig. Neben der RWTH unterstützen wir schon seit vielen Jahren die Deutsche Krebsforschung und Bildungseinrichtungen wie die RWU Ravensburg", sagt Benjamin Krebs, Direktor des Unternehmensvertriebs bei Dell Technologies in Deutschland.

Zur Startseite