Skip to main content

Open Access 2024 | Open Access | Buch

Buchtitelbild

Industrielle Datenanalyse

Entwicklung einer Datenanalyse-Plattform für die wertschaffende, kompetenzorientierte Kollaboration in dynamischen Wertschöpfungsnetzwerken

insite
SUCHEN

Über dieses Buch

Dieses Open Buch schlägt eine Brücke zwischen Theorie und Praxis für das produzierende Gewerbe im Zeitalter der Digitalisierung, der Industrie 4.0 und der Künstlichen Intelligenz. Es ist das Resultat eines vierjährigen Forschungsprojekts, das unter der Leitung des Instituts für Produktionssysteme der Technischen Universität Dortmund und der RapidMiner GmbH in Zusammenarbeit mit zwölf weiteren Partnern durchgeführt wurde. Das Hauptziel des Projekts war die Entwicklung einer Datenanalyse-Plattform zur Förderung einer effektiven und kompetenzorientierten Zusammenarbeit in dynamischen Wertschöpfungsnetzwerken.

Die zwanzig Beiträge in diesem Sammelband liefern umfassende Einblicke in die Forschungsergebnisse und schildern die gemeinsamen Erfahrungen der Partner aus produzierenden Unternehmen, Software- und Hardware-Anbietern sowie Forschungseinrichtungen. Im Fokus steht die Entwicklung von Lösungen, die in einem modularen Referenzbaukasten zusammengefasst sind. Dieser Baukasten unterstützt industrielle Datenanalysen und deren Integration in betriebliche Abläufe. Er fördert darüber hinaus eine kompetenzorientierte Zusammenarbeit und ermöglicht somit die Initiierung neuer Geschäftsmodelle und Kollaborationen.

Das Buch richtet sich an Praktiker:innen aus der Industrie ebenso wie an Wissenschaftler:innen. Es liefert Impulse und bietet Hilfestellungen, um den Herausforderungen der digitalen Transformation zu begegnen und die Zukunft der industriellen Datenanalyse erfolgreich zu gestalten.

Inhaltsverzeichnis

Frontmatter

Einleitung

Frontmatter

Open Access

Kapitel 1. Einleitung
Einführung ins Forschungsvorhaben AKKORD zur industriellen Datenanalyse in dynamischen Wertschöpfungsnetzwerken
Zusammenfassung
Das BMBF-Forschungsvorhaben AKKORD behandelt die vernetzte und integrierte Anwendung industrieller Datenanalysen für die wertschaffende und kompetenzorientierte Kollaboration in dynamischen Wertschöpfungsnetzwerken. In diesem Kapitel werden die wichtigsten Informationen zum Vorhaben eingeführt. Das übergeordnete Ziel im Forschungsvorhaben stellte die Umsetzung eines integrierten Referenzbaukastens dar, der bausteinartige Teillösungen zur Anwendung industrieller Datenanalysen bereitstellt. Dazu forschten vierzehn Konsortialpartner innerhalb von vier als Leistungsbereichen bezeichneten Teilgebieten. Untersucht wurden die Anwendungen integrierter und vernetzter Datenanalysen mit einem übergreifenden Daten-Backend-System sowie neuartige Möglichkeiten für Kollaborationen und Geschäftsmodelle sowie für die Kompetenzentwicklung und -sicherung. Neben einer Kurzvorstellung der vierzehn Partner werden in diesem Kapitel die vier zentralen Betrachtungsgegenstände des Vorhabens eingeführt und zusammenfassend erläutert. Die Ausführungen ermöglichen einen kompakten Überblick über das gesamte Forschungsvorhaben AKKORD und referenzieren bei Bedarf verwandte Kapitel sowie weiterführende wissenschaftliche Arbeiten.
Nikolai West, Ralf Klinkenberg, Jochen Deuse

Open Access

Kapitel 2. Industrielle Datenanalysen im Mittelstand
Hintergrund der Forschungsförderung und Nutzen der Forschungsergebnisse für mittelständische Unternehmen
Zusammenfassung
Seit über einem Jahrzehnt erfährt die Forschungslandschaft in Deutschland einen umfassenden Wandel unter dem Einwirken des als Industrie 4.0 bezeichneten Paradigmenwechsels. In diesem Kapitel wird der Hintergrund der Einflussfaktoren und Maßnahmen vorgestellt, die zur Entstehung des Forschungsvorhaben AKKORD beigetragen haben. Das Projekt geht auf eine Initiative der deutschen Bundesregierung vor dem Hintergrund der entwickelten Hightech-Strategie „Innovationen für Deutschland“ zurück. AKKORD beinhaltet acht praktische Anwendungsfälle, die in diesem Kapitel zusammenfassend vorgestellt werden. Ausgehend von den Ergebnissen einer Umfrage werden dann die identifizierten Handlungsbedarfe des produzierenden Gewerbes in Deutschland, und insbesondere des Mittelstandes, diskutiert. Den Abschluss des Kapitels bildet eine Auflistung der konkreten Nutzenvorteile, die sich für Unternehmen durch die Anwendung des im Projekt AKKORD entwickelten Referenzbaukastens zur industriellen Datenanalyse in dynamischen Wertschöpfungsnetzwerken eröffnen. Dieses Kapitel nimmt eine Schlüsselfunktion im zugehörigen Sammelband ein, da es die Ergebnisse aller verbleibenden Kapitel zusammenfassend behandelt und für weiterführende Details referenziert.
Nikolai West, Thomas Huber, Jochen Deuse

Open Access

Kapitel 3. Ausgangssituation und technische Grundlagen
Technische und organisatorische Rahmenbedingungen zur Anwendung industrieller Datenanalysen in dynamischen Wertschöpfungsnetzwerken
Zusammenfassung
Der Einsatz industrieller Datenanalysen zur Erzeugung von Wissen für eine Unterstützung der Entscheidungsfindung in produzierenden Unternehmen gewinnt zunehmend an Bedeutung. Bisher fehlen umfassende Lösungen, die die diversen Aufgaben zusammenführen und eine systematische sowie zielgerichtete Anwendung von Datenanalysen unterstützen. In diesem Kapitel werden die Ausgangssituation und die technischen Grundlagen beschrieben, auf denen eine derartige Plattformlösung basiert. Behandelt werden dabei sowohl allgemeingültige Themen wie Referenzmodellierung und Plattformkonzepte, als auch projektspezifische Zusammenhänge der vier Leistungsbereiche im Forschungsvorhaben. In diesem Kapitel werden die Grundlagen einer integrierten Datenvernetzung, der industriellen Datenanalyse, von Kompetenzaufbau und -sicherung sowie von digitalen Kollaborationsmöglichkeiten und Geschäftsmodellen vorgestellt. Die Arbeiten bereiten die konzeptionellen und technischen Arbeiten des Forschungsvorhabens vor und referenzieren die weiterführenden Arbeiten entsprechend.
Nikolai West, Marius Syberg, Jörn Schwenken, Thomas Eickhoff, Jens C. Göbel, Michael Frey, Andreas Emrich, Christopher A. Klupak, Felix Walker, Jochen Deuse

Open Access

Kapitel 4. Prozesskette der industriellen Datenanalyse
Durchführung von industriellen Datenanalyseprojekten entlang einer vierstufigen, tätigkeitsorientierten Prozesskette
Zusammenfassung
In diesem Kapitel wird mit der Prozesskette der industriellen Datenanalyse das zentrale Konzept des Forschungsprojekts AKKORD vorgestellt. Mithilfe der Prozesskette können im Kontext der Industrie 4.0 und der Digitalisierung die Potenziale von Datenanalysen in der industriellen Produktion erschlossen werden. Der AKKORD-Referenzbaukasten basiert auf dieser Prozesskette und umfasst sechs verschiedene Bausteine, die den Umgang mit datenwissenschaftlichen Aufgabestellungen vereinfachen. Die Zielgruppe des Referenzbaukastens sind insbesondere Kleine und Mittlere Unternehmen (KMU), die häufig mit Hindernissen bei der Durchführung von industriellen Datenanalysen konfrontiert sind. Der Referenzbaukasten macht durch die Bereitstellung von modularen und einheitlichen Lösungsbausteinen die industrielle Datenanalyse einem breiteren Nutzerspektrum zugänglich. Dabei wird auf die Wiederverwendbarkeit von Datenanalysemethoden gesetzt, um Ressourcen zu schonen und die Komplexität von Datenanalysen zu reduzieren. Die Prozesskette der Datenanalyse besteht aus den vier Schritten Zugriff, Analyse, Nutzung und Verwaltung, wobei der letzte Schritt parallel zu den weiteren Bausteinen abläuft. Die Bausteine der Prozesskette lassen sich den Schritten des etablierten Cross Industry Standard Process for Data Mining zuordnen und umfassen praxisorientierte Module. Das AKKORD-Konzept soll so die Erwartungen an die Potenziale von Industrial Data Science (IDS) erfüllen und auch unerfahrene Nutzer von diesem Trend profitieren lassen.
Nikolai West, Marius Syberg, Jörn Schwenken, Edin Klapic, Ralf Klinkenberg, Jochen Deuse

Leistungsbereiche im Referenzbaukasten

Frontmatter

Open Access

Kapitel 5. Konzeption und Entwicklung eines integrierten Datenbackends für die industrielle Datenanalyse
Vorstellung entwickelter Konzepte, Lösungsbausteine sowie einer Entscheidungshilfe zur industriellen Implementierung
Zusammenfassung
Die Verfügbarkeit relevanter Daten in den betreffenden Produktlebenszyklusphasen bildet eine notwendige Voraussetzung für die Durchführung industrieller Datenanalysen. Die individuelle Analysezielsetzung und die spezifischen Anforderungen des jeweiligen Anwendungsszenarios bestimmen essenzielle Randbedingungen für die technische Auslegung einer Datenanalyse-Umgebung. Ausgehend von den verschiedenen im Forschungsprojekt AKKORD analysierten Anwendungsfällen wurde ein modulares Vorgehensmodell entwickelt, das verschiedene Lösungsbausteine umfasst, um unterschiedliche Szenarien angemessen abbilden zu können. Dabei wird die Auswahl erforderlicher Lösungskomponenten und die Realisierung einer informationstechnischen Lösung durch einen an dem Cross-Industry Standard Process for Data Mining angelehnten Prozess unterstützt. Die abgedeckten Anwendungsszenarien schließen hierbei die dezentrale Vernetzung verschiedener Datenquellen ein, um die vorhandenen Datenquellen zu nutzen. Daneben wird der Aufbau eines zentralen Datenbackends für die integrierte Verwaltung aller relevanten Analysedaten ermöglicht. Um zusätzliche Flexibilität bei der Vorverarbeitung der Daten zu erreichen, wird als dritte Lösungskomponente ein Data-Warehouse-Ansatz eingesetzt. Für die in diesem Kapitel vorgestellten Datenbackend-Ansätze und Konzeptmodule wird weiterhin eine Entscheidungshilfe zur Auswahl der für einen spezifischen Anwendungsfall bestmöglichen Konfiguration vorgestellt. Abschließend werden Möglichkeiten für den Einsatz von Standardlösungen für den Aufbau des Datenbackends sowie für die Weitergabe der Daten an Analysemodule diskutiert und abgegrenzt.
Thomas Eickhoff, Jens C. Göbel, Christo Apostolov, Hardy Krappe

Open Access

Kapitel 6. Abstraktion und Übertragbarkeit von Datenanalysen im industriellen Kontext
Entwicklung von modularisierten Analysebausteinen zur Nutzung in industriellen Anwendungsfällen
Zusammenfassung
Datenanalysen müssen für die zielführende Anwendung im industriellen Kontext, insbesondere in kleinen und mittleren Unternehmen, entsprechend mehreren Anforderungen gestaltet sein. Dabei müssen sie vorrangig Wissen zu den jeweiligen Problemstellungen aus Daten generieren und gleichzeitig leicht für Anwender zugänglich sein, die aus verschiedenen Gründen nicht täglich mit und an ihnen arbeiten. Im Forschungsprojekt AKKORD wurde eine Lösung erarbeitet, mit der Datenanalyseprozesse zu zielgerichteten Modulen abstrahiert werden können. Das eröffnet die Möglichkeit Analysen auch in anderen Anwendungsfällen, beispielsweise in anderen Werken oder in anderen Abteilungen wiederverwenden zu können. Die im Forschungsvorhaben entwickelte Plattform wird als AI-Toolbox bezeichnet und in diesem Kapitel ausführlich vorgestellt. Mithilfe der AI-Toolbox können entwickelte Datenanalysen zum einen vorbereitet und bereitgestellt und zum anderen ausgewählt und ausgeführt werden. Das folgende Kapitel betrachtet dabei sowohl die vorherrschenden Anforderungen als auch die methodische Idee der Abstraktion und Übertragbarkeit von Datenanalysen im industriellen Kontext. Die Arbeiten führen die theoretischen Überlegungen zur Prozesskette der industriellen Datenanalyse fort und umfassen mit der Datenanalyse und -verwendung entsprechend den zweiten und dritten Schritt dieser Kette. Darüber hinaus wird die entwickelte Plattform AI-Toolbox als Schlüsseltechnologie für das Nutzen und Teilen der Module im Detail vorgestellt.
Marius Syberg, Nikolai West, Edin Klapic, Jörn Schwenken, Ralf Klinkenberg, Jochen Deuse

Open Access

Kapitel 7. Kompetenzentwicklung und -sicherung in der industriellen Datenanalyse von Wertschöpfungsnetzwerken
Vorstellung einer modularen und praxisorientierten Work&Learn-Plattform mit dem besonderen Fokus auf KMU
Zusammenfassung
Kleine und mittelständische Unternehmen (KMU) stehen vor besonderen Herausforderungen, wenn es darum geht, die vielfältigen Anwendungsmöglichkeiten der industriellen Datenanalyse für sich als Wettbewerbsvorteil zu nutzen. Aufgrund der begrenzten Ressourcen wie Kapital, Mitarbeiter und Knowhow haben gerade diese Unternehmen einen besonders großen Bedarf, um ihre Mitarbeitenden in der Anwendung von industrieller Datenanalyse auszubilden und ihre Kompetenzen stetig zu erweitern. Durch die Bereitstellung von Mikrokursen und Instrumenten, die speziell auf die Bedürfnisse von KMU abgestimmt sind, können Unternehmen ihre Mitarbeiter gezielt schulen und weiterbilden. Dies trägt nicht nur zur Förderung der beruflichen Entwicklung bei, sondern deckt auch den Bedarf an qualifizierten Fachkräften in diesem Bereich. Letztendlich wird damit insbesondere das Ziel verfolgt, den wirtschaftlichen Erfolg des Unternehmens zu verbessern. Die entwickelte Work&Learn-Plattform im Projekt AKKORD bietet verschiedene rollenbezogene Kurse, die sich an der Prozesskette der industriellen Datenanalyse (Zugriff, Analyse, Anwendung und Administration) orientiert. Die Teilnehmenden können ihre Schulungen auf ihre individuellen Ziele und Bedürfnisse abstimmen und erhalten nach erfolgreicher Kursteilnahme und Abschlusstest für die jeweilige Kompetenzrolle ein AKKORD-Zertifikat, das ihre Kompetenzen im Bereich der industriellen Datenanalyse bestätigt. Des Weiteren bietet die Plattform auch eine Ein- und Ausgangsbefragung, um den Lernfortschritt sowie den Bedarf der Teilnehmenden zu ermitteln und eine optimale Schulung zu garantieren.
Christopher Klupak, Felix Walker, Volker Zimmermann, Rebekka Adams

Open Access

Kapitel 8. Entwicklung neuer Kollaborationsmöglichkeiten und Geschäftsmodelle
Vorstellung der entwickelten Konzepte und Lösungsbausteine, sowie einer Entscheidungshilfe zu ihrer Verwendung
Zusammenfassung
Um die im Zeitalter der Digitalisierung in industriellen Unternehmen anfallenden Daten effizient über die gesamte Produktionskette hinweg zu analysieren, bedarf es einer engen Kooperation zwischen den verschiedenen Stakeholdern im Unternehmen, sowie innovativer Geschäftsmodelle zur Integration solcher kollaborativen Ansätze auch unternehmensübergreifend. Auch die Integration von Systemen zur Durchführung von Datenanalysen oder vorgelagerte Systeme zur Erfassung von relevanten Daten sind dabei als Stakeholder zu betrachten und spielen bereits bei der Gestaltung des Geschäftsmodells eine Rolle. Zu diesem Zweck wurde im Forschungsprojekt AKKORD ein Rahmenwerk für kollaborative Geschäftsmodelle entwickelt, welches die notwendigen Schritte von der Datenzugriffsebene über die Datenverarbeitungs- und Analysemodule hin zur Visualisierung einbezieht und Kollaborationsmöglichkeiten für Data-Science-Projekte aufzeigt. Das Konzept wurde exemplarisch bei der prototypischen Entwicklung einer Data-Science Anwendung im Kontext von Geschäftsmodellentwicklung und -weiterentwicklung angewendet.
Michael Frey, Andreas Emrich, Rebekka Adams, Volker Zimmermann

Erfolgsgeschichten aus der Anwendung

Frontmatter

Open Access

Kapitel 9. Datengetriebene Arbeitsplangestaltung in der Automobilfertigung
Entwicklung eines mehrstufigen Vorgehensmodells zur datenbasierten Optimierung und Gestaltung von Montagelinien
Zusammenfassung
Methoden und Werkzeuge der industriellen Datenanalyse erweitern das bisherige Methoden- und Kompetenzportfolio des Industrial Engineerings. Der Einsatz von datengetriebenen Entscheidungsunterstützungen in einem Produktionsnetzwerk leistet einen vielversprechenden Beitrag für ein ganzheitliches Produktivitätsmanagement durch das Industrial Engineering. Innovative Assistenzfunktionen zur Gestaltung und Optimierung von Arbeitssystemen steigern die Produktivität in Unternehmensumfeldern mit hoher Produkt- und Prozessvariabilität und schaffen somit einen Mehrwert. Durch die Implementierung entlang des Produktentstehungsprozesses und in der Serienphase wird der Fokus stärker auf Gestaltungsaufgaben und Wissenstransfer gelegt. Die Realisierung der datenbasierten Assistenzfunktionen für das Industrial Engineering erfolgte in verschiedenen Analyseschritten. Diese wurden am Beispiel der Türenvormontage eines Automobilherstellers validiert. Hierfür erfolgte zunächst eine automatische Standardisierung der Prozessbeschreibungen mithilfe von Text-Mining-Verfahren, welche die maschinelle Lesbarkeit der Prozessbeschreibungen sicherstellen. In weiteren Analyseschritten wurden exemplarisch sechs Vergleichskriterien implementiert. Es konnten mehr als 80 % der bauteilbezogenen Montageprozesse automatisch in sieben Arbeitsplänen der Türenvormontage identifiziert und marken- und werkübergreifend verglichen werden. Durch den datengetriebenen Vergleich bauteilbezogener Montageprozesse können dem Arbeitsgestalter insbesondere bewährte Lösungsansätze marken- und werksübergreifend bereitgestellt werden. Die im Referenzbaukasten integrierten Lösungen unterstützen das automatische Auffinden, Wiederverwenden und Vergleichen relevanter Prozessplanungsdaten und tragen einen wichtigen Teil zur konsistenten und an besonders bewährten Lösungen orientierten Prozessgestaltung in Produktionsnetzwerken bei. Die Realisierung der datenbasierten Assistenzfunktionen in eigenständigen Analyseschritten ermöglicht zudem die Verwendung der Teilergebnisse für weitere nachgelagerte Anwendungsfälle wie beispielsweise Taktungsoptimierung oder Simulationserstellung.
Christine Rese, Sven Krzoska, Edin Klapic, Nikolai West, Philipp Schlunder, Ralf Klinkenberg, Mathias Gebler, Jochen Deuse

Open Access

Kapitel 10. Kollaborative, modulare Datenanalyse als Werkzeug im Qualitätsmanagement
Potenziale von Citizen Data Science im Qualitätsmanagement zur Erweiterung der Feldbeobachtung
Zusammenfassung
Im Anwendungsfall zum datengetriebenen vernetzten Qualitätsmanagement im Forschungsprojekt AKKORD arbeiten Miele, IPS und RapidMiner an der Entwicklung eines modular erweiterbaren und ganzheitlichen Analysesystems auf Basis der im Projekt entwickelten Plattform. Inhaltlich wurden dafür Daten aus dem Bereich der Feldbeobachtung gewählt, die besonders interessant sind, da sie Rückschlüsse über die erlebte Qualität beim Kunden in der Nutzungsphase zulassen. Anhand von Ersatzteilverkäufen und anderen Datensätzen werden beispielhaft Analysebausteine zu Überwachung, Abweichungserkennung und Prognose erarbeitet. Durch die Übertragbarkeit der Analysebausteine und des Vorgehens auf sehr viele ähnliche Datenquellen kann so ein modularer Baukasten entstehen, der Transparenz über die aktuelle und zukünftige Qualitätssituation schafft. Die Erstellung der Analysebausteine durch Expertinnen und Experten aus dem Qualitätsmanagement anhand von Fragestellungen aus der Praxis wird durch ihre Befähigung auf dem Gebiet der Datenwissenschaften möglich. Dieses Kapitel beschreibt die Herangehensweise aus Sicht des Qualitätsmanagements, die Unterstützung, die AKKORD hinsichtlich der Problemstellung bietet sowie beispielhafte Ergebnisse und Analysebausteine des Anwendungsfalls im Rahmen des Forschungsprojekts.
Martina Ringeln, Sibylle Legner, Sebastian Pähler, Katharina John, Andreas Cibis, Ralf Gryga, Lennart Krüger, Corinna Osterbrink, Felix Reinhart, Edin Klapic, Ralf Klinkenberg, Marius Syberg, Hermann Ferstl, Tanja Sindram, Michael Doukas, Jochen Deuse

Open Access

Kapitel 11. Integrierte Datenanalyse zur Kollaboration in der Auftragsplanung
Implementierung einer prädiktiven Analyse zur optimalen Ressourcenallokation und Kollaboration der Geschäftsbereiche
Zusammenfassung
ERCO ist ein international führender Spezialist für nachhaltige Architekturbeleuchtung mit LED-Technologie. Das Unternehmen möchte die Informationen aus Angeboten und Aufträgen des ERP-Systems (SAP R/3) mit Informationen aus dem Customer Relationship System (SAP CRM) anreichern und eine auf Algorithmen basierende Prognose etablieren. Diese Vorhersage soll zudem mit Daten aus Social Media Quellen bzw. der Firmenwebseite ergänzt werden. Die Daten dienen somit als Grundlage der Planung von Unternehmensressourcen. Im Rahmen der unternehmensweiten Kollaboration mit Vertriebsgesellschaften, sowie der Fertigung und der Produktion bis hin zur Lieferantenintegration, dient die Prognose der Steuerung und Justierung der Wertschöpfungskette. Hier steht die Nutzung der KI Software RapidMiner im Vordergrund, um datengetriebene und fundierte Entscheidungen in der Supply Chain zu gewährleisten. Die Grundlage der Ausführungen bildet die Ausgangssituation des Unternehmens und in der Folge wird das Prognosetool und die Datenstrukturierung beschrieben. Die Implementierung erfolgt nach dem sogenannten Cross-Industry Standard Process for Data Mining und behandelt außerdem die Herausforderungen beim Aufbau der notwendigen Kompetenzen für die industrielle Datenanalyse in der Auftragsplanung.
Andreas Bohlmann, Claudia Scholten, Rachana Desai, Edin Klapic

Open Access

Kapitel 12. Potenzialanalyse industrieller Datenanalysen in der Produktion am Beispiel des Kunststoffschweißens
Umsetzungsszenario für Neuanlagen oder im Retrofit bei der automatisierten, industriellen Fertigung
Zusammenfassung
Das Kapitel beschreibt die Umsetzung der Datenakquise am Beispiel des Heizelementschweißens von Kunststoffen an einer Laborschweißanlage sowie an einer industriellen Produktionsanlage. Die Identifizierung der relevanten Datenquellen und die Verknüpfung des Expertenwissens über den Prozess sind Kernbestandteile der Realisierung. Dazu wurde zunächst er Schweißprozess in die relevanten Prozessphasen eingeteilt. Innerhalb der Phasen wurden wichtige und an der Maschine verfügbare Prozessgrößen identifiziert und mithilfe eines Datensammlers (ARENDAR) über die gesamte Prozesszeit aufgezeichnet. Im Anschluss wurden die Daten mittels KI-Methoden analysiert. Es zeigte sich u. a., dass der Prozessablauf in der Maschine Fehler enthielt. Auch der Prozessablauf war in den ersten Messungen mit falschen Parametern eingestellt, die über die Auswertungen identifiziert und korrigiert werden konnten. In weiteren Versuchsreihen wurden gezielt mit Fehlern präparierte Probekörper geschweißt und die Auswirkungen auf die erfassten Daten untersucht. Dabei stellte sich heraus, dass der Prozess sehr robust ist und die automatisierte Erkennung von Fehlern im Prozess im Labormaßstab nicht eindeutig möglich war. Weitere Messungen werden in einem industriellen Szenario durchgeführt, bei dem eine größere Anzahl an Bauteilen als im Labor geschweißt werden kann. Zusammenfassend zeigte sich, dass nur im Zusammenspiel von Datenquellen, Expertenwissen und einer geeigneten Interpretation mittels Data Science Methoden eine erfolgreiche KI-gestützte Inline-Prozessanalyse möglich ist.
Tobias Beiß, Edin Klapic, Tina Hardt, Jörn Schwenken, Jochen Deuse

Open Access

Kapitel 13. Kompetenzentwicklung und -sicherung mit einem digitalen Wissensdienst
Konzipierung und Entwicklung eines auf Konzepten und Methoden zum Kompetenzaufbau und zur Kompetenzsicherung basierenden digitalen Wissensdienstes
Zusammenfassung
Die Nutzung von modernen Methoden der Datenanalyse und Datenvernetzung in der Industrie hat in den letzten Jahren stark zugenommen und ermöglicht Unternehmen, durch die effiziente Nutzung von generiertem Wissen, wichtige Wettbewerbsvorteile zu erlangen. Deshalb nehmen die Analyse und Interpretation von Daten sowie die effiziente Nutzung des generierten Wissens einen immer größeren Stellenwert ein. Dem steht jedoch ein Mangel an erforderlichen Kompetenzen und Einführungsstrategien seitens der Mitarbeitenden sowie an strategisch ausgerichteten, praktikablen Dienstleistungs- und Technologieangeboten gegenüber. Gerade für kleine und mittlere Unternehmen (KMU) ist der Einsatz von industrieller Datenanalyse mit speziellen Herausforderungen verbunden. Dazu wurden zunächst datenwissenschaftliche Kompetenzen definiert und ermittelt. In der Folge konnten ein digitaler Wissensdienst entwickelt, technologiebasierte Lernmodule generiert und verschiedene Kollaborationsmöglichkeiten innerhalb der Plattform integriert werden. Um die Kompetenzentwicklung im Bereich der Industriellen Datenanalyse zu fördern, ist durch die Konzipierung und Entwicklung der Work&Learn-Plattform eine digitale Serviceplattform geschaffen worden, die für die (KMU-) Mitarbeitenden zum Kompetenzaufbau und -sicherung, zur Wissensaneignung und zum Austausch mit Expert:innen und weiteren Themen-Interessierten zur Verfügung steht.
Volker Zimmermann, Rebekka Adams, Christopher Klupak

Open Access

Kapitel 14. Retrofitting und Datenakquisition mittels Industrie 4.0-Technologien
Probleme und Lösungsansätze bei Prozessdatenerfassung allgemein und beispielhafte Umsetzung in AKKORD
Zusammenfassung
Daten sind die Grundlage vieler I4.0-Applikationen und auch für die Anwendung der Module der AKKORD AI-Toolbox. Es gibt viele verschiedene Arten von Daten, zum Beispiel Kundendaten, Auftragsdaten oder Rezepte in der Produktion. Dieser Artikel befasst sich speziell mit Prozessdaten. Prozessdaten sind digitale oder analoge Werte, wie beispielsweise Temperatur, Druck, Maschineneinstellungen, die relevante prozessbezogene Informationen darstellen bzw. einen Prozess beschreiben. Die Erfassung von Daten aus Prozessen ist keine triviale Aufgabe, da Anlagen oft geschlossene Systeme sind oder historisch gewachsen und dementsprechend heterogen aufgebaut sind. Hat man es mit einem geschlossenen System zu tun, ist zum Beispiel ein Problem, durch nachgerüstete Datenerfassung die Herstellergarantie nicht zu verletzen. Bei gewachsenen Systemen stellen unterschiedliche Schnittstellen und Protokolle sowie gegebenenfalls Synchronisierung und Datenzusammenführung Herausforderungen dar. Der Artikel beschreibt diese Herausforderungen, wie heterogene Datenquellen und Protokolle, bei der Akquisition von Daten im Allgemeinen, gibt Tipps zur Datenerfassung und geht beispielhaft auf die Umsetzung der Datenerfassung im Anwendungsfall des Projektpartners PolyMerge sowie dem Autorenn-Demonstrator und den Ansatz der AKKORD-Lernstation ein. Grundlegende Kenntnisse zu gängigen industriellen Protokollen und Komponenten industrieller Anlagen sind Voraussetzung, um die Schwierigkeiten und zugehörigen Tipps zu verstehen.
Tina Hardt, Hans-Joachim Mieves, Christoph Marx, Christian Meisberger

Open Access

Kapitel 15. Integration der Kundenmeinung ins Geschäftsmodell
Einbindung von Kundenmeinungen über Sentiment Analysen und Anpassungen des Geschäftsmodells
Zusammenfassung
Kundenfeedback ist von entscheidender Bedeutung für jedes Geschäftsmodell, da es wertvolle Einblicke in die Bedürfnisse, Wünsche und Probleme der Kunden bietet, die bei der Verbesserung von Produkten, Dienstleistungen und der allgemeinen Kundenerfahrung hilfreich sein können. Darüber hinaus kann eine positive Kundenbewertung das Vertrauen und die Glaubwürdigkeit eines Unternehmens erhöhen und somit langfristig zum Geschäftserfolg beitragen. Es ist jedoch mit hohem Aufwand verbunden Kundenfeedback zu erfassen, da es eine sorgfältige Planung und Umsetzung erfordert, um die Qualität und Relevanz der Rückmeldungen sicherzustellen und die richtigen Informationen zu sammeln. Das vorliegende Kapitel beschreibt die prototypische Umsetzung des in im Forschungsprojekt AKKORD entwickelten Konzepts zur digitalen Kollaborationsmöglichkeiten und Geschäftsmodellen anhand des Beispiels der teilautomatischen Integration von Kundenfeedback in ein bestehendes Geschäftsmodell. Ziel des vorliegenden Anwendungsfalls ist es, aus frei im Internet zugänglichen Quellen Meinungen zu Produkten und Dienstleistungen in unstrukturierter Weise zu erfassen und mit Hilfe von Techniken der natürlichen Sprachverarbeitung in eine strukturierte Form zu bringen, um anhand der darin enthaltenen Informationen das jeweils vorliegende Geschäftsmodell weiterzuentwickeln. Der dazu entwickelte Prototyp verwendet im Kern eine Sentiment-Analyse, um die jeweilige Stimmung des Verfassers der Produktbewertung zu extrahieren.
Michael Frey

Open Access

Kapitel 16. Vorgehensweisen für menschzentrierte Datenanalyseprojekte
Eine Reise zum erfolgreichen Umsetzen von datengetriebenen Projekten
Zusammenfassung
Das methodische Vorgehen in einem Data-Science-Projekt ist für kleine und mittelständische Unternehmen (KMU) auf verschiedenen Ebenen ein herausforderndes Thema. Neben den technischen Aspekten werden ebenso organisatorische und menschzentrierte Methoden benötigt, um den Erfolg eines Projekts zu sichern. Aktuell werden jedoch bei den auf dem Markt existierenden Data Science Vorgehensmodellen die unterschiedlichen Organisationskulturen in den verschiedenen Branchen und Firmengrößen nicht berücksichtigt. Das Ziel dieses Kapitels ist es, ein modulares Vorgehensmodell zur Unterstützung der Einführung, der Initialisierung und der Realisierung von Industriellen Data Science (IDS) Projekten im Dreiklang Mensch, Technik und Organisation für KMUs zu definieren. Das Vorgehensmodell liefert konkrete Handlungsempfehlungen für die technische Lösungsentwicklung und -umsetzung sowie das Change-Management auf Basis einer ganzheitlichen Interview-Serie „Mensch-Projekt-Organisation“ mit 50 Teilnehmer:innen. Darüber hinaus wurde das Vorgehensmodell um User Experience (UX)-Methodiken erweitert, um die Nutzerperspektive stärker in IDS-Projekte einzubinden. Das erweiterte IDS-Vorgehensmodell wurde mithilfe von einer vierteiligen Interviewserie mit End-Anwendern erfolgreich validiert. Ein weiteres Ergebnis ist das Reifegradmodell, welches KMUs die Möglichkeit bietet, anhand eines Fragebogens den Reifegrad zur Einführung von IDS-Projekten zu erfassen. Zudem wurde eine flächendeckende Studie zur Erfassung der aktuellen Verbreitung von IDS in KMUs sowie den damit verbundenen Hemmnissen mit 200 Teilnehmer:innen durchgeführt. Das Ergebnis des Kapitels ist für jene KMUs relevant, die nachhaltig erfolgreiche Data-Science-Projekte einführen, aufsetzen und realisieren wollen.
Adrienne Bühler, Andrea Rösch, Anette Schötz, Birko Ruzicka, Céline Nordmann, Daniaal Dar, Hermann Ferstl, Julian Joachimbauer, Michael Doukas, Tanja Sindram, Thomas Huber

Verwendung der AKKORD-Plattform

Frontmatter

Open Access

Kapitel 17. Umsetzung des Backend im Autorenn-Demonstrator
Datenanbindung für eine Modellautorennbahn vom Modell Digital 132 als exemplarische Umsetzung des AKKORD-Backends
Zusammenfassung
Dieses Kapitel stellt die Entwicklung und Implementierung eines Anwendungsszenarios für das Datenbackend dar, das die im Rahmen des Forschungsprojekts AKKORD entwickelten Lösungskomponenten veranschaulicht. Der Demonstrator nutzt eine Modellautorennbahn im Maßstab 1:32 als Datenquelle und greift auf die Daten mittels eines Datenzugriffsbausteins zu. Die Modellautos dienen dabei als Internet of Things-Datenquellen, die Zeitstempel für Zwischen- und Rundenzeiten sowie simulierte Tankfüllstände liefern. Diese Daten werden in einem Datenbackend gespeichert und anschließend für die Datenanalyse bereitgestellt. Der technische Aufbau des Demonstrators wird detailliert beschrieben, einschließlich der eingesetzten Protokolle und Technologien wie Bluetooth, MQTT und der Python-Bibliothek carreralib. Die Datenverwaltung erfolgt u. a. über die Software Contact Elements for IoT, und die Weitergabe der Daten an Analysebausteine wird über die SP2 IDER-Plattform ermöglicht. Der Demonstrator zeigt die praktische Umsetzung der im Projekt entwickelten Ansätze zum Aufbau einer Backend-Lösung und dient als durchgängiges Anwendungsbeispiel für den AKKORD-Referenzbaukasten. Die entwickelten Ansätze können an die individuellen Bedürfnisse und Gegebenheiten von Unternehmen angepasst werden, um Backend-Bausteine im Unternehmenskontext einzusetzen. Anhand des Demonstrators lassen sich die Konzepte einfach erklären, gleichzeitig wird eine Validierung der entwickelten Lösungsbausteine ermöglicht. Im Rahmen dieses Kapitels werden insb. die Datenanbindung, -speicherung und -weitergabe vorgestellt.
Thomas Eickhoff, Jens C. Göbel

Open Access

Kapitel 18. Umsetzung der Analysebausteine im Autorenn-Demonstrator
Datenanalysen für eine Modellautorennbahn vom Modell Digital 132 als exemplarische Umsetzung des AKKORD- Bausteine
Zusammenfassung
Dieses Kapitel beschreibt die konzeptionelle und technische Umsetzung eines anschaulichen Anwendungsszenarios für die AKKORD-Plattform. Ziel des umgesetzten Demonstrators ist es, den Nutzen der Plattform-Komponente AI-Toolbox für industrielle Datenanalysen zu veranschaulichen und die Akzeptanz bei Anwendern zu erhöhen. Der Demonstrator basiert auf einer digitalen Modellautorennbahn im Maßstab 1:32, bei der Daten aus verschiedenen Quellen erfasst und analysiert werden, beispielsweise Rennevents und Tankständen der Autos. Die gesammelten Daten werden über eine Bluetooth-Schnittstelle eines Raspberry Pis verfügbar gemacht. Zugriffs-, Analyse- und Nutzungsmodule der AKKORD-Plattform werden eingesetzt, um den Datenzugriff, die Datenanalyse und die Visualisierung der Analyseergebnisse für Anwender zu ermöglichen. Beispielhafte Analysen sind die Identifikation von Rennsieger:innen, die Berechnung der Renngeschwindigkeiten und die Prognose zukünftiger Rennsieger:innen. Die Analyseergebnisse werden in Dashboards präsentiert, um den Anwendern gehaltvolle Informationen über ihr Fahrverhalten und weitere Aspekte des Rennens zu bieten. Der Demonstrator soll den Einstieg in industrielle Datenanalysen für Anwender erleichtern und ihnen helfen, Potenziale für ihre individuellen Anwendungen der AKKORD-Plattform zu entdecken. Darüber hinaus leistet der Demonstrator einen wichtigen Beitrag zur Validierung der konzeptionellen und technischen Eignung der Bausteine des AKKORD-Referenzbaukastens. Insgesamt stellt der universitäre Demonstrator einen autarken Anwendungsfall zur Datenanalyse dar.
Jörn Schwenken, Nikolai West, Marius Syberg, Jochen Deuse

Open Access

Kapitel 19. Realisierung eines I4.0-Lerndemonstrators im Rahmen des AKKORD-Projekts
Ein hybrides Konzept für die berufsschulische und innerbetriebliche Ausbildung im Bereich Industrie 4.0
Zusammenfassung
Die zunehmende Digitalisierung von Produktionsprozessen erfordert adäquates didaktisches Material für die Aus- und Weiterbildung von Personal. Um dem Mangel an kompakten, erschwinglichen und didaktisch fundierten Demonstratoren entgegenzuwirken, haben die Real-Time-Systems GmbH und der Lehrstuhl für Berufspädagogik in den technischen Fächern der Universität Hamburg im Projekt AKKORD eine Lernstation entwickelt, die industrielle Datenerfassung und Sicherheitskonzepte vermittelt. Die AKKORD-Lernstation besteht aus einer Hardware-Komponente und einer hybriden Lernmethode, die traditionelle Präsenzveranstaltungen und digitale Elemente kombiniert. Die Lerninhalte werden in realitätsnahen Handlungssituationen vermittelt, wobei ein fiktives Sägewerk als Kontext dient. Das Lernkonzept umfasst sieben Lernaufgaben und beinhaltet eine Präsentationsphase, in der die Lernenden ihre Ergebnisse vorstellen. Eine Pilotierung an der David Röntgen Berufsschule zeigte positive Ergebnisse, obwohl kleinere Schwachstellen identifiziert wurden. Zukünftige Optimierungen umfassen die Entwicklung eines Multi-User-Interfaces und die Integration von Simulationen in die ARENDAR-Weboberfläche. Insgesamt bietet die AKKORD-Lernstation ein vielversprechendes und vielseitig einsetzbares Schulungskonzept für die Vermittlung von Industrie 4.0-Kompetenzen in der beruflichen Bildung.
Christopher Klupak, Tina Hardt

Open Access

Kapitel 20. Industrielle Datenanalyse im Einklang mit Mensch, Technik und Organisation
Ein Ausblick auf die Entwicklungen der Industriellen Datenanalysen
Zusammenfassung
Im BMBF-Forschungsvorhaben AKKORD wurden Werkzeuge entwickelt, die insbesondere kleine und mittelständische Unternehmen dazu befähigen industrielle Datenanalysen wertschöpfend einzusetzen. Im integrierten Referenzbaukasten werden bausteinartige Teillösungen zur Anwendung industrieller Datenanalysen bereitstellt. Entscheidend für die Gestaltung der Umsetzung von industrieller Datenanalyse ist der Einklang von Mensch, Technik und Organisation (MTO). Dazu wurden Lösungen für die Kompetenzentwicklung der Mitarbeiter, für die technische Datenbereitstellung und die modulare Datenanalyse entwickelt. Es hat sich gezeigt, dass Unternehmen verstanden haben, dass es längst nicht mehr nur um den Fertigungsprozess an sich geht, wenn es um eine gute Position im Markt geht. Ausgehend von den Entwicklungen in AKKORD zeigt sich, dass es im Rahmen der Betrachtung von MTO als Gestaltungsprinzipien für die nachhaltige Implementierung wichtig ist, die Bereiche Daten, Analyst und System in den Fokus zu stellen, um Hindernisse zu überwinden und Potenziale zu heben.
Jochen Deuse, Ralf Klinkenberg, Nikolai West, Marius Syberg
Metadaten
Titel
Industrielle Datenanalyse
herausgegeben von
Jochen Deuse
Ralf Klinkenberg
Nikolai West
Copyright-Jahr
2024
Electronic ISBN
978-3-658-42779-5
Print ISBN
978-3-658-42778-8
DOI
https://doi.org/10.1007/978-3-658-42779-5

Premium Partner