Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2024 | OriginalPaper | Buchkapitel

3. Ausgangssituation und technische Grundlagen

Technische und organisatorische Rahmenbedingungen zur Anwendung industrieller Datenanalysen in dynamischen Wertschöpfungsnetzwerken

verfasst von : Nikolai West, Marius Syberg, Jörn Schwenken, Thomas Eickhoff, Jens C. Göbel, Michael Frey, Andreas Emrich, Christopher A. Klupak, Felix Walker, Jochen Deuse

Erschienen in: Industrielle Datenanalyse

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Der Einsatz industrieller Datenanalysen zur Erzeugung von Wissen für eine Unterstützung der Entscheidungsfindung in produzierenden Unternehmen gewinnt zunehmend an Bedeutung. Bisher fehlen umfassende Lösungen, die die diversen Aufgaben zusammenführen und eine systematische sowie zielgerichtete Anwendung von Datenanalysen unterstützen. In diesem Kapitel werden die Ausgangssituation und die technischen Grundlagen beschrieben, auf denen eine derartige Plattformlösung basiert. Behandelt werden dabei sowohl allgemeingültige Themen wie Referenzmodellierung und Plattformkonzepte, als auch projektspezifische Zusammenhänge der vier Leistungsbereiche im Forschungsvorhaben. In diesem Kapitel werden die Grundlagen einer integrierten Datenvernetzung, der industriellen Datenanalyse, von Kompetenzaufbau und -sicherung sowie von digitalen Kollaborationsmöglichkeiten und Geschäftsmodellen vorgestellt. Die Arbeiten bereiten die konzeptionellen und technischen Arbeiten des Forschungsvorhabens vor und referenzieren die weiterführenden Arbeiten entsprechend.

3.1 Einleitung

In den beiden vorangegangenen Kapiteln wurde zum einen die grundsätzliche Zielsetzung des Forschungsvorhabens AKKORD vorgestellt (siehe Kap. 1) und zum anderen wurde der Anwendernutzen der anvisierten Zielgruppe der Entwicklungsarbeiten aufgezeigt (siehe Kap. 2). Im vorliegenden Kapitel werden weiterführend die Ausgangssituation zu Beginn des Forschungsvorhabens betrachtet und die relevanten, technischen Grundlagen eingeführt.
Da im Rahmen von AKKORD ein Referenzbaukasten zur Umsetzung von wiederverwendbaren, industriellen Datenanalysen erarbeitet wird, führt dieses Kapitel nachfolgend sowohl Referenzmodelle und -architekturen als auch Plattformkonzepte und Kollaborationsplattformen ein. Abschließend werden die wissenschaftlich-technischen Grundlagen der vier im Forschungsvorhaben vertretenden Leistungsbereiche erläutert. Ausgehend von den Voraussetzungen einer integrierten Datenvernetzung wird die Anwendung industrieller Datenanalysen sowie die Prinzipien zu Kompetenzaufbau und -sicherung in Wertschöpfungsnetzwerken erläutert. Abschließend werden die Notwendigkeit von Kollaborationsmöglichkeiten und Potenziale zur Entwicklung von Geschäftsmodellen beschrieben.

3.2 Technische Grundlagen

Das zentrale Ziel im Forschungsprojekt AKKORD stellt die Entwicklung eines modularen Referenzbaukastens dar, durch den industrielle Datenanalysen in Wertschöpfungsnetzwerken zielgerichtet und wiederverwendbar eingesetzt werden können (Mazarov et al., 2019, S. 875). Im Folgenden werden daher die technischen Grundlagen zu Referenzmodellen und -architekturen, sowie von Plattformkonzepten und Kollaborationsplattformen vorgestellt.

3.2.1 Referenzmodelle und -architekturen

Bei einem Referenzmodell handelt es sich um eine abstrakte und ideale Darstellung eines allgemeinen Systems, das als Grundlage für die Entwicklung konkreter Anwendungsszenarien dient (Schwegmann, 1999, S. 53 ff.). Im Kontext vom Forschungsprojekt AKKORD sind damit insbesondere Software-Systeme gemeint. Ein Referenzmodell beschreibt dabei grundsätzlich verschiedene Elemente eines Systems, wie allgemeine Konzepte, Prozesse und Funktionen, die für eine Modellierung der jeweils spezifizierten Ausprägungen benötigt werden. Kennzeichnend ist, dass diese Elemente in wiederkehrenden Anwendungsfällen erneut genutzt werden können. Da Referenzmodelle allgemeingültig formuliert sind, müssen sie insbesondere von Kleinen und Mittleren Unternehmen (KMU) für die jeweils gearteten Markt- und Wettbewerbssituationen angepasst werden (Becker et al., 2007, S. 2). Für eine wirtschaftliche Nutzung müssen die höheren Adaptions- und Pflegeaufwände von den potenziellen Einsparungen durch das Referenzmodell kompensiert werden. Diese Herausforderung wird auch als das Referenzmodellierungsdilemma bezeichnet (Becker et al., 2002, S. 26).
Demgegenüber steht der Begriff der Referenzarchitektur. Der Begriff ist in wissenschaftlichen und praxisorientierten Arbeiten nicht unumstritten. Für eine umfassende Diskussion zum Verständnis von Referenzarchitekturen in den vergangenen Jahrzehnten verweisen wir weiterführend auf Reidt (2019, S. 18 ff.). Im Kontext der weiteren Ausführungen bezeichnet der Begriff eine spezifische Architekturbeschreibung, die als Anleitung fungiert und eine Reihe von Beschränkungen auf der Grundlage von verwandten Systemen beinhaltet (Lin et al., 2022, S. 8). Eine Referenzarchitektur kann ihrerseits auf einem Referenzmodell basieren. Damit handelt es sich um eine Musterumsetzung für eine konkrete Problem- oder Aufgabenstellung, die als Vorlage für die anschließende Entwicklung von realer Systemen dient. Eine Referenzarchitektur ist eine konkrete Implementierung des abstrakten Referenzmodells.
Der wesentliche Unterschied zwischen einem Referenzmodell und einer Referenzarchitektur liegt also im Grad der Spezifizität. Während das Referenzmodell abstrakt und allgemein strukturiert wird, stellt eine Referenzarchitektur eine konkrete Implementierung des Referenzmodells dar und umfasst auch problemspezifische Details, die für die Erfüllung einer bestimmten Problemstellung relevant sind. Um die Unterschiede, aber auch die Gemeinsamkeiten von Referenzmodellen und -architekturen aufzuzeigen, werden im nachfolgenden zwei prominente Beispiele vorgestellt und verglichen.
Als eines der bekanntesten Referenzmodelle in der Software-Entwicklung gilt das in Abb. 3.1 gezeigte Open Systems Interconnection Reference Model, kurz OSI-Referenzmodell (ISO/IEC 7498-1:1994). Es wurde von der Internationalen Organisation für Normung entwickelt und bereits im Jahr 1984 standardisiert. OSI beschreibt eine abstrakte Architektur für Netzwerkkommunikation, die aus insgesamt sieben Schichten besteht. Von jeder Schicht werden spezifische Funktionen erfüllt und Dienste angeboten, die von darüber liegend angeordneten Schichten genutzt werden können. Das OSI-Referenzmodell dient als Grundlage für die Entwicklung von konkreten Netzwerkarchitekturen, die in diesem Kontext auch als Netzwerkprotokolle bezeichnet werden (Meinel & Sack, 2012, S. 40). Es besitzt also den allgemein formulierten Charakter eines Referenzmodells und wurde in vielen Anwendungsfällen genutzt.
Insbesondere im deutschsprachigen Raum ist das Referenzarchitekturmodell Industrie 4.0, kurz RAMI4.0 genannt, weitläufig bekannt. Abb. 3.2 zeigt eine leicht vereinfachte Darstellung des Modells in ein deutscher Sprache. Das Modell beschreibt eine umfassende Architektur zur Entwicklung und Implementierung von vernetzten, cyberphysischen Systemen zur Anwendung in der Industrie 4.0 (DIN SPEC 91345:2016-04). RAMI4.0 liefert einheitliche Rahmenbedingungen für konkrete Umsetzungen von Industrie 4.0 Lösungen fest, in dem es u. a. interne Maschinendaten, externe Sensoren und angrenzende Systemumgebungen vereinigt (Wöstmann et al., 2019, S. 96). Das Modell wurde vom Verband Deutscher Maschinen- und Anlagenbauer und vom Zentralverband Elektrotechnik- und Elektroindustrie gemeinsam entwickelt. Es besitzt ebenfalls einen schichtenbasierten Aufbau und legt sowohl die horizontale als auch die vertikale Integration fest, um eine Interoperabilität von industriell genutzten Systemen und Anwendungen zu gewährleisten. RAMI4.0 gilt als wichtiges Werkzeug für produzierende Unternehmen, das sie bei der Planung und Umsetzung von Industrie 4.0 Lösungen unterstützt, indem es die konkreten Implementierungen abstrakter Architekturzusammenhänge vorbereitet.
Während das OSI-Referenzmodell also eine abstrakte und herstellerunabhängige Beschreibung der Funktionsweise von Netzwerken darstellt und die Grundlage für Netzwerkprotokolle bildet, dient RAMI4.0 als Werkzeug für Unternehmen und definiert die Schnittstellen und Beziehungen der vier Schichten in einer Wertschöpfungskette. Damit ist RAMI4.0 durch die konkrete Ausrichtung auf Anforderungen und Charakteristika der Industrie 4.0 deutlich spezifischer. OSI hingegen ist allgemeiner und beschreibt die Grundprinzipien der Netzwerkkommunikation, die in vielen Anwendungsbereichen eingesetzt werden können.

3.2.2 Plattformkonzepte und Kollaborationsplattformen

Der Begriff Plattformkonzept bezeichnet ein allgemeines Konzept der Informations- bzw. Organisationstechnik, das auf einer zentralen Infrastruktur zur Entwicklung und Bereitstellung von Diensten und Anwendungen basiert. Diese Infrastruktur wird als Plattform bezeichnet, da sie eine einheitliche Schnittstelle zur Erstellung, Integration und Nutzung von sowohl von Hardware- als auch von Software-Komponenten anbietet (Engelhardt et al., 2017, S. 11, 2017, S. 22). Plattformkonzepte zielen darauf ab, eine Vereinfachung in der Entwicklung von Anwendungen zu erreichen, indem verschiedene Entwicklungsressourcen bereitgestellt und die Zusammenarbeit zwischen Diensten und Entwicklern unterstützt wird. Gleichzeitig werden Skalierbarkeit und Flexibilität gewährleistet, durch die schnelle Bereitstellung und Aktualisierung von Diensten und Anwendungen. Der Siegeszug von Plattformen basiert vor allem auf den Fortschritten im Bereich des Cloud-Computing, das als wichtige Grundlage für die Bereitstellung von Anwendungen und Diensten gilt (Pfeiffer et al., 2019, S. 2). Während sich Plattformkonzepte auf spezifische Technologien oder Branchen beziehen können, wird nachfolgend insbesondere die Anwendung industrieller Datenanalysen behandelt.
Als Kollaborationsplattformen werden spezifische Software-Anwendungen bezeichnet, die einen Austausch oder die Zusammenarbeit zwischen verschiedenen Personen, Gruppen oder Organisationen ermöglichen, um gemeinsame Ziele zu erreichen. Dabei handelt es sich meist um eine digitale Plattform, die menschlichen Nutzern den Austausch von Informationen und Wissen ermöglicht, die Kommunikation unterstützt und die gemeinsame Arbeit an Projekten erleichtert. Kollaborationsplattformen stellen dafür zielgerichtete Funktionen bereit, wie beispielsweise Nachrichtenaustausch, Videotelefonie, Dateifreigabe, Projektmanagement-Werkzeuge oder gemeinsame Dokumentenbearbeitung (Weißmann & Hardwig, 2020, S. 7 ff.). Einige Kollaborationsplattformen integrieren zusätzlich Werkzeuge oder Anwendungen von Drittanwendern, beispielsweise E-Mail-Programme, Projektmanagement-Software oder Kundenbeziehungsmanagement. In den vergangenen Jahren haben Kollaborationsplattformen insbesondere in dezentralisierten oder globalisierten Arbeitsumgebungen Einzug gehalten, da sie Kooperationen über geographische und organisatorische Grenzen hinweg ermöglichen (Syberg et al., 2023, S. 64 f.).
Während eine Kollaborationsplattform also primär Unterstützung zur Zusammenarbeit und Kommunikation unterschiedlicher Akteure bereitstellt, bezieht sich ein Plattformkonzept hingegen auf eine umfangreiche Palette von Funktionen und Technologien, die zum Aufbau und Betrieb der Plattform notwendig sind. Zusammenfassend beschreibt ein Plattformkonzept also die strategische Ebene einer Plattform, während eine Kollaborationsplattform vor allem die operative Ebene umfasst, die Nutzern eine Zusammenarbeit ermöglicht.
Wie zuvor werden nachfolgend erneut zwei Beispiele betrachtet, um die Zusammenhänge und Unterschiede von Plattformkonzepten und Kollaborationsplattformen zu verdeutlichen.
Ein bekanntes Beispiel für ein Plattformkonzept stellen die. Amazon Web Services dar, kurz AWS-Plattform genannt. Als Plattformkonzept basiert AWS auf einem serviceorientierten Ansatz, der Kunden Cloud-basierte Dienste und Infrastrukturen bereitstellt. Dazu zählen beispielsweise Ansätze wie Infrastruktur-, Plattform- und Software-as-a- Service (Amazon Web Services, 2021, S. 5 f.). Diese Leistungen gelten als skalierbar, robust und sicher und schließen datenwissenschaftliche Funktionen wie Verarbeitung, Speicherung und Analyse großer Datenmengen mit ein. AWS kann über eine einzige Schnittstelle und eine benutzerorientierte Konsole verwaltet werden, um eine durchgängige Verwendung sicherzustellen. Aufgrund der breiten Auswahl von Leistungen die AWS bereitstellt, gilt das Plattformkonzept als eines der erfolgreichsten Modelle für Cloud-Computing (Mufti et al., 2020, S. 4).
Ein ebenso verbreitetes Beispiel für eine Kollaborationsplattform ist Microsoft Teams, kurz auch oft nur Teams genannt, die als Teil von Microsoft Office 365 angeboten wird. Als Anwendung bietet Teams Funktionen für Kommunikation, Dateiaustausch, Meetings und Zusammenarbeit an gemeinsamen Projekten an. So werden unterschiedliche Formen der Zusammenarbeit unterstützt, die in Echtzeit oder asynchron ablaufen können. Durch Teams können Menschen miteinander über Chat, Audio- und Videoanrufe, virtuelle Meetings oder durch den Austausch von Dateien kommunizieren (Buchal & Songsore, 2019, S. 2 ff.). Als Kollaborationsplattform ermöglicht Teams auch die Erstellung von Kanälen, um Gruppen von Teammitgliedern zusammenzufassen, um die Zusammenarbeit an spezifischen Projekten oder Themen zu erleichtern. Zusammenfassend gilt Teams als umfassende Kollaborationsplattform, da sie speziell für Unternehmensbedürfnisse entwickelt wurde und eine effiziente sowie koordinierte Zusammenarbeit operativer Tätigkeiten ermöglicht (Ilag & Sabale, 2022, S. 2 ff.).

3.3 Status Quo der vier Leistungsbereiche

Die vernetzte und integrierte Nutzung von industriellen Datenanalysen in dynamischen Wertschöpfungsnetzwerken erfordert das Zusammenwirken von sehr unterschiedlichen Themen- und Fachgebieten. Wie bereits in Kap. 1 erläutert werden dazu in AKKORD vier als Leistungsbereiche bezeichnete Teilbereiche betrachtet. Dazu zählen Werkzeuge zur integrierten Datenvernetzung, zur Anwendung der industriellen Datenanalyse, zum Aufbau und zur Sicherung von Kompetenzen sowie zur Ausschöpfung von Kollaborationsmöglichkeiten und neuen Geschäftsmodellen. Die wissenschaftlich-technischen Grundlagen der vier Leistungsbereiche werden in den nachfolgenden vier Abschnitten sukzessiv erläutert.

3.3.1 Integrierte Datenvernetzung

Ein großes Problem für die industrielle Datenanalyse in KMU ist der Umstand, dass die Daten häufig redundant, auf verschiedenen Systemen und in unterschiedlichen Formaten verteilt sind. Dies erschwert die Arbeit mit den Daten, da unklar ist, ob auf alle relevanten Daten zugegriffen werden kann. Als zentrale IT-Lösung des Produktentwicklungsprozesses bietet sich das Produktdatenmanagement und das darauf aufbauende Product Lifecycle Management (PLM) an (Eigner et al., 2014, S. 267 ff.). Hier werden alle Dokumente, die von der ersten Idee bis zur finalen Produktstruktur anfallen, verwaltet. Im weiteren Verlauf der Produktentstehung werden die produktions- und logistikbezogenen Informationen in Produktionsplanungs- und -steuerungssystemen (PPS) verwaltet (Eigner et al., 2014, S. 301 ff.). Eine große Herausforderung stellt für viele Unternehmen das Aftersales-PLM dar. Der Umgang mit den Daten aus Ersatzteilmanagement, Wartung, Reparatur, Überholung und Dienstleistungen sowie das Zurückspielen von Felddaten, beispielsweise über IoT-Plattformen, an die Produktentwickler verlangt, dies alles auf einem gemeinsamen Produkt- und Prozessmodell umzusetzen.
Durch den technischen Fortschritt ändern sich sowohl die Funktionen als auch die entstehenden Daten. Davon sind auch bereits bestehenden Systemen betroffen. So ändert sich beispielsweise durch IoT-Plattformen die Möglichkeit des Datenzugriffs. Angebundene IoT-Assets können in Echtzeit Informationen an die Plattform liefern, was unmittelbarere Analysen ermöglicht. Moderne Vorgehensmethoden des Model Based System Engineerings ermöglichen eine durchgängige Vernetzung von Produktdaten, erfordern im Gegenzug aber auch ein kohärentes Gesamtkonzept zur Datenverwaltung. Des Weiteren werden auch gänzlich neue Felder der Datengenerierung erschlossen, beispielsweise durch die Entwicklung und Anwendung von Digitale-Zwillinge-Konzepten. Der digitale Zwilling ist hierbei mehr als die Repräsentation eines realen Systems oder Produkts, sondern bietet auch eine Datenverarbeitung oder Interaktionen und Eingriffsmöglichkeiten für den laufenden Betrieb an (Göbel & Eickhoff, 2020, S. 74 ff.). Durch diese erweiterten Objekte kann die Vision eines entlang des Produktlebenszyklus durchgängigen und rückverfolgbaren Produktmodells realisiert werden (Gilz & Eigner, 2013, S. 293 ff.). In diesem Kontext wird auch von System Lifecycle Management gesprochen (Eigner et al., 2014, S. 374).
Einen Anwendungsfall für integrierte Datenvernetzung stellen Savarino und Dickopf (2022, S. 257 ff.) vor. Cyber-physische Systeme, die um Smart Services erweitert werden, haben einen hohen Anteil an interdisziplinären Komponenten. Durch die Analyse der Stücklisten und Arbeitspläne in Kombination mit den Daten aus dem Echtzeit-Feedback der Nutzungsphase, kann ein ganzheitlicher Ansatz für intelligente Produktstücklisten und Arbeitsplänen entwickelt werden.
Für die zur industriellen Datenanalyse nötigen Integration der Daten in ein Backendsystem ergeben sich gleich mehrere Herausforderungen, nämlich die Verteilung, Autonomie und die Heterogenität der Daten (Leser & Naumann, 2007, S. 49 ff.). Bei der Verteilung besteht zum einen das physische Problem, das Daten sich auf unterschiedlichen Speicherorten befinden. Zum anderen kann es auch ein logisches Problem werden, wenn die Daten auf unterschiedlichen Systemen und teilweise redundant gespeichert werden. Vor allem wenn die Redundanz unkontrolliert geschieht, kann dies durch den fehlenden Abgleich zu Problemen führen. Die Autonomie der Datenquellsysteme führt bei jedem System zu eigenen Regeln und Strukturen für die generierten Daten, Schnittstellen und Zugriffsrechte. Durch die Verteilung und der Autonomie entsteht eine große Heterogenität an Datenstrukturen, Schnittstellen, Austauschformaten sowie Kommunikationsprotokollen (Leser & Naumann, 2007, S. 58 ff.).
Zum Umgang mit diesen Herausforderungen wurden bereits erste Ansätze entwickelt. Ihnen ist gemein, Daten in einem schlanken Backbone in neutralen, transparenten und archivierbaren Formaten zu verwalten (siehe beispielsweise Mogo Nem, 2011; Ernst, 2016). Der Sicherstellung der Datenqualität fällt in dieser Thematik eine Schlüsselrolle zu, um Multi Source Probleme wie beispielsweise widersprüchliche Werte oder unterschiedliche Einheiten aus dem Weg zu gehen (Helmis & Hollmann, 2009).
Ein Ansatz, um mit diesen Problemen umzugehen, ist die Erweiterung eines Data Warehouse um einen Data Lake. In einem Data Warehouse ist die Datenstruktur im Voraus definiert und für schnelle Abfragen optimiert. Die Daten sind bereinigt, umgewandelt und können als sogenannte Single-Source-of-Truth betrachtet werden. Ein Data Lake kann nicht nur wie ein Data Warehouse strukturierte Daten, sondern auch unstrukturierte Daten speichern. Diese unstrukturierten Daten können entweder durch den Verzicht der Strukturierung generiert werden oder aus Quellen wie mobilen Apps, IoT-Geräten oder sozialen Medien gewonnen werden. Der Vorteil der Kombination dieser Speicherkonzepte ist die Möglichkeit der Nutzung neuer Abfrage- und Analysemodellen. Die Umsetzung kann hierbei auf eigener Hardware oder unter Einsatz von Cloudlösungen geschehen. Die Verwendung standardisierter Softwareplattformen ermöglicht hierbei auch nachträglich ein hohes Maß an Flexibilität (vgl. Amazon Web Services, 2021).

3.3.2 Industrielle Datenanalyse

Für die Umsetzung von industriellen Datenanalysen müssen verschiedene Voraussetzungen erfüllt werden. Die industrielle Produktion ist ein komplexer Prozess, der aufgrund seiner zahlreichen Variablen und dynamischen Eigenschaften eine systematische Überwachung und Analyse erfordert. In diesem Zusammenhang sind innovative Methoden der Datenanalyse von entscheidender Bedeutung, um eine effiziente Kontrolle und Steuerung der Produktionsprozesse zu ermöglichen (Deuse et al., 2022, S. 1 ff.). Eine erweiterbare Methode zur Verteilung und Konfiguration der Sensorik im gesamten Fertigungsprozess und die Speicherung der Daten in beschreibenden Prozessen und Modellen sind grundlegende Voraussetzungen, um einen umfassenden Überblick über den Fertigungsprozess zu gewährleisten. Weiterhin sind Methoden zur Erkennung und Fehlerbehebung von Ereignissen in der Produktion sowie Methoden zur Speicherung von Echtzeitdaten und Durchführung von Korrelationsanalysen für große Datensätze und Datenströme nach bestimmten Dimensionen unabdingbar, um mögliche Fehler und Abweichungen im Produktionsprozess frühzeitig zu erkennen. Darüber hinaus erfordert eine erfolgreiche Datenanalyse in der industriellen Produktion eine kontinuierliche Anpassung komplexer Ereignisvorhersagemodelle, um einen reibungslosen Produktionsablauf unter Berücksichtigung der auftretenden Dynamik zu gewährleisten. Eine Methode zur Erzeugung von Alarmmeldungen als Reaktion auf erwartete Abweichungen vom geplanten Produktions- bzw. Herstellungsziel auf der Basis einer rechnerischen Analyse ist dabei ein wichtiger Faktor (Krumeich et al., 2014, S. 16 ff.; Babiceanu & Seker, 2016, S. 132 f.).
Um Produktionsfehler zu reduzieren und die Effizienz des Produktionsprozesses zu erhöhen, ist es auch notwendig, Vorschläge und automatisierte Entscheidungsmethoden zur Verfügung zu stellen. Schließlich ist eine Methode zur aktiven Anpassung des Produktionsprozesses auf der Grundlage von Berechnungen und Analysen ein zentraler Aspekt, um eine reibungslose Produktion zu gewährleisten und die Produktionsqualität zu erhöhen. Zur automatisierten Auswertung großer Datenmengen stehen in der modernen Datenanalyse einige Verfahren zur Verfügung, darunter auch das Data Mining (Hastie et al., S. 1 ff.; Fayyad et al., 1996, S. 27 ff.). Durch die Anwendung des Data Mining können bisher unbekannte Strukturen und Zusammenhänge in großen Datenmengen entdeckt und wertschöpfend genutzt werden (Witten et al., 2011, S. 3). Die möglichen Lösungsansätze sind dabei ebenso vielfältig wie die jeweiligen Anwendungsfälle: In der Instandhaltung können beispielsweise durch Vorhersagen Aussagen über den bevorstehenden Ausfall von Bauteilen oder Anlagen getroffen werden (Wöstmann et al., 2019, S. 94 ff.). In der Produktionsplanung können beispielsweise durch selbstlernende Agenten Vorschläge für optimale Produktionspläne gemacht werden (West et al., 2021b, S. 347 ff.). In der Produktionssteuerung können beispielsweise durch gezielte Vorhersagen Engpässe antizipiert und proaktiv vermieden werden (West et al., 2022a, S. 612 ff., b, S. 3 ff.). Im Qualitätsmanagement können mithilfe von Anomalie-Erkennung bisher unentdeckte Fehler identifiziert und verhindert werden (Schlegl et al., 2022, S. 1 ff.; West et al., 2021c, S. 762 ff.).
Zur Informationsgewinnung durch das Data Mining stehen verschiedene Prozessmodellen zur Auswahl, wie beispielsweise Knowledge Discovery in Database (Fayyad et al., 1996, S. 27 ff.) oder Cross-Industry Standard Process for Data Mining, abgekürzt auch CRISP-DM genannt (Chapman et al., 2000, S. 1 ff.). Insb. das CRISP-DM besitzt eine gute Eignung für industrielle Datenanalysen, da es mit seiner klar definierten Projektstruktur als intuitiv gilt und so entwickelt wurde, dass es branchenunabhängig genutzt werden kann. Das Vorgehensmodell ist in Abb. 3.3 dargestellt und zeigt den iterativen Charakter des Modells auf.
Zur Aufdeckung der möglich nutzbaren Potenziale muss zunächst das Ziel des Projekts definiert werden. Außerdem müssen alle nötigen Datensätze zur Verfügung stehen. Der für die Modellierung und somit für das Ergebnis zentralste Schritt ist die Vorverarbeitung der Datensätze. In diesem zeitaufwendigen Schritt werden Datenbestände selektiert oder zusammengeführt, fehlende Werte ersetzt, Ausreißer eliminiert und ggf. Daten transformiert. Mit den bereinigten Datensätzen als Ergebnis der Datenvorverarbeitung können verschiedene Modelle trainiert werden. Mittels überwachter oder unüberwachter Lernverfahren werden so neue Muster entdeckt und Zusammenhänge verifiziert (Witten et al., 2011).
Unüberwachte Lernverfahren, wie das Clustering oder Assoziationsregeln, dienen dem Auffinden neuer Zusammenhänge und Muster in historischen Datenbeständen, ohne dass eine Zielgröße bekannt ist. Bei den überwachten Lernverfahren, beispielsweise Klassifikation- oder Regressionsverfahren, ist dagegen die Zielgröße bekannt und kann im Sinne einer Prognose prospektiv abgeschätzt werden. Darüber hinaus können zur Bewältigung hoher Komplexität in gewissen Problemstellungen Agentensysteme eingesetzt werden. Im Bereich der Informatik agieren mehrere Agenten innerhalb eines solchen Systems, die jeweils mit einem Verhalten einen gewissen Zielzustand kontrollieren können. Ein Ansatz zur Kombination solcher Agentensysteme mit Künstlicher Intelligenz stellt das Reinforcement Learning, das bestärkende Lernen, dar. Dabei lernt ein Agent, selbstständig zu agieren und durch ein gewisses Verhalten langfristig seine Belohnung zu optimieren. Er trifft dadurch bessere Entscheidungen, was in unterschiedlichen Problemstellungen vorteilhaft ist (Hastie et al., 2009, S. 5 f.).
Die Erkenntnisse aus dem Data Mining und das praktische Erfahrungswissen der Mitarbeiter bilden in Kombination eine wesentliche Grundlage zu Unterstützung für zukünftige Entscheidungen in Unternehmen (Deuse et al., 2014, S. 5 f.). Pioniere in der Nutzung des Data Mining sind die Banken und Versicherungsgesellschaften (Prasad & Madhavi, 2012, S. 96). Bereits seit längerer Zeit prognostizieren sie Entwicklungen und schätzen deren Risiko ab, indem sie große Mengen historischer Daten Auswerten und mit ihnen echtzeitnahe Daten generieren. Industrieunternehmen setzen in den letzten Jahren jedoch auch vermehrt auf die Methoden des Data Mining, vor allem in den Einsatzfeldern des Qualitätsmanagements, der Prozessoptimierung und der Instandhaltung (Dogan & Birant, 2021). Eine breite Adaption dieser Ansätze auf den Industriestandort Deutschland, in dem der Großteil der Unternehmen KMU-ähnliche Strukturen aufweist, ist noch nicht erfolgt. Hemmnisse, die einer breiten Anwendung von Data Mining Verfahren entgegenstehen, wurden im Rahmen einer Studie des Fraunhofer IPA identifiziert (siehe Weskamp et al., 2014). Neben dem Vorhandensein einer ausreichenden Menge an Datensätzen in der für die Aufgabe erforderlichen Qualität sind für die Anwendung von Data Mining neben Domänenwissen spezifische Kompetenzen und Fachwissen erforderlich, um Modelle trainieren und evaluieren zu können. Weiterhin bleiben den befragten Unternehmen die erforderlichen Voraussetzungen sowie der erzielbare Zusatznutzen unklar.
Trotz der anwenderfreundlichen Gestaltung der bestehenden Werkzeuge zur Datenanalyse, beispielsweise durch modulbasierte oder Drag-and-Drop-Gestaltung der Software, wirkt dies bisher kaum dem fehlenden Fachwissen der Anwender entgegen. Da noch immer die geeigneten Parameter und Verfahren vom Anwender auszuwählen sind, kann von keiner Anwendungsunterstützung durch die Software gesprochen werden. Um entsprechende Verfahren der Datenanalyse zielführend anzuwenden, ist es im industriellen Kontext entscheidend, die entsprechenden Gegebenheiten in diesem Umfeld zu berücksichtigen. Dies gilt in der Kompetenzentwicklung wie auch in der Gestaltung geeigneter Werkzeuge zur Anwendung. Dabei müssen u. a. sowohl die Individualität der Anwendungsfälle, als auch Sicherheitsaspekte oder technische Voraussetzungen beachtet werden (Syberg et al., 2023, S. 64 ff.). Eine ausführliche Betrachtung der umgesetzten Werkzeuge zur Unterstützung von industriellen Datenanalysen findet sich weiterführend in Kap. 6.

3.3.3 Kompetenzaufbau und -sicherung

Die vorhandenen Kompetenzen der Mitarbeitenden sind maßgeblich für den Umsetzungserfolg von industriellen Datenanalysen bei produzierenden Unternehmen entscheidend. Sie werden nicht nur für das erfolgreiche Anwenden von Methoden benötigt, sondern auch um die richtige Methode für das passende Problem auszuwählen und die Ergebnisse zu interpretieren und richtige Schlussfolgerungen zu ziehen.
Die benötigten Kompetenzen der Mitarbeiter lassen sich in zwei Bereiche aufteilen: Fachkompetenz, die zur Bewältigung der sachlichen Aspekte der Berufsanforderung dient, und methodenbezogene Kompetenz, die universelle Problemlösefähigkeiten umfasst (Stefânicâ et al., 2017, S. 843 ff.). Die Kompetenzen und ihre Ausprägungen, die jeder Mitarbeiter benötigt, sind stark vom jeweiligen Aufgabengebiet abhängig (Becker et al., 2011, S. 1 ff.). Waren in der Vergangenheit die benötigten Kompetenzen bekannt, verschieben sich durch den Einzug der Industrie 4.0 diese, da sich auch die Arbeitsprozesse neu definieren. Dies nötigt die Unternehmen, die Kompetenzprofile ihrer Mitarbeiter weiterzuentwickeln (Arnold et al., 2016, S. 1 ff.).
In einer von Acatech durchgeführten Studie gibt es erste Hinweise, welche Kompetenzen zukünftig für die Mitarbeiter eines erfolgreichen Unternehmens relevant werden (acatech, 2016, S. 9 ff.). Im Fokus der Untersuchung stand die Erfassung, Förderung und Sicherung technologie-, daten-, prozess- und kundenorientierter Kompetenzen, sowie Kompetenzen zur Infrastruktur und Organisation. Demzufolge sind Fachkompetenzen im Bereich der Datenanalyse und des Verständnisses für Geschäftsprozesse ebenso relevant wie die personenbezogenen Kompetenzen zur Abstimmung, Kollaboration und Information aller Beteiligten. Ein Problem hierbei ist, dass es nur wenige Ansätze zur Erfassung des Standes der Kompetenzen der jeweiligen Mitarbeiter gibt.
Ein großes Problem bei der Ermittlung der Kompetenzen ist, dass zwar für die Fachkompetenzen objektive Leistungstests hinzugezogen werden können, für die personenbezogenen Kompetenzen allerdings oftmals nur über eine Selbsteinschätzung der Mitarbeiter Daten generiert werden können (Nickolaus & Walker, 2016, S. 7 ff.). Aus diesem Grund wird auf die Ergebnisse von Arbeiten zur Förderung von fachlichen Kompetenzen mittels digitaler Medien im beruflichen Bereich (Walker et al., 2016, S. 1 ff.) als auch im Bereich Industrie 4.0 (Faath-Becker & Walker, 2020, S. 109 ff.) zurückgegriffen. Die Kompetenzförderung wird besonders durch den Einsatz digitaler Technologien und den Prinzipien des situierten Lernens unterstützt (Stegmann et al., 2018, S. 967 ff.). Es lassen sich so vier Gestaltungsprinzipien für die technologieunterstützte, situierte Lernumgebung beschreiben (Rosen & Salomon, 2007, S. 1 ff.):
1.
Authentizität und Anwendungsbezug mittels realer Probleme und Situationen.
 
2.
Multiple Kontexte und Perspektiven zur Entwicklung der Fachkompetenzen.
 
3.
Kooperatives Lernen und Problemlösen für den Umgang mit komplexen Problemen und die Entwicklung sozialer Kompetenzen.
 
4.
Instruktionale Anleitung und Unterstützung, beispielsweise mittels Feedbacks.
 
Vor allem der letzte Punkt kommt in den situierten Lernprozessen eine besondere Rolle zu, da es hilft diesen zu regulieren. Allerdings hängt die Wirksamkeit des Feedbacks von verschiedenen Faktoren ab (Narciss, 2006, S. 1 ff.). So ist adaptives Feedback beispielsweise wirksamer als nichtadaptives Feedback (Marschner, 2011, S. 1 ff.). Eine Studie von Birdman et al., (2022, S. 1139 ff.) gibt einen Hinweis, wie eine situierte Lernumgebung gestaltet werden kann. So wurden Studenten in einem Modul angehalten sowohl Vorlesungen als auch Gruppen- und Einzelarbeiten zu absolvieren. Der Fortschritt der Kompetenzbildung der Studenten wurde in regelmäßigen Interviews evaluiert. Durch den regelmäßigen Austausch der Studenten untereinander und mit den Lehrenden werden die vermittelten Kompetenzen nachhaltig verinnerlicht. Im Rahmen des Projektvorhabens wird erstmals dem oben formulierten Defizit begegnet, dass bislang auf Unternehmensebene große Unklarheit herrscht, welche Kompetenzen aufseiten der Mitarbeiter in Bezug auf industrielle Datenanalyse in Wertschöpfungsnetzwerken benötigt werden. Hierfür werden gezielte Recherchen, Analysen und Befragungen auf Unternehmensebene durchgeführt, aufbereitet und in entsprechende Instrumente zur Kompetenzmessung überführt.
Um dem Umstand, dass bezüglich der Kompetenzförderung im Bereich der industriellen Datenanalyse keine Ansätze bzw. Konzepte bestehen, zu begegnen, werden technologiebasierte situierte Lernmodule in Anhängigkeit der ermittelten Kompetenzen entwickelt. Die Basis der Lernmodule stellt der empirisch fundierte kognitionspsychologische Ansatz des situierten Lernens dar, welcher in besonderem Maße zum Kompetenzaufbau in Unternehmen geeignet ist. In die Lernmodule werden individuelle, adaptive Feedbackelemente implementiert, wodurch die Kompetenzförderung zusätzlich verstärkt werden soll.
Durch Integration der Instrumente und der Lernmodule innerhalb des als webbasierte, digitale Service-Plattform ausgeprägten Referenzbaukastens, wird ein digitaler Wissensdienst realisiert, welcher die Anwendung der Datenanalyse im Rahmen der Kompetenzentwicklung ermöglicht.

3.3.4 Kollaborationsmöglichkeiten und Geschäftsmodelle

Für die Forschung ist das Feld der Geschäftsmodelle seit dem Internetboom am Ende der 1990er Jahre zunehmend in den Fokus gerückt. Burkhart et al. (2011, S. 109 ff.) arbeiten verschiedene existierende Definitionen des Begriffs „Geschäftsmodell“ auf und versuchen auf der Basis den Begriff folgendermaßen zu definieren:
Ein Geschäftsmodell beschreibt die logische Funktionsweise eines Unternehmens und insbesondere die spezifische Art und Weise, mit der es Gewinne erwirtschaftet. Grundsätzlich soll die Beschreibung von Geschäftsmodellen helfen, die Schlüsselfaktoren des Unternehmenserfolges oder Misserfolges zu verstehen, zu analysieren und zu kommunizieren.
Aufgrund der Globalisierung und der zunehmenden Nachfrage nach kundenspezifischen Kleinserienprodukten werden die Fertigungsaktivitäten immer weiter verstreut und digital verwaltet. Gerade in Branchen mit geringer Fertigungstiefe sind häufig auch viele kleine Akteure insb. KMUs einbezogen. Entsprechend müssen sich diese den neuen Integrationsbedürfnissen anpassen und ihre Geschäftsmodelle entsprechend ändern.
Im Rahmen der Digitalisierung sind neue Geschäftsmodelle zumeist datengetrieben und bieten ein Angebot an Services an, das ergänzend zum etablierten Ansatz des Produktverkaufs passt. Eine Vernetzung der Wertschöpfungsnetzwerke ist dabei essentiell für die Nutzung serviceorientierter Geschäftsmodelle, da ein Unternehmen in diesen Fällen mit einer Vielzahl von anderen Akteuren für die Leistungserbringung zusammenarbeiten muss. Die relevanten Netzwerke sind in diesem Fall das Entwicklungs- und Produktionsnetzwerk, OEM und das Servicenetzwerk. Diese Vernetzung wird erst dann möglich, wenn sich Unternehmen unterschiedlicher Kompetenzebenen im Wertschöpfungsnetzwerk einigen, wie Sensoren, Geräte, Infrastruktur, Plattformen und Services entlang der Wertschöpfungskette genutzt werden (BMWi, 2015, S. 1 ff.). Der Einsatz einer zentralen Service-Plattform erscheint in diesem Zusammenhang äußerst sinnvoll, um die verschiedenen Akteure einzubinden und Kollaborationsmöglichkeiten zu diesen Fragestellungen anzubieten. Dadurch besteht die Möglichkeit zur Vernetzung der Akteure und zur Optimierung der individuellen oder gemeinsamen Geschäftsmodelle.
Gerade bei Produkten und Dienstleistungen mit einer komplexen Wertschöpfungskette wird es immer relevanter, sowohl positives als auch negatives Feedback aus der Kundenbasis möglichst genau einzelnen Geschäftsmodellkomponenten und Akteuren zuzuordnen. Für die Geschäftsmodelle selbst erlaubt dies ein selbstadaptives Geschäftsmodell, das sich entsprechend dem Feedback weiterentwickelt kann. Die Zuordnung zu Akteuren andererseits lässt die Lokalisierung von Problemen in der Zulieferkette einfacher realisieren. Somit können kollaborative Geschäftsmodelle kontinuierlich verbessert und angepasst werden, indem die jeweiligen Akteure entsprechend auf das Feedback eingehen und ihren Beitrag zum Geschäftsmodell und dem dazugehörigen Wertangebot verbessern.
Gerade für ein solches selbstadaptives Geschäftsmodell eignen sich Methoden der künstlichen Intelligenz, indem sie immer bessere Analysen kurzfristiger und langfristiger Kundenpräferenzen und der Nutzung von Produkten ermöglichen. Mittels natürlicher Sprachverarbeitung können hier Kundenaussagen passgenau automatisiert Komponenten eines Geschäftsmodells zugeordnet werden. Diese Methoden erlauben somit eine passive Integration des Kunden in die ständige Evaluation und Entwicklung des Geschäftsmodells.
Die automatisierte Auswertung von Nutzungsdaten von Produkten und Dienstleistungen liefert eine umfassende Datenbasis um die Qualität von Angeboten zu bewerten und den subjektiven Eindrücken der Nutzer im Sinne von Kundenfeedback eine objektive Erhebungsbasis gegenüber zu stellen. So lassen sich Korrelationen zwischen subjektivem und objektivem Feedback generieren, Inkonsistenzen und Prioritäten aufdecken sowie Zusammenhänge zwischen Kundenbewertungen und Produktdefekten identifizieren. Dies wiederum kann der Produktentwicklung wichtige Anhaltspunkte für die Entwicklung neuer Wertangebote und die Qualitätskontrolle bieten.
Aber nicht nur für bereits im Einsatz befindliches Geschäftsmodelle bieten diese Ansätze, sondern auch für die Entwicklung neuer Geschäftsmodelle im Sinne von Unternehmenskooperation. Nach dem Prinzip von Open Business Models müssen solche Wertschöpfungsnetzwerke ihr gemeinsames Geschäftsmodell möglichst offen und adaptiv gestalten. Die Konzeption und Weiterentwicklung von Geschäftsmodellen erfordert entsprechende Werkzeuge für die kollaborative Definition der Geschäftsmodelle (Emrich et al., 2018, S. 1309 ff.), aber auch kontinuierlichen Austausch und Kommunikation zwischen den Akteuren. Mitunter ist auch die Partnerauswahl in einem solchen Netzwerk von Interesse. Hier müssen oft Problemstellungen und Lösungsansätze verknüpft werden, Technologien für die Realisierung bestimmter Business Needs identifiziert werden. Auch hierfür gibt es bereits Ansätze (Emrich et al., 2018, S. 1309 ff.).
Die beschriebenen Technologie- und Managementtrends sind bisher nur in Einzelansätzen in der betrieblichen Realität angekommen. Eine durchgängige Anwendung dieser Ansätze würde eine konsequente Kollaboration zwischen den Akteuren in einer zentralen, digitalen Plattform erfordern. Neben dem kollaborativen Management der Geschäftsmodelle selbst sollen so auch Kundenfeedback- und Produktnutzungsdaten als Feedback in das Management der Geschäftsmodelle einfließen und Akteure können somit individuelle Maßnahmen für sich ableiten. So kann es beispielsweise im Zuge der Geschäftsmodellweiterentwicklung erforderlich sein, neue Kompetenzen im Wertangebot zu ergänzen. Dies kann entweder durch die Hinzunahme neuer Partner in das Netzwerk realisiert werden oder durch die Weiterbildung der bestehenden Partner durch einen entsprechenden Kompetenzaufbau (beispielsweise durch das neue Angebot eines Webshops).
Deshalb müssen Kollaborationsmöglichkeiten in allen Phasen des Geschäftsmodellmanagements zur Verfügung gestellt werden, nämlich Analysemodule zur gemeinsamen Untersuchung relevanter Datenphänomene, die Zuordnung zu Akteuren und Geschäftsmodellbereichen, sowie die kollaborative Bearbeitung der zugrunde liegenden Geschäftsmodelle.

3.4 Ausblick

In diesem Kapitel wurde mit der Darstellung der Ausgangssituation und der technischen Grundlagen die Basis für die folgenden konzeptionellen und technischen Entwicklungen gelegt. Während das nächste Kapitel die entwickelte Prozesskette zur Anwendung von industriellen Datenanalysen beschreibt (siehe Kap. 4), werden daraufhin die Ergebnisse der Leistungsbereiche in Teil II insb. die Erkenntnisse aus Abschn. 3.3 aufgreifen und weiter ausführen. Bereits in diesem Kapitel haben dazu die Vertreter:innen die entsprechende Perspektive ihres Leistungsbereichs eingenommen und in den Abschnitten ausgeführt. Abschließend, sei für einen tiefergehenden Ausblick auf Kap. 20 verwiesen, das die weiterführende Entwicklung der industriellen Datenanalyse unter Berücksichtigung von Mensch, Technik und Organisation diskutiert.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur
Zurück zum Zitat acatech. (2016). Kompetenzen für Industrie 4.0. Qualifizierungsbedarfe und Lösungsansätze. Herbert Utz. acatech. (2016). Kompetenzen für Industrie 4.0. Qualifizierungsbedarfe und Lösungsansätze. Herbert Utz.
Zurück zum Zitat Amazon Web Services. (2021). Eine Übersicht über das AWS Cloud Adoption Framework. Whitepaper zu AWS (3. Aufl.). AWS Inc. Amazon Web Services. (2021). Eine Übersicht über das AWS Cloud Adoption Framework. Whitepaper zu AWS (3. Aufl.). AWS Inc.
Zurück zum Zitat Arnold, D., Butschek, S., Steffes, S., & Müller, D. (2016). Forschungsbericht 468 – Digitalisierung am Arbeitsplatz. Arnold, D., Butschek, S., Steffes, S., & Müller, D. (2016). Forschungsbericht 468 – Digitalisierung am Arbeitsplatz.
Zurück zum Zitat Becker, J., Delfmann, P., Knackstedt, R., & Kuropka, D. (2002). Konfigurative Referenzmodellierung. In J. Becker & R. Knackstedt (Hrsg.), Wissensmanagement mit Referenzmodellen. Konzepte für die Anwendungssystem- und Organisationsgestaltung (S. 25–144). Physica. Becker, J., Delfmann, P., Knackstedt, R., & Kuropka, D. (2002). Konfigurative Referenzmodellierung. In J. Becker & R. Knackstedt (Hrsg.), Wissensmanagement mit Referenzmodellen. Konzepte für die Anwendungssystem- und Organisationsgestaltung (S. 25–144). Physica.
Zurück zum Zitat Becker, J., Delfmann, P., & Rieke, T. (2007). Referenzmodellierung. Perspektiven für die effiziente Gestaltung von Softwaresystemen. In J. Becker, P. Delfmann, & T. Rieke (Hrsg.), Effiziente Softwareentwicklung mit Referenzmodellen (S. 1–10). Physica.CrossRef Becker, J., Delfmann, P., & Rieke, T. (2007). Referenzmodellierung. Perspektiven für die effiziente Gestaltung von Softwaresystemen. In J. Becker, P. Delfmann, & T. Rieke (Hrsg.), Effiziente Softwareentwicklung mit Referenzmodellen (S. 1–10). Physica.CrossRef
Zurück zum Zitat Becker, M., Spöttl, G., & Fischer, M. (Hrsg.). (2011). Von der Arbeitsanalyse zur Diagnose beruflicher Kompetenzen. Methoden und methodologische Beiträge aus der Berufsbildungsforschung. Peter Lang GmbH Internationaler Verlag der Wissenschaften. Becker, M., Spöttl, G., & Fischer, M. (Hrsg.). (2011). Von der Arbeitsanalyse zur Diagnose beruflicher Kompetenzen. Methoden und methodologische Beiträge aus der Berufsbildungsforschung. Peter Lang GmbH Internationaler Verlag der Wissenschaften.
Zurück zum Zitat Birdman, J., Wiek, A., & Lang, D. J. (2022). Developing key competencies in sustainability through project-based learning in graduate sustainability programs. International Journal of Sustainability in Higher Education, 23(5), 1139–1157. https://doi.org/10.1108/IJSHE-12-2020-0506. Birdman, J., Wiek, A., & Lang, D. J. (2022). Developing key competencies in sustainability through project-based learning in graduate sustainability programs. International Journal of Sustainability in Higher Education, 23(5), 1139–1157. https://​doi.​org/​10.​1108/​IJSHE-12-2020-0506.
Zurück zum Zitat BMWi. (2015). Industrie 4.0 und Digitale Wirtschaft. Impulse für Wachstum, Beschäftigung und Innovation (S. 7–12). Bundesministerium für Wirtschaft und Energie. BMWi. (2015). Industrie 4.0 und Digitale Wirtschaft. Impulse für Wachstum, Beschäftigung und Innovation (S. 7–12). Bundesministerium für Wirtschaft und Energie.
Zurück zum Zitat Burkhart, T., Krumeich, J., Werth, D., & Loos, P. (2011). Analyzing the business model concept. A comprehensive classification of literature. Proceedings of the International Conference on Information Systems, 109–130. Burkhart, T., Krumeich, J., Werth, D., & Loos, P. (2011). Analyzing the business model concept. A comprehensive classification of literature. Proceedings of the International Conference on Information Systems, 109–130.
Zurück zum Zitat Chapman, P., Clinton, J., Kerber, R., Khabaza, T., Reinartz, T., Shearer, C., & Wirth, R. (2000). CRISP-DM 1.0. Step-by-step data mining guide, CRISP-DM consortium. Chapman, P., Clinton, J., Kerber, R., Khabaza, T., Reinartz, T., Shearer, C., & Wirth, R. (2000). CRISP-DM 1.0. Step-by-step data mining guide, CRISP-DM consortium.
Zurück zum Zitat Deuse, J., Erohin, O., & Lieber, D. (2014). Wissensentdeckung in vernetzten, industriellen Datenbeständen. Industrie, 4, 373–395. Deuse, J., Erohin, O., & Lieber, D. (2014). Wissensentdeckung in vernetzten, industriellen Datenbeständen. Industrie, 4, 373–395.
Zurück zum Zitat DIN SPEC 91345:2016-04, 04.2016: Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0). DIN SPEC 91345:2016-04, 04.2016: Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0).
Zurück zum Zitat Eigner, M., Roubanov, D., & Zafirov, R. (2014). Modellbasierte virtuelle Produktentwicklung. Springer. Eigner, M., Roubanov, D., & Zafirov, R. (2014). Modellbasierte virtuelle Produktentwicklung. Springer.
Zurück zum Zitat Emrich, A., Klein, S., Frey, M., Fettke, P., & Loos, P. (2018). A platform for data-driven self-consulting to enable business transformation and technology innovation. In P. Drews, B. Funk, P. Niemeyer, & L. Xie (Hrsg.), Data driven x – turning data into value (MKWI) (S. 1309–1315). Leuphana Universität Lüneburg. https://doi.org/10.22028/D291-33441. Emrich, A., Klein, S., Frey, M., Fettke, P., & Loos, P. (2018). A platform for data-driven self-consulting to enable business transformation and technology innovation. In P. Drews, B. Funk, P. Niemeyer, & L. Xie (Hrsg.), Data driven x – turning data into value (MKWI) (S. 1309–1315). Leuphana Universität Lüneburg. https://​doi.​org/​10.​22028/​D291-33441.
Zurück zum Zitat Engelhardt, S. V., Wangler, L., & Wischmann, S. (2017). Eigenschaften und Erfolgsfaktoren digitaler Plattformen. VDI/VDE Innovation + Technik GmbH. Engelhardt, S. V., Wangler, L., & Wischmann, S. (2017). Eigenschaften und Erfolgsfaktoren digitaler Plattformen. VDI/VDE Innovation + Technik GmbH.
Zurück zum Zitat Ernst, J. (2016). Systemübergreifendes Änderungsmanagement: Graphbasierte Identifikation und Visualisierung betroffener Konfigurationselemente aus PLM und ERP. Technische Universität Kaiserslautern. Ernst, J. (2016). Systemübergreifendes Änderungsmanagement: Graphbasierte Identifikation und Visualisierung betroffener Konfigurationselemente aus PLM und ERP. Technische Universität Kaiserslautern.
Zurück zum Zitat Faath-Becker, A., & Walker, F. (2020). Development of a video-based test instrument for the assessment of professional competence in the vocational teacher training course. In E. Wuttke, J. Seifried, & H. Niegemann (Hrsg.), Vocational education and training in the age of digitization: Challenges and opportunities (S. 109–130). Verlag Barbara Budrich. https://doi.org/10.2307/j.ctv18dvv1c.9. Faath-Becker, A., & Walker, F. (2020). Development of a video-based test instrument for the assessment of professional competence in the vocational teacher training course. In E. Wuttke, J. Seifried, & H. Niegemann (Hrsg.), Vocational education and training in the age of digitization: Challenges and opportunities (S. 109–130). Verlag Barbara Budrich. https://​doi.​org/​10.​2307/​j.​ctv18dvv1c.​9.
Zurück zum Zitat Gilz, T., & Eigner, M. (2013). Ansatz zur integrierten Verwendung von SysML Modellen in PLM zur Beschreibung der funktionalen Produktarchitektur. In M. Maurer & S.-O. Schulze (Hrsg.), Tag des Systems Engineering (S. 293–302). Carl Hanser Verlag GmbH & Co. KG.CrossRef Gilz, T., & Eigner, M. (2013). Ansatz zur integrierten Verwendung von SysML Modellen in PLM zur Beschreibung der funktionalen Produktarchitektur. In M. Maurer & S.-O. Schulze (Hrsg.), Tag des Systems Engineering (S. 293–302). Carl Hanser Verlag GmbH & Co. KG.CrossRef
Zurück zum Zitat Hastie, T., Tibshirani, R., & Friedman, J. (2009). The elements of statistical learning. Springer Series in Statistics. Hastie, T., Tibshirani, R., & Friedman, J. (2009). The elements of statistical learning. Springer Series in Statistics.
Zurück zum Zitat Helmis, S., & Hollmann, R. (2009). Webbasierte Datenintegration. Vieweg+Teubner. Helmis, S., & Hollmann, R. (2009). Webbasierte Datenintegration. Vieweg+Teubner.
Zurück zum Zitat Ilag, B. N., & Sabale, A. M. (2022). Troubleshooting Microsoft teams. Enlisting the right approach and tools in teams for mapping and troubleshooting issues. Apress Media LLC.CrossRef Ilag, B. N., & Sabale, A. M. (2022). Troubleshooting Microsoft teams. Enlisting the right approach and tools in teams for mapping and troubleshooting issues. Apress Media LLC.CrossRef
Zurück zum Zitat ISO/IEC 7498-1:1994, 15.11.1994: Information technology – Open Systems Interconnection. ISO/IEC 7498-1:1994, 15.11.1994: Information technology – Open Systems Interconnection.
Zurück zum Zitat Krumeich, J., Werth, D., Loos, P., Schimmelpfennig, J., & Jacobi, S. (2014). Advanced planning and control of manufacturing processes in steel industry through big data analytics: Case study and architecture proposal. IEEE International Conference on Big Data (Big Data), 16–24. Krumeich, J., Werth, D., Loos, P., Schimmelpfennig, J., & Jacobi, S. (2014). Advanced planning and control of manufacturing processes in steel industry through big data analytics: Case study and architecture proposal. IEEE International Conference on Big Data (Big Data), 16–24.
Zurück zum Zitat Leser, U., & Naumann, F. (2007). Informationsintegration. Architekturen und Methoden zur Integration verteilter und heterogener Datenquellen. Dpunkt. Leser, U., & Naumann, F. (2007). Informationsintegration. Architekturen und Methoden zur Integration verteilter und heterogener Datenquellen. Dpunkt.
Zurück zum Zitat Lin, S.-W., Simmon, E., Young, D., Miller, B., Durand, J., Bleakley, G., et al. (2022). The industrial internet reference architecture. Version 1.10. An industrial IoT consortium foundational document: Industry IoT consortium. Lin, S.-W., Simmon, E., Young, D., Miller, B., Durand, J., Bleakley, G., et al. (2022). The industrial internet reference architecture. Version 1.10. An industrial IoT consortium foundational document: Industry IoT consortium.
Zurück zum Zitat Marschner, J. (2011). Adaptives Feedback zur Unterstützung des selbstregulierten Lernens durch Experimentieren. Dissertation, Universaität Duisburg-Essen, Duisburg, Essen. Marschner, J. (2011). Adaptives Feedback zur Unterstützung des selbstregulierten Lernens durch Experimentieren. Dissertation, Universaität Duisburg-Essen, Duisburg, Essen.
Zurück zum Zitat Mazarov, J., Wolf, P., Schallow, J., Nöhring, F., Deuse, J., & Richter, R. (2019). Industrial Data Science in Wertschöpfungsnetzwerken. Konzept einer Service-Plattform zur Datenintegration und -analyse, Kompetenzentwicklung und Initiierung neuer Geschäftsmodelle. Zeitschrift für wirtschaftlichen Fabrikbetrieb, 114(12), 874–877. https://doi.org/10.3139/104.112205. Mazarov, J., Wolf, P., Schallow, J., Nöhring, F., Deuse, J., & Richter, R. (2019). Industrial Data Science in Wertschöpfungsnetzwerken. Konzept einer Service-Plattform zur Datenintegration und -analyse, Kompetenzentwicklung und Initiierung neuer Geschäftsmodelle. Zeitschrift für wirtschaftlichen Fabrikbetrieb, 114(12), 874–877. https://​doi.​org/​10.​3139/​104.​112205.
Zurück zum Zitat Meinel, C., & Sack, H. (2012). Internetworking. Technische Grundlagen und Anwendungen. Springer.CrossRef Meinel, C., & Sack, H. (2012). Internetworking. Technische Grundlagen und Anwendungen. Springer.CrossRef
Zurück zum Zitat Mogo Nem, F. (2011). Engineering networks: Holistic approach for multidisciplinary product lifecycle management. Technische Universität Kaiserslautern. Mogo Nem, F. (2011). Engineering networks: Holistic approach for multidisciplinary product lifecycle management. Technische Universität Kaiserslautern.
Zurück zum Zitat Narciss, S. (2006). Informatives tutorielles Feedback. Entwicklungs- und Evaluationsprinzipien auf der Basis instruktionspsychologischer Erkenntnisse. Waxmann. Narciss, S. (2006). Informatives tutorielles Feedback. Entwicklungs- und Evaluationsprinzipien auf der Basis instruktionspsychologischer Erkenntnisse. Waxmann.
Zurück zum Zitat Nickolaus, R., & Walker, F. (2016). Kompetenzorientierung in der beruflichen Bildung. In A. Dietzen, R. Nickolaus, B. Rammstedt, & R. Weiß (Hrsg.), Kompetenzorientierung. Berufliche Kompetenzen entwickeln, messen und anerkennen (S. 7–27). W. Bertelsmann Verlag GmbH & Co. KG. Nickolaus, R., & Walker, F. (2016). Kompetenzorientierung in der beruflichen Bildung. In A. Dietzen, R. Nickolaus, B. Rammstedt, & R. Weiß (Hrsg.), Kompetenzorientierung. Berufliche Kompetenzen entwickeln, messen und anerkennen (S. 7–27). W. Bertelsmann Verlag GmbH & Co. KG.
Zurück zum Zitat Prasad, U. D., & Madhavi, S. (2012). Prediction of churn behavior of bank customers using data mining tools. Business Intelligence Journal, 5(1), 96–101. Prasad, U. D., & Madhavi, S. (2012). Prediction of churn behavior of bank customers using data mining tools. Business Intelligence Journal, 5(1), 96–101.
Zurück zum Zitat Reidt, A. (2019). Referenzarchitektur eines integrierten Informationssystems zur Unterstützung der Instandhaltung. Dissertation, Technische Universität München, München. Reidt, A. (2019). Referenzarchitektur eines integrierten Informationssystems zur Unterstützung der Instandhaltung. Dissertation, Technische Universität München, München.
Zurück zum Zitat Rosen, Y., & Salomon, G. (2007). The differential learning achievements of constructivist technology-intensive learning environments as compared with traditional ones: A Meta-analysis. Journal of Educational Computing Research, 36(1), 1–14. Rosen, Y., & Salomon, G. (2007). The differential learning achievements of constructivist technology-intensive learning environments as compared with traditional ones: A Meta-analysis. Journal of Educational Computing Research, 36(1), 1–14.
Zurück zum Zitat Savarino, P., & Dickopf, T. (2022). Enhancing product test management by using digital twins for device under test analysis. In O. C. Junior, F. Noël, L. Rivest, & A. Bouras (Hrsg.), Product lifecycle management. Green and blue technologies to support smart and sustainable organizations (Bd. 640, S. 257–271). Springer International Publishing (IFIP Advances in Information and Communication Technology). Savarino, P., & Dickopf, T. (2022). Enhancing product test management by using digital twins for device under test analysis. In O. C. Junior, F. Noël, L. Rivest, & A. Bouras (Hrsg.), Product lifecycle management. Green and blue technologies to support smart and sustainable organizations (Bd. 640, S. 257–271). Springer International Publishing (IFIP Advances in Information and Communication Technology).
Zurück zum Zitat Schwegmann, A. (1999). Objektorientierte Referenzmodellierung. Theoretische Grundlagen und praktische Anwendung. Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH; Deutscher Universitäts-Verlag GmbH.CrossRef Schwegmann, A. (1999). Objektorientierte Referenzmodellierung. Theoretische Grundlagen und praktische Anwendung. Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH; Deutscher Universitäts-Verlag GmbH.CrossRef
Zurück zum Zitat Stefӑnicӑ, F., Abele, S., Walker, F., & Nickolaus, R. (2017). Modeling, measurement, and development of professional competence in industrial-technical professions. In M. Mulder (Hrsg.), Competence-based vocational and professional education. Bridging the worlds of work and education (Bd. 23, S. 843–861). Springer International Publishing. Stefӑnicӑ, F., Abele, S., Walker, F., & Nickolaus, R. (2017). Modeling, measurement, and development of professional competence in industrial-technical professions. In M. Mulder (Hrsg.), Competence-based vocational and professional education. Bridging the worlds of work and education (Bd. 23, S. 843–861). Springer International Publishing.
Zurück zum Zitat Stegmann, K., Wecker, C., Mandl, H., & Fischer, F. (2018). Lehren und Lernen mit digitalen Medien. Ansätze und Befunde der empirischen Bildungsforschung. In R. Tippelt & B. Schmidt-Hertha (Hrsg.), Handbuch Bildungsforschung (4. Aufl., S. 967–988). Springer VS.CrossRef Stegmann, K., Wecker, C., Mandl, H., & Fischer, F. (2018). Lehren und Lernen mit digitalen Medien. Ansätze und Befunde der empirischen Bildungsforschung. In R. Tippelt & B. Schmidt-Hertha (Hrsg.), Handbuch Bildungsforschung (4. Aufl., S. 967–988). Springer VS.CrossRef
Zurück zum Zitat Syberg, M., West, N., Schwenken, J., Adams, R., & Deuse, J. (2023). Requirements for the development of a collaboration platform for competency-based collaboration in industrial data science projects. In F. P. García Márquez, I. Segovia Ramírez, P. J. Bernalte Sánchez, & A. Muñoz del Río (Hrsg.), IoT and data science in engineering management. CIO 2022. Lecture notes on data engineering and communications technologies (Bd. 160, S. 64–69). Springer. https://doi.org/10.1007/978-3-031-27915-7_12. Syberg, M., West, N., Schwenken, J., Adams, R., & Deuse, J. (2023). Requirements for the development of a collaboration platform for competency-based collaboration in industrial data science projects. In F. P. García Márquez, I. Segovia Ramírez, P. J. Bernalte Sánchez, & A. Muñoz del Río (Hrsg.), IoT and data science in engineering management. CIO 2022. Lecture notes on data engineering and communications technologies (Bd. 160, S. 64–69). Springer. https://​doi.​org/​10.​1007/​978-3-031-27915-7_​12.
Zurück zum Zitat Walker, F. (2016). Digitalisierung in Theorie und Praxis: Kommt die Ausbildung 4.0 in Technikberufen? In BMWi (Hrsg.), Digitale Bildung. Themenheft Mittelstand-Digital (S. 14–16). Walker, F. (2016). Digitalisierung in Theorie und Praxis: Kommt die Ausbildung 4.0 in Technikberufen? In BMWi (Hrsg.), Digitale Bildung. Themenheft Mittelstand-Digital (S. 14–16).
Zurück zum Zitat Weißmann, M., & Hardwig, T. (2020). Arbeit mit Kollaborationsplattformen. Gestaltungsempfehlungen. Soziologisches Forschungsinstitut Göttingen e. V. Weißmann, M., & Hardwig, T. (2020). Arbeit mit Kollaborationsplattformen. Gestaltungsempfehlungen. Soziologisches Forschungsinstitut Göttingen e. V.
Zurück zum Zitat Weskamp, M., Tamas, A., Wochinger, T., & Schatz, A. (2014). Einsatz und Nutzenpotenziale von Data Mining in Produktionsunternehmen. Fraunhofer IPA. Weskamp, M., Tamas, A., Wochinger, T., & Schatz, A. (2014). Einsatz und Nutzenpotenziale von Data Mining in Produktionsunternehmen. Fraunhofer IPA.
Zurück zum Zitat Witten, I. H., Frank, E., & Hall, M. A. (2011). Data mining. Practical machine learning tools and techniques (3. Aufl.), Morgan Kaufmann. Witten, I. H., Frank, E., & Hall, M. A. (2011). Data mining. Practical machine learning tools and techniques (3. Aufl.), Morgan Kaufmann.
Zurück zum Zitat West, N., Gries, J., Brockmeier, C., Göbel, J. C., & Deuse, J. (2021a). Towards integrated Data Analysis Quality. Criteria for the application of Industrial Data Science. IEEE International Conference on Information Reuse and Integration for Data Science (IRI), 22(1), 131–138. https://doi.org/10.1109/IRI51335.2021.00024. West, N., Gries, J., Brockmeier, C., Göbel, J. C., & Deuse, J. (2021a). Towards integrated Data Analysis Quality. Criteria for the application of Industrial Data Science. IEEE International Conference on Information Reuse and Integration for Data Science (IRI), 22(1), 131–138. https://​doi.​org/​10.​1109/​IRI51335.​2021.​00024.
Zurück zum Zitat West, N., Hoffmann, F., Schulte, L., Moreno, V. H., & Deuse, J. (2021b). An approach for deep reinforcement learning for production planning in value streams. In J. Franke & P. Schuderer (Hrsg.), Simulation in Produktion und Logistik (S. 347–356). Cuvillier. West, N., Hoffmann, F., Schulte, L., Moreno, V. H., & Deuse, J. (2021b). An approach for deep reinforcement learning for production planning in value streams. In J. Franke & P. Schuderer (Hrsg.), Simulation in Produktion und Logistik (S. 347–356). Cuvillier.
Zurück zum Zitat West, N., Schlegl, T., & Deuse, J. (2021c). Feature extraction for time series classification using univariate descriptive statistics and dynamic time warping in a manufacturing environment, IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering, 762–768. https://doi.org/10.1109/ICBAIE52039.2021.9389954. West, N., Schlegl, T., & Deuse, J. (2021c). Feature extraction for time series classification using univariate descriptive statistics and dynamic time warping in a manufacturing environment, IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering, 762–768. https://​doi.​org/​10.​1109/​ICBAIE52039.​2021.​9389954.
Zurück zum Zitat West, N., Schwenken, J., & Deuse, J. (2022a). Comparative study of methods for the real-time detection of dynamic bottlenecks in serial production lines. In H. Fujita, P. Fournier-Viger, M. Ali, & Y. Wang (Hrsg.), Advances and trends in artificial intelligence. Theory and practices in artificial intelligence (S. 3–14). Springer. https://doi.org/10.1007/978-3-031-08530-7_1. West, N., Schwenken, J., & Deuse, J. (2022a). Comparative study of methods for the real-time detection of dynamic bottlenecks in serial production lines. In H. Fujita, P. Fournier-Viger, M. Ali, & Y. Wang (Hrsg.), Advances and trends in artificial intelligence. Theory and practices in artificial intelligence (S. 3–14). Springer. https://​doi.​org/​10.​1007/​978-3-031-08530-7_​1.
Zurück zum Zitat West, N., Syberg, M., & Deuse, J. (2022b). A holistic methodology for successive bottleneck analysis in dynamic value streams of manufacturing companies. Proceedings of the 8th Changeable, Agile, Reconfigurable and Virtual Production Conference, 3–14. https://doi.org/10.1007/978-3-030-90700-6_69. West, N., Syberg, M., & Deuse, J. (2022b). A holistic methodology for successive bottleneck analysis in dynamic value streams of manufacturing companies. Proceedings of the 8th Changeable, Agile, Reconfigurable and Virtual Production Conference, 3–14. https://​doi.​org/​10.​1007/​978-3-030-90700-6_​69.
Zurück zum Zitat Wöstmann, R., Barthelmey, A., West, N., & Deuse, J. (2019). A retrofit approach for predictive maintenance. In T. Schüppstuhl, K. Tracht, & J. Roßmann (Hrsg.), Tagungsband des 4. Kongresses Montage Handhabung Industrieroboter (S. 94–106). Springer Vieweg. https://doi.org/10.1007/978-3-662-59317-2_10. Wöstmann, R., Barthelmey, A., West, N., & Deuse, J. (2019). A retrofit approach for predictive maintenance. In T. Schüppstuhl, K. Tracht, & J. Roßmann (Hrsg.), Tagungsband des 4. Kongresses Montage Handhabung Industrieroboter (S. 94–106). Springer Vieweg. https://​doi.​org/​10.​1007/​978-3-662-59317-2_​10.
Metadaten
Titel
Ausgangssituation und technische Grundlagen
verfasst von
Nikolai West
Marius Syberg
Jörn Schwenken
Thomas Eickhoff
Jens C. Göbel
Michael Frey
Andreas Emrich
Christopher A. Klupak
Felix Walker
Jochen Deuse
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-42779-5_3

Premium Partner