Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2024 | OriginalPaper | Buchkapitel

11. Integrierte Datenanalyse zur Kollaboration in der Auftragsplanung

Implementierung einer prädiktiven Analyse zur optimalen Ressourcenallokation und Kollaboration der Geschäftsbereiche

verfasst von : Andreas Bohlmann, Claudia Scholten, Rachana Desai, Edin Klapic

Erschienen in: Industrielle Datenanalyse

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

ERCO ist ein international führender Spezialist für nachhaltige Architekturbeleuchtung mit LED-Technologie. Das Unternehmen möchte die Informationen aus Angeboten und Aufträgen des ERP-Systems (SAP R/3) mit Informationen aus dem Customer Relationship System (SAP CRM) anreichern und eine auf Algorithmen basierende Prognose etablieren. Diese Vorhersage soll zudem mit Daten aus Social Media Quellen bzw. der Firmenwebseite ergänzt werden. Die Daten dienen somit als Grundlage der Planung von Unternehmensressourcen. Im Rahmen der unternehmensweiten Kollaboration mit Vertriebsgesellschaften, sowie der Fertigung und der Produktion bis hin zur Lieferantenintegration, dient die Prognose der Steuerung und Justierung der Wertschöpfungskette. Hier steht die Nutzung der KI Software RapidMiner im Vordergrund, um datengetriebene und fundierte Entscheidungen in der Supply Chain zu gewährleisten. Die Grundlage der Ausführungen bildet die Ausgangssituation des Unternehmens und in der Folge wird das Prognosetool und die Datenstrukturierung beschrieben. Die Implementierung erfolgt nach dem sogenannten Cross-Industry Standard Process for Data Mining und behandelt außerdem die Herausforderungen beim Aufbau der notwendigen Kompetenzen für die industrielle Datenanalyse in der Auftragsplanung.

11.1 Motivation

Wie bereits zusammenfassend in Kap. 2 beschrieben, entwickelt ERCO eine mengenbasierte Prognose des Auftragseingangs, um eine gezieltere Allokation von kapazitiven sowie von dispositiven Ressourcen zu erreichen. Derzeit werden Prognosen nur vergleichsweise ungenau und mit einer hohen Schwankungsbreite anhand der vergangener Absatzzahlen erstellt. Aufgrund der enorm hohen Anzahl von Produktvarianten wird die Vorhersage jedoch durch die sporadisch erfolgenden Abrufe erschwert. Gleichzeitig besitzt eine antizipative Planbarkeit der Aufträge jedoch eine hohe Bedeutung zur Stabilisierung der Fertigungs- und Montageprozesse. Das Ziel in diesem Kapitel ist daher die Implementierung von prädiktiver Analysen zur optimalen Ressourcenallokation und Zusammenarbeit zwischen den Geschäftsbereichen des Unternehmens.
Analysetätigkeiten werden häufig anhand von vier Aspekten unterschieden (West et al., 2022, S. 615):
  • Deskriptiv: Was ist geschehen?
  • Diagnostisch: Warum ist etwas geschehen?
  • Prädiktiv: Was wird geschehen?
  • Präskriptiv: Was sollte getan werden?
Die in diesem Kapitel behandelte datenwissenschaftliche Problemstellung betrachtet mit der Vorhersage von Auftragsmengen einen prädiktiven Anwendungsfall. Vorhergesagt werden soll eine möglichst präziser Wert als Angabe der erwarteten Absatzmenge. Im Rahmen der unternehmensweiten Zusammenarbeit der Vertriebsgesellschaften sowie der Fertigung und Produktion bis hin zur Lieferantenintegration fließt die Prognose steuernd in das ERCO Wertschöpfungssystem ein. Dabei steht der Einsatz der KI-Software Rapid Miner im Vordergrund.
Darüber hinaus sollen neue Kompetenzen aufgebaut und die Entwicklung der Organisation zu einem höheren Reifegrad in Data-Science-Projekten vorangetrieben werden (siehe Kap. 1). Als Anwendungspartner bringt ERCO seine Kompetenzen in der Ausbildung, Weiterentwicklung und Qualifizierung von Mitarbeitern im Rahmen eines mittelständischen Unternehmens in das Projekt AKKORD ein. ERCO verfügt bereits über eine Datenbasis mit einem hohen Vernetzungsgrad und die grundsätzliche Fähigkeit, analytische Verfahren im Supply Chain Management einzusetzen.
In einem volatilen Marktumfeld bietet das Unternehmen Produkte und Dienstleistungen an, die mit einer hohen technologischen Fertigungstiefe produziert werden. Das eingesetzte System für Enterprise Ressource Planning (ERP) bildet die einheitliche Datenbasis und bietet die Grundlage für die Zusammenarbeit im Wertschöpfungsnetzwerk.
Die Auftragsprognose bei ERCO basiert auf zwei Säulen von Datenstrukturen in der SAP Business Suite. Zum einen sind dies die Projektinformationen aus dem Customer Relationship Management (CRM) System, die dort auch als „Opportunities“ und zum anderen die Angebotsdaten aus dem ERP-System.
Eine neue Opportunity wird mit dem Meilenstein zum voraussichtlichen Datum des Auftragseingangs versehen. Dieses Datum kann sich während der Projektlaufzeit ändern und wird regelmäßig angepasst. In Verbindung mit den ERP-Angebotsdaten, bestehend aus einer Angabe Produkts sowie der entsprechenden Menge, die mit dem Projekt verknüpft sind, wird der voraussichtlicher Bedarf für einen Zeitraum von vier Monaten ermittelt.
Die Prognose des voraussichtlichen Auftragseingangs wird zur kapazitiven Auslegung der Produktion in der Bedarfsplanung und zur Anpassung der Lieferkette bei erkennbaren Nachfrageveränderungen genutzt. Die Verantwortung für die Koordination der Bedarfsplanung und -prognose ist wiederum in einer eigenständigen Abteilung konzentriert.

11.2 Absatzprognose in der Auftragsplanung

Aus wissenschaftlich-technischer Perspektive ermöglichen präzise Vorhersagen von Kundenaufträgen eine größere Unabhängigkeit der Planungstätigkeiten vom Kundenentkopplungspunkt. Ohne Vorliegen einer Auftragsbestätigung, also ohne dokumentierte Lieferverpflichtung des Unternehmens, kann die Auftragserfüllung veranlasst und Aufträge proaktiv produziert werden. Im nun folgenden Abschnitt werden die datenwissenschaftlichen Schritte zur dieser prädiktiven Absatzplanung vorgestellt.

11.2.1 Zielsetzung und Vorgehensweise

Am Anfang industrieller Datenanalyseprojekte steht typischerweise die Definition des Geschäftsprozesses und die Entwicklung einer quantifizierbaren Zielsetzung. Es ist zu berücksichtigen, dass zu Beginn eines datenwissenschaftlichen Projekts keine Garantie für die Erreichung der definierten Ziele besteht. Als Zielvorgabe wurde deshalb ein Korridor der Prognosegenauigkeit festgelegt. Um eine adäquate Planungsunterstützung zu ermöglichen, soll die prognostizierte Absatzmenge nicht mehr und nicht weniger als 20 % tatsächlich Absatzmenge betragen. Dadurch sollen Nachfrageschwankungen mithilfe von geeigneten Kapazitäts- und Dispositionsreserven abgefangen werden.
Die Vorgehensweise während der Datenanalyse ist angelehnt an das in der Praxis verbreitete Modell Cross-Industry Standard Process for Data Mining (CRISP-DM, Chapman et al., 2000). Der CRISP-DM beschreibt einen iterativen Prozess aus sechs Phasen: Geschäftsverständnis, Datenverständnis, Datenvorbereitung, Modellierung, Evaluation und Einführung. Als Vorgehensmodell ermöglicht CRISP-DM eine systematische und schrittweise Umsetzung datenanalytischer Projekte (West et al., 2021a, S. 131 ff.). Bereits in Kap. 3 wurde das Modell vorgestellt, wobei dort zusätzlich die Entwicklung von Daten über Informationen hin zu Wissen dargestellt ist. Im Forschungsprojekt wurde der Schwerpunkt zunächst auf die drei vorbereitenden Elemente des CRISP-DM gelegt:
  • Data Unterstanding
  • Data Preparation
  • Modeling
Diese drei aufeinanderfolgenden Phasen, die auf der Datenbereinigung, der Vorverarbeitung und dem Aufbau eines Data Dictionary basieren, sind mit ständigen Iterationsschleifen verbunden. Die hier investierte Zeit zahlt sich in den nachfolgenden Phasen der Modellanwendung und Validierung aus (Chapman et. al., 2000, S. 13 ff.). In den Prozessphasen Data Understanding, Data Preparation und Modeling wird iterativ und regelmäßig an der Evaluierung der Ergebnisse mit Abgleich zu den Projektzielen gearbeitet. Auch in dieser Phase ist es immer wieder relevant, die Ergebnisse in Bezug auf den Geschäftsprozess zu erläutern.

11.2.2 Modellbildung und Validierung der Absatzprognose

Die mengen- und wertbasierte Prognose des Auftragseingangs erfolgt unter Zuhilfenahme von Zeitreihenanalysen. Abhängig von den Eingangsdaten wird meist zwischen uni- bzw. multivariaten Verfahren zur Prognose von Zeitreihen unterschieden (West et al., 2021b, S. 762 ff.), wobei Maschinelle Lernverfahren auch die Kombination qualitativer und quantitativer Inputdaten ermöglicht, beispielsweise durch sogenanntes One-Hot-Encoding (Cerda & Varoquaux, 2020, S. 1 f.). Allgemein beschreibt eine Zeitreihe eine sequenziell erfasste Folge von Beobachtungen, wobei eine intrinsische Eigenschaft von Zeitreihen besagt, dass angrenzende Zeitreihenwerte in einem Zusammenhang stehen (Chatfield, 1982, S. 15). Diese implizierten Zusammenhänge bilden den Ausgangspunkt für Zeitreihenprognosen, die basierend auf den Abhängigkeiten Aussagen über das zukünftige, sequenzielle Verhalten einer Zeitreihe ermöglichen (Box et al., 2008, S. 1). Da das Kundenverhalten von deterministischen Faktoren beeinflusst wird, beispielsweise den abgesetzten Mengen vergangener Perioden oder von der aktuell vorherrschenden Wettbewerbssituation, werden diese Abhängigkeiten auch im weiteren Verlauf dieser Analyse impliziert.
Grundlage der industriellen Datenanalyse ist eine vorgegebene feste Datensequenz und die Betrachtung der Prognose als überwachtes Lernmodell. In diesem Modell wird für eine definierte Menge von Eingangsdaten der Wert einer Zielvariablen vorhergesagt. Diese Zielvariable, auch als Label bezeichnet, wird durch die historischen Ausgabedaten des Vier-Monatsfensters bestimmt. Bei den Ausgabedaten handelt es sich um die tatsächlichen Auftragseingänge im Zeitraum des letzten 4-Monats-Fensters.
In Abb. 11.1 ist in blau die Größe der Zeitreihe für das Training des Modells dargestellt, der orange markierte Bereich beschreibt die Größe des Vorhersagezeitraums. Zur Bestimmung des Vorhersagewertes wurden drei Zeitreihen-Algorithmen in RapidMiner angewandt:
  • ARIMA (Autoregressive Integrated Moving Average): ein statistisches Verfahren zur Zeitreihenanalyse, das sowohl Autoregression als auch bewegten Durchschnitt verwendet und häufig zur Vorhersage zukünftiger Werte verwendet wird
  • Holt-Winters: eine Methode zur Vorhersage zukünftiger Werte von Zeitreihen, die saisonale Effekte sowie Trends berücksichtigt und durch die Verwendung von exponentieller Glättung berechnet wird
  • Functional and Seasonal Component: ein Verfahren zur Zerlegung von Zeitreihendaten in funktionale und saisonale Komponenten, um Muster in der Datenreihe zu identifizieren und so Vorhersagen zukünftiger Werte zu erreichen
Der Ergebnisvergleich der drei Methoden zeigte keine eindeutige Entscheidungsrichtung auf. Das wesentliche Kriterium für die Auswahl war die Abweichung von der tatsächlich gemessenen Auftragseingangskennzahl. Bei dieser Verifizierung zeigte Holt-Winters (blaue Linie) in Abb. 11.2 die geringste Abweichung vom vorgegebenen Ziel von 20 % Abweichung vom eingetroffenen Auftragseingang in Menge und ggfs. Wert. Somit wurde dieser Algorithmus in der Folge angewandt.
Für das Forschungsprojekt wurden die Daten aus dem ERP-System manuell monatlich übertragen und für die Prognoseprozesse bereitgestellt. Die Validierung der Ergebnisse ergab, dass eine Fokussierung in der Grundgesamtheit der Daten auf die Produktgruppe der „Spotlights“ eine sinnvolle und nachvollziehbare Einschränkung ergibt. Dieser Filter wurde innerhalb der Prognoseprozesse angewandt. In der weiteren Anwendung der Prognosemethode konnte eine visualisierte Ergebnisdarstellung für eine Gruppe von Produkten vorhergesagt werden.
Die Abb. 11.3 zeigt das Ergebnis der Prognose und die tolerierte Abweichung vom Zielkorridor 20 %. Wobei der blaue Graph die eingetretene reale Menge zeigt, der grüne Graph beschreibt die Prognose der Menge im jeweils aktuellen Ausführungsmonat und der orangene gepunktete Graph gibt die prozentuale Abweichung zum Zielkorridor an.
In vier Datenpunkten wurde der Zielkorridor bei der angewandten Prognosemethode deutlich unterschritten. Der Prognosewert war somit deutlich höher als der real eingetretene Wert. An dieser Stelle erfolgt außerhalb der Analyse eine Validierung der Datenqualität, um ggf. Extremwerte zu identifizieren, bzw. die Datenqualität zu verbessern. Nach der Intervention, die eine Verbesserung der Datenqualität bei der Bearbeitung von Projektinformationen zum Ziel hatte, konnte ab ca. August 2022 eine Verringerung der Prognoseabweichung erkannt werden. Ein eindeutig kausaler Zusammenhang zwischen der Intervention und dem Prognoseergebnis ist jedoch noch nicht bewiesen.

11.2.3 Einführung der Prognose in die betrieblichen Entscheidungsprozesse

Die Einführung, häufig auch Englisch als Deployment bezeichnet, beschreibt das Vorgehen zum Ausrollen der industriellen Datenanalyse in die betriebliche Nutzung. Zur technischen Umsetzung gehört in diesem Fall die lokale Anwendung RapidMiner Studio, welche in der Verbindung mit der Web-Applikation RapidMiner AI-Hub einen Datenaustausch der Prognoseprozesse sowie deren Ergebnisse zwischen unterschiedlichen Anwendern sicherstellt. Eine Beschreibung dieser Werkzeuge findet sich in Kap. 6. Gemeinsam erarbeitete Ergebnisse können somit schnell verteilt und eingesetzt werden. Die Implementierung des Prozessablaufs für die Prognose wurde dafür in vier wesentliche Schritte aufgeteilt und in der Ausführungsreihenfolge automatisiert verknüpft. Die Reihenfolge ist:
1.
Hinzufügen der Daten des abgeschlossenen Vormonats zur Analyse
 
2.
Durchführung der Multi-Monats-Prognose für die Einheit Stück
 
3.
Durchführung der Multi-Monats-Prognose für die Einheit Euro
 
4.
Evaluierung der Prognose mit den tatsächlichen Auftragseingangswerten der Vergangenheit
 
Um für den Endanwender eine einfache Durchführung der Prognose zu ermöglichen, können die Schritte sequenziell automatisiert ausgeführt werden. Sie benötigen nur die Ablage der aktuellen Daten in einem dezidierten Format und Verzeichnis. Diese vier Schritte wurden zum Abschluss des Forschungsprojekts umgesetzt und können durch den Anwender autonom durchgeführt werden, die Ergebnisse dienen nun zur besseren Einschätzung der Anforderungen hinsichtlich zukünftiger Kapazitätsressourcen.

11.3 Ergebnisse Validierung des Geschäftsmodells

Im Rahmen des Forschungsprojekts bestand die Aufgabe, die vorhandenen Daten aus dem ERP System mit Informationen aus sozialen Netzwerken und oder der ERCO-Homepage zu verknüpfen. In Zusammenarbeit mit dem Konsortialpartner DFKI wurde das Geschäftsmodell des Unternehmens mit der Architektur des vom DFKI entworfenen Modells abgeglichen. Dies diente somit der Validierung des im Kap. 15 dargestellten Models.
Das Unternehmen ERCO vertreibt seine Produkte und Dienstleistungen in der Regel an den Großhandel und Installateure, daher steht das Business-to-Business Geschäft im Vordergrund. Bei den vorhandenen Social-Media-Kanälen handelt es sich zumeist um geschlossene Benutzergruppen innerhalb der dezidierten Plattformen. Das Sammeln und Auswerten von Erfahrungsberichten oder Produktbewertungen über automatisierte Suchroutinen ist hier in der Regel nicht möglich. Die im Kap. 15 genannten Social-Streams konnten daher im vorliegenden Anwendungsfall nicht erhoben werden und wurden in der Projektbearbeitung nicht weiterverfolgt.

11.4 Data Science Reifegrad und Mittelstand

In einem mittelständischen Unternehmen werden Arbeitsprozesse häufig in einer Matrix der Aufbauorganisation zur Prozessorganisation umgesetzt bzw. implementiert. Die Mitarbeiter in der Aufbauorganisation arbeiten in der Regel an der Erstellung des von ihnen als relevant definierten Prozessergebnisses, dem sogenannten Tagesgeschäft. Analytische und prädiktive Aufgaben werden meistens bis zu einem gewissen Grad innerhalb des definierten Arbeitsvorrats zu erstellen und sind auch von der Kompetenz der Mitarbeiter abgedeckt.
Die Anwendung der Methoden im Data-Science-Umfeld und die Lösung der gestellten Problemaufgaben erfordern explizite Fachkompetenzen der ausführenden Person. Aber auch die Unternehmensorganisation muss Erfolgsfaktoren berücksichtigen, die erfolgreiche Data-Science-Projekte ausmachen. Die Beschreibung der Erfolgsfaktoren erfolgt im Kap. 16 des Forschungspartners mosaiic. Bei ERCO wurde die zugrunde liegende Reifegradanalyse auf Basis einer Umfrage mit 19 Teilnehmern aus unterschiedlichen Bereichen der Aufbauorganisation durchgeführt. Die Teilnehmer sind alle mit der Lösung analytischer Aufgaben beschäftigt und stellen einen Querschnitt der in diesem Aufgabenbereich tätigen Personen dar. Im Ergebnis zeigte sich ein hoher Reifegrad im Bereich des Willens, ein Data-Science-Projekt bzw. eine Aufgabenstellung zu lösen, aber auch ein eher niedriger Reifegrad im Bereich des „Könnens“, der Umsetzungskompetenz. Insgesamt konnte aus der Befragung ein eher „mittlerer Reifegrad“ abgeleitet und Handlungsempfehlungen für das Unternehmen gegeben werden, die den Erfolg von Data-Science-Projekten untermauern können.

11.5 Fazit

Im Forschungsprojekt AKKORD haben die Projektbeteiligten an der Lösung einer komplexen Prognoseaufgabe gearbeitet. Das angewandte CRISP-DM Modell bietet eine wichtige Richtschnur, um die Herangehensweise in Data-Science-Projekten zu unterstützen. Auch wenn die Prognose/das Projektergebnis nicht immer im definierten Zielbereich lag, ist deutlich geworden, dass die Anwendung prädikativer Methoden unerlässlich ist, um einen andauernden und nachhaltigen Geschäftserfolg abzusichern.
Bedeutsam ist auch, dass der Kompetenzaufbau und die Etablierung von Data-Science-Projekten, mit dem Vorhandensein von freier Arbeitskapazität in der Aufbauorganisation zwingend einhergehen muss. Data-Science-Projekte benötigen Mitarbeitende die einen hohen Anteil Ihrer Ressource dem Projekt widmen müssen, die Vorkenntnisse als sogenannte Citizen Data Scientist sind hier essentiell, (siehe Kap. 10; Schwenken et al., 2023, S. 81 ff.). Sind diese Voraussetzungen geschaffen, wird es möglich sein, das Forschungsergebnis betrieblich anzuwenden sowie die Prognosemethoden und Algorithmen stetig zu verbessern und anzupassen. Eine weiterführende Untersuchung zur Entwicklung industrieller Datenanalysen, die Mensch, Technik und Organisation berücksichtigt, wird darüber hinaus in Kap. 20 vorgestellt.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur
Zurück zum Zitat Box, G. E. P., Jenkins, G. M., & Reinsel, G. C. (2008). Time Series Analysis. Forecasting and Control (4. Aufl.). Wiley. Box, G. E. P., Jenkins, G. M., & Reinsel, G. C. (2008). Time Series Analysis. Forecasting and Control (4. Aufl.). Wiley.
Zurück zum Zitat Chapman, P., Clinton, J., Kerber, R., Khabaza, T., Reinartz, T., Shearer, C., & Wirth, R. (2000). CRISP-DM 1.0. Step-by-Step Data Mining Guide, CRISP-DM consortium. Chapman, P., Clinton, J., Kerber, R., Khabaza, T., Reinartz, T., Shearer, C., & Wirth, R. (2000). CRISP-DM 1.0. Step-by-Step Data Mining Guide, CRISP-DM consortium.
Zurück zum Zitat Chatfield, C. (1982). Analyse von Zeitreihen. Eine Einführung. Hanser. Chatfield, C. (1982). Analyse von Zeitreihen. Eine Einführung. Hanser.
Zurück zum Zitat Schwenken, J., Klupak, C., Syberg, M., West, N., Walker, F., & Deuse, J. (2023). Development of a transdisciplinary role concept for the process chain of industrial data science. In A. Khanna, Z. Polkowski, & O. Castillo (Hrsg.), Proceedings of data analytics and management. Lecture notes in networks and systems (Bd. 572). Springer. https://doi.org/10.1007/978-981-19-7615-5_7. Schwenken, J., Klupak, C., Syberg, M., West, N., Walker, F., & Deuse, J. (2023). Development of a transdisciplinary role concept for the process chain of industrial data science. In A. Khanna, Z. Polkowski, & O. Castillo (Hrsg.), Proceedings of data analytics and management. Lecture notes in networks and systems (Bd. 572). Springer. https://​doi.​org/​10.​1007/​978-981-19-7615-5_​7.
Zurück zum Zitat West, N., Syberg, M., Deuse, J. (2022). A Holistic Methodology for Successive Bottleneck Analysis in Dynamic Value Streams of Manufacturing Companies. In: Proceedings Changeable, Agile, Reconfigurable and Virtual Production Conference, 8(1), 612–619. https://doi.org/10.1007/978-3-030-90700-6_69. West, N., Syberg, M., Deuse, J. (2022). A Holistic Methodology for Successive Bottleneck Analysis in Dynamic Value Streams of Manufacturing Companies. In: Proceedings Changeable, Agile, Reconfigurable and Virtual Production Conference, 8(1), 612–619. https://​doi.​org/​10.​1007/​978-3-030-90700-6_​69.
Zurück zum Zitat West, N., Gries, J., Brockmeier, C., Göbel, J. C., & Deuse, J. (2021a). Towards integrated Data Analysis Quality. Criteria for the application of Industrial Data Science. IEEE International Conference on Information Reuse and Integration for Data Science (IRI), 22(1), 131–138. https://doi.org/10.1109/IRI51335.2021.00024. West, N., Gries, J., Brockmeier, C., Göbel, J. C., & Deuse, J. (2021a). Towards integrated Data Analysis Quality. Criteria for the application of Industrial Data Science. IEEE International Conference on Information Reuse and Integration for Data Science (IRI), 22(1), 131–138. https://​doi.​org/​10.​1109/​IRI51335.​2021.​00024.
Zurück zum Zitat West, N., Schlegl, T., & Deuse, J. (2021b). Feature extraction for time series classification using univariate descriptive statistics and dynamic time warping in a manufacturing environment. IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering, 762–768. https://doi.org/10.1109/ICBAIE52039.2021.9389954. West, N., Schlegl, T., & Deuse, J. (2021b). Feature extraction for time series classification using univariate descriptive statistics and dynamic time warping in a manufacturing environment. IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering, 762–768. https://​doi.​org/​10.​1109/​ICBAIE52039.​2021.​9389954.
Metadaten
Titel
Integrierte Datenanalyse zur Kollaboration in der Auftragsplanung
verfasst von
Andreas Bohlmann
Claudia Scholten
Rachana Desai
Edin Klapic
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-42779-5_11

Premium Partner