Steven / Klünder | Big Data | E-Book | sack.de
E-Book

E-Book, Deutsch, 300 Seiten

Steven / Klünder Big Data

Anwendung und Nutzungspotenziale in der Produktion

E-Book, Deutsch, 300 Seiten

ISBN: 978-3-17-036478-3
Verlag: Kohlhammer
Format: EPUB
Kopierschutz: 6 - ePub Watermark



Big Data beschreibt das Phänomen rasant wachsender Datenmengen: 90 Prozent aller heute zur Verfügung stehenden Daten wurden in den vergangenen beiden Jahren gesammelt und gespeichert. Die vielfach unstrukturierten Daten fließen in Data Lakes, Pools oder Warehouses und werden durch intelligente Verknüpfung zu Informationen veredelt. Schon heute wird Big Data zur Steuerung von Produktionsprozessen und Entwicklung neuer Geschäftsmodelle im produktionswirtschaftlichen Bereich angewandt. Big Data hat durch die sich abzeichnende vierte Industrielle Revolution eine gesteigerte Wahrnehmung erfahren, sodass es sich zu einem diffusen Containerbegriff entwickelt hat. Vor diesem Hintergrund ordnet der Sammelband aus der Perspektive von Fachleuten das Phänomen Big Data ein und stellt neben den technischen Voraussetzungen auch die betrieblichen Nutzungspotentiale vor.
Steven / Klünder Big Data jetzt bestellen!

Weitere Infos & Material


2          Big Data Analytics – Begriff, Prozess und Ausrichtungen
Roland Düsing2
2.1    Einleitung 2.2    Begriff 2.3    Prozess 2.3.1   Auswahl 2.3.2   Aufbereitung 2.3.3   Festlegung 2.3.4   Analyse 2.3.5   Interpretation 2.4    Ausrichtungen 2.4.1   Descriptive Analytics 2.4.2   Predictive Analytics 2.4.3   Prescriptive Analytics 2.5    Zusammenfassung Literatur 2.1       Einleitung
Das Konzept Industrie 4.0 ist durch eine Vernetzung von Maschinen und Abläufen in der Produktion und Logistik mit Hilfe von Informations- und Kommunikationstechnologie gekennzeichnet. Diese digitale Vernetzung ermöglicht eine Verbesserung der betrieblichen Abläufe und Wertschöpfungsprozesse. Zur Erschließung des Verbesserungspotenzials ist eine Auswertung der verfügbaren Daten mit analytischen Methoden erforderlich (Steven 2019, 72). Zu diesem Zweck kann auch Big Data Analytics als ein Ansatz der Datenanalyse herangezogen werden. Mit diesem Beitrag soll der Ansatz Big Data Analytics in das Gebiet der Datenanalyse eingeordnet werden. Darüber hinaus sollen die Besonderheiten des Prozesses Big Data Analytics herausgestellt und die verschiedenen Ausrichtungen von Big Data Analytics dargestellt werden. Dieses soll zu einem besseren Verständnis der Herausforderungen und Möglichkeiten der Durchführung und Anwendung von Big Data Analytics führen. Zu diesem Zweck wird zunächst der Begriff ( Kap. 2.2) Big Data Analytics beschrieben. Danach werden der Prozess ( Kap. 2.3) und eine ausgewählte Klassifizierung der Ausrichtungen ( Kap. 2.4) von Big Data Analytics dargestellt. Abschließend werden die Ergebnisse des Beitrags zusammengefasst ( Kap. 2.5). 2.2       Begriff
Die Begriffe Big Data und Big Data Analytics werden in der Literatur häufig nicht klar voneinander abgegrenzt verwendet (Maltby 2011, 1). Demgemäß werden, sprachlich ungenau, oftmals Daten und Tätigkeiten der Datenverarbeitung, wie z. B. die Erfassung, Speicherung und Auswertung von Daten, unter dem Begriff Big Data zusammengefasst. Hiervon abweichend basieren die weiteren Ausführungen auf einer inhaltlichen Unterscheidung der Begriffe Big Data und Big Data Analytics. Der Ursprung des Begriffs Big Data ist nicht eindeutig geklärt und wird, so auch (Ward und Barker 2013), einem Bericht der META Group inhaltlich zugeschrieben. In diesem Bericht (Laney 2001) werden, ohne den Begriff Big Data zu verwenden, Eigenschaften von Daten herausgestellt, die sich aus einer Zunahme des E-Commerce ergeben und besondere Anforderungen an das Datenmanagement von Unternehmen stellen. Diese Eigenschaften beziehen sich auf die Kriterien volume, variety und velocity und wurden anfänglich auch zur Charakterisierung des Begriffs Big Data herangezogen. Dabei beschreibt das Kriterium volume die Menge an Daten. Big Data kann eine vergleichsweise große Menge an Daten umfassen. Diese setzt sich aus beispielsweise Transaktionsdaten, die im Rahmen von betrieblichen Abläufen in Unternehmen entstehen, oder Sensordaten, die von Sensoren umweltbezogener, biologischer oder technischer Systeme aufgenommen werden, zusammen. Das Kriterium variety kennzeichnet die Vielfalt der Datenstrukturen und Datenquellen (Oussous et al. 2018, 433). In Big Data können strukturierte, semi-strukturierte und unstrukturierte Daten enthalten sein. Strukturierte Daten, wie z. B. Daten in einer relationalen Datenbank, weisen ein festgelegtes Format für die Speicherung und Organisation auf. Unstrukturierte Daten, die einer Einschätzung von (Gantz und Reinsel 2011, 2) folgend mehr als 90% der weltweit generierten Datenmenge ausmachen, haben keine festgelegte Struktur und treten in Form von beispielsweise Texten, Bildern oder Grafiken auf. Semi-strukturierte Daten zeichnen sich durch eine implizite, irreguläre oder partielle Struktur aus. Ein Beispiel hierfür sind E-Mails, die durch ihren Aufbau aus Senderadresse, Empfängeradresse, Betreffzeile, Text und Anhang über eine implizite Struktur verfügen. Außerdem kann Big Data aus verschiedenen Datenquellen stammen. Somit können in einem Datenbestand z. B. interne Daten, welche in einem Unternehmen entstehen und die Situation des Unternehmens abbilden, mit externen Daten, welche im Umfeld des Unternehmens gewonnen werden und beispielsweise die gesamtwirtschaftliche Lage beschreiben, zusammengefasst sein. Das Kriterium velocity bezieht sich, so auch (Klein et al. 2013, 320), auf die Geschwindigkeit, mit der Daten erzeugt und verarbeitet werden. Big Data kann aus Daten bestehen, die in vergleichsweise kurzer Zeit erzeugt werden und zur Nutzung in betrieblichen Abläufen und Entscheidungsvorgängen zeitnah verarbeitet werden müssen. Im E-Commerce kann sich z. B. die lagermäßige Verfügbarkeit eines von Kunden stark nachgefragten Artikels relativ schnell verändern. In diesem Fall lassen sich durch die rechtzeitige Kenntnis und Nachbestellung eines lagermäßig nicht mehr ausreichend verfügbaren Artikels Umsatzverluste und Imageschäden vermeiden. Im weiteren zeitlichen Verlauf wurde die Charakterisierung des Begriffs Big Data um das Kriterium veracity ergänzt (Schroeck et al. 2012, 4). Dieses Kriterium beschreibt die Zuverlässigkeit der Daten und zielt auf den objektiven Erkenntniswert der Daten ab. In Big Data können Daten mit einer vergleichsweise geringen Zuverlässigkeit enthalten sein. Entsprechend bringen beispielsweise Daten von sozialen Medien die durch subjektive Wahrnehmung geprägten Meinungen und Erfahrungen der Nutzer zum Ausdruck. Darüber hinaus weisen Daten, die auf die Zukunft ausgerichtet sind, naturgemäß Unsicherheiten auf und sind deshalb von vergleichsweise geringer Zuverlässigkeit. Inzwischen werden zahlreiche weitere Kriterien wie z. B. value oder variability zur Beschreibung des Begriffs Big Data herangezogen (Emani et al. 2015, 72; Arockia et al. 2017, 330 f.). Dabei kennzeichnet das Kriterium value den wirtschaftlichen Wert der Daten für ein Unternehmen. Das Kriterium variability beschreibt die Veränderlichkeit der Daten. Neben dem Ansatz der Charakterisierung des Begriffs Big Data anhand von Eigenschaften der Daten gibt es den Ansatz, den Begriff anhand von Eigenschaften der Technologien, die der Verarbeitung von Big Data zugrunde liegen, zu beschreiben. Diesem Ansatz folgend ist Big Data ein Datenbestand, dessen Verarbeitung die Fähigkeit konventioneller Technologien zur Erfassung, Speicherung oder Auswertung von Daten übersteigt und daher neue Technologien erforderlich macht (Chen et al. 2014, 173; Oguntimilehin und Ademola 2014, 433). Beide Ansätze der Charakterisierung des Begriffs Big Data führen zu einer wenig präzisen Definition. So gibt es keine absoluten Maßstäbe für die Eigenschaften der Daten bezüglich der verschiedenen Kriterien (Gandomi und Haider 2015, 139). Ein Beispiel für diesen Sachverhalt ist der Maßstab für eine große Menge an Daten. Dieser wird von der Datenstruktur und dem Entwicklungsstand der zugrunde liegenden Technologien beeinflusst und ist für z. B. strukturierte Daten eines ERP-Systems und unstrukturierte Bilddaten unterschiedlich. Außerdem sind die Eigenschaften der Daten bezüglich einzelner Kriterien keine notwendige oder hinreichende Bedingung für die Charakterisierung des Begriffs Big Data (Freytag 2014, 98). Dementsprechend kann beispielsweise der Datenbestand eines Forschungsprojekts, der eine vergleichsweise kleine Menge an Daten mit einer Vielzahl unterschiedlicher Datenstrukturen aus zahlreichen verschiedenen Datenquellen umfasst, als Big Data beschrieben werden während der Datenbestand der Kundenstammdaten eines Unternehmens, der aus einer vergleichsweise großen Menge an Daten mit einer einheitlichen Datenstruktur aus einer einzelnen Datenquelle besteht, nicht als Big Data charakterisiert wird. Schließlich sind die zur Charakterisierung des Begriffs Big Data herangezogenen Kriterien nicht voneinander unabhängig (Gandomi und Haider 2015, 139). Beispielsweise zeichnen sich Daten, die aus zahlreichen verschiedenen Datenquellen stammen, oftmals durch eine Vielzahl unterschiedlicher Datenstrukturen aus. Daten, die mit einer vergleichsweise hohen Geschwindigkeit erzeugt und verarbeitet werden, können häufig nicht rechtzeitig zur Verbesserung der Datenqualität aufbereitet werden und...


Prof. Dr. Marion Steven ist Inhaberin des Lehrstuhls für Produktionswirtschaft an der Ruhr-Universität Bochum. Timo Klünder, M.Sc., ist dort wissenschaftlicher Mitarbeiter.


Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.