Über das Projekt
Beschreibung
Durch die zunehmende Sammlung von unstrukturierten Daten (bspw. aus sozialen Netzwerken) und durch das hohe Datenaufkommen aus dem Umfeld "Internet of Things (IoT)" mit vielen Datenquellen (u.a. Sensoren) wachsen die Herausforderungen zur Verwaltung, Speicherung und Analyse von großen Datenmengen, welche aktuell unter dem Begriff „Big Data“ diskutiert werden.
Die Erkenntnisse aus der Analyse dieser Daten unterstützen Unternehmen dabei ihre Kunden besser zu verstehen, Produkte und Services schneller und zielgerichteter in den passenden Märkten zu platzieren. Die Potentiale durch den Einsatz von Big Data Technologien sind aufgrund der zunehmenden digitalen Transformation in Betrieben sehr vielfältig.
Die kooperierenden Hochschulen Hochschule Bonn-Rhein-Sieg, Fachhochschule Dortmund und Hochschule Niederrhein haben ein hochschulübergreifendes Big Data Innovation Center (BDIC) gegründet, um auch die Kompetenzen in diesem Bereich zu bündeln.
Das Big Data Innovation Center nutzt ein gemeinsames SAP BW on HANA System für:
- Forschungen
- Lehreinsatz und
- Praxisprojekte
Ausgangssituation und Rahmenbedingungen
Die Initiative „Industrie 4.0“ wird die gesamte Industrieproduktion revolutionieren, dabei wird die Digitalisierung ein Schlüsselfaktor für die Wettbewerbsfähigkeit von Unternehmen. Die digitale Transformation in Betrieben stellt dabei einen Zukunftsmarkt mit erheblichen Wachstumsraten dar.
Aus dieser Situation heraus wurde am 26.10.2011 in Mönchengladbach eine Kooperationsvereinbarung zwischen
der Hochschule Niederrhein, der Hochschule Bonn-Rhein-Sieg und der Fachhochschule Dortmund geschlossen. Diese Kooperation hatte zum Ziel auf die bisherigen Entwicklungen aufzusatteln und einen regelmäßigen Austausch innerhalb der SAP-Arbeitskreise und der Lehrenden der Hochschulen zu gewährleisten.
Notwendige Technologien zur Analyse der weitgehend unstrukturierten Massendaten (Big Data) fehlen jedoch in vielen Unternehmen.
Aus dieser Motivation heraus gründete sich 2016 dann das Big Data Innovation Center (BDIC) an den kooperierenden Hochschulen.
Die Mitglieder des Big Data Innovation Center (BDIC) entwickelten ein gemeinsames Weiterbildungsprogramm, das als „Certificate of Advanced Studies“ angeboten wird. Dieses Programm wurde gezielt für den wachsenden Bedarf an Fachkräften im Kontext Big Data entwickelt und zielgruppenorientiert aufgebaut. Es können folgende CAS erworben werden:
- „Data Strategist“,
- „Data Analyst“ und
- „Data Architect“.
Weitere Informationen zu diesem Weiterbildungsprogramm finden Sie hier:
- Weiterbildung „Data Strategist“ (Öffnet in einem neuen Tab)
- Weiterbildung „Data Analyst“ (Öffnet in einem neuen Tab)
- Weiterbildung „Data Architect“ (Öffnet in einem neuen Tab)
Abgestimmt zu diesem Weiterbildungsprogramm wurde ein gemeinsames Buch „Data Science“ im Jahr 2021 veröffentlicht.
Informationen zum Buch finden Sie hier: Springer Verlag (Öffnet in einem neuen Tab)
Vision
Das BDIC sieht sich als eine zentrale Anlaufstelle für Kleinere und Mittlere Unternehmen (KMU) in Nordrhein-Westfalen (NRW) und angrenzenden Wirtschaftsräumen.
Dabei versteht es sich als neutraler und unabhängiger Dienstleister für Unternehmen und Hochschulen zum Thema Big Data. Als Langzeitziel steht hier die Entwicklung eines Hochschulübergreifenden Zertifikatsstudiengangs „Data Science“ (Master of Science, 3 Semester, berufsbegleitende Option) mit ggf. noch zu evaluierenden Kooperationspartnern.
Mission
Als unmittelbare Ziele stehen im Vordergrund:
- Eine stufenweise Entwicklung von Content
- Entwicklung von Case-Studies
- Integration von Standard-Curriculums in die Lehre
- Ein Zertifikatsstudiengang
- Entwicklung von Zertifikatskursen
- Später eine Integration und Ausbau zum Studiengang
- Die Organisation des BDIC verbessern
- Die Kommunikation zwischen den drei unabhängigen Partnerhochschulen stärken
- Später ggf. die Gründung eines formalen Instituts mit eigener Rechtspersönlichkeit
Die 5 V`s-Definition von Big Data
- Volume (Menge)
- definiert die enorme Menge an Daten, die z.B. täglich in Unternehmen produziert wird
- als Bezugsgröße gilt hier der Datenumfang (Gigabyte, Terabyte, Petabyte)
- Datenvolumen verdoppelt sich dabei laut International Data Corporation (IDC) alle 1,5 Jahre und soll weltweit in 5 Jahren um Faktor 6 vergrößern
- Variety (Vielfalt)
- Daten werden grundlegend, in ihre unterschiedlichen Datenformate und Datenquellen strukturierte eingeordnet
- die Strukturierungsgrade decken dabei das gesamte Spektrum ab
- Strukturiert (Datenbankmanagementsysteme-RDBMS,z.B. Kundenstammdaten)
- halbstrukturiert (z.B. E-Mails)
- unstrukturiert (z.B. Bilder, Audio- und Videodaten)
- Formate unterliegen dabei einem stetigen Wandel, zum Teil durch die Verwendung von Sensoren, sozialen Netzwerken oder intelligenter Geräte
- Herausforderungen bei Big Data liegt für diesen Aspekt in der Transformation dieser unterschiedlichen Formate, in eine automatische Auswertung
- Velocity (Geschwindigkeit)
- bezeichnet die Geschwindigkeit mit der Daten generiert, ausgewertet und weiterverarbeitet werden
- zwei Aspekte sind dabei gesondert zu betrachten
- Verarbeitungsgeschwindigkeit der Daten
Dabei erfolgt die Verarbeitung heutzutage meist im Bruchteil von Sekunden bzw. in Echtzeit aufgrund von z.B. In-Memory-Technologie - Änderungsdynamik der Daten
Gemeint ist die Geschwindigkeit mit der sich Daten und Beziehungen zwischen Daten, sowie deren Bedeutung ändern z.B. Sensoradaten, Finanzmarkdaten oder Daten sozialer Netzwerke
- Verarbeitungsgeschwindigkeit der Daten
- Veracity (Richtigkeit)
- betrifft die notwendige Höhe der Datenqualität bestimmter Datentypen z.B. zukünftige Wetterdaten, Wirtschaftsdaten oder Kaufentscheidungen der Kunden
- Das Problem hierbei ist die Unvorhersehbarkeit und Unsicherheit, diese müssen aber bis zu einem gewissen Grad in kauf genommen werden, weil keine 100%igen Bereinigungsmethoden existieren.
Bsp. Stromerzeuger bestimmen einen Prozentsatz des Stroms, der aus erneuerbaren Energiequellen erzeugt werden muss. Sonne und Wind sind aber nicht genau vorhersagbar.
Der Einsatz verschiedener analytischer Methoden sowie die Kombination und der Kontextbezug verschiedener Daten aus mehreren auch weniger zuverlässigen Quellen kann die Vorraussage aber präzisieren
- Value (Mehrwert)
- Bezeichnet den Business Value von Daten
- Abhängig von diesem Wert haben viele Unternehmen mittlerweile eigene Datenplattformen und Datenpools aufgebaut und befüllt, sowie viel Geld in ihre Infrastruktur investiert.
Anforderungen beim Einsatz von Big Data-Technologien
- Technische Anforderungen
- Echtzeit-Analyse
- Kurze Reaktionszeiten
- Verfügbarkeit
- Skalierbarkeit
- Verringerung des Administrationsaufwands
- Datenbankreplikation
- Umfangreiche Schnittstellen
- Personelle Anforderungen
- Ressourcen mit entsprechender Qualifikation (fachlich, technisch)
- Organisatorische Anforderungen
- Regelungen zum Umgang mit den "neuen" Daten
- Datenschutzregeln
- Projektspezifische Anforderungen
- Passende Szenarien
- Business Case
Publikationen
- Frick, D.; Gadatsch, A.; Kaufman, J. Lankes, B.; Quix, C.; Schmidt, A.; Schmitz, U. et al.: Data Science - Konzepte, Erfahrungen, Fallstudien und Praxis, Springer Vieweg 2021,
- Gadatsch, A.: Digitalisierung und Big Data: Innovation durch Digitalisierung – Eine Chance für die Restrukturierung von Prozessen im Gesundheitswesen, in: Pfannstiel M. A., Kassel K., Rasche C.: Innovationen und Innovationsmanagement im Gesundheitswesen, Wiesbaden 2019
- Gadatsch, A.; Neifer, T.; Schmidt, A., Bossauer, P.: Data Science Canvas: Ein Instrument zur Operationalisierung von Daten, in: Steven, M.; Klünder, T. (Hrsg.): Big Data. Anwendung und Nutzungspotenziale in der Produktion, Stuttgart, 2020, Kohlhammer
- Gadatsch, A.: Big Data im Gesundheitswesen – relevant für den Klinikeinkauf?, in: Stachel, K.; Eltzholtz, L.: Strategisches Einkaufsmanagement im Krankenhaus Instrumente – IT-Unterstützung – best practice, S. 123-126, Berlin, 2019 (MWV-Verlag)
- Schmitz, U.: Einsatz von Big Data Technologien im Social Media Marketing, Mönchengladbacher Schriften zur wirtschaftswissenschaftlichen Praxis, 2019, Jahresband, S. 50-65
- Schmitz, U.: In-Memory-Technologie: Grundlagen, Vorteile und Anwendungsmöglichkeiten, Der Controlling-Berater (Hrsg. Gleich, R.; Kramer, A.; Esch, M.): In-Memory-Datenbanken: Grundlage für eine effektivere Unternehmenssteuerung, 2018, S. 29-42
- Schmitz, U.: In-Memory-Technologie: Grundlagen, Vorteile und Anwendungsmöglichkeiten, In-Memory-Datenbanken: Auf dem Weg zur Unternehmenssteuerung der Zukunft, (Hrsg. Gleich, R.; Kramer, A.; Esch, M.): 2018, S. 29-42
- Schmitz, U.: Nutzung von In-Memory Technologie in der BI, Handbuch Business Intelligence - Potenziale, Strategien und Best Practices (Hrsg. Lang, M.), Symposium Verlag, 2015, S. 233-248
- Schmitz, U.: Einsatz von In-Memory Technologien zur Entscheidungsunterstützung, Mönchengladbacher Schriften zur wirtschaftswissenschaftlichen Praxis, Jahresband 2014/15, S. 1-16
- Schmitz, U.: Analyse verschiedener Methoden für eine Wirtschaftlichkeitsuntersuchung analytischer Informationssysteme, Mönchengladbacher Schriften zur wirtschaftswissenschaftlichen Praxis, Jahresband, 2012/2013, S. 157-170
Die Kooperationspartner der Fachhochschule Dortmund im Projekt:
Kontakt & Team
Forschende Personen und Partner
- Prof. Dr. Andreas Gadatsch (Hochschule Bonn-Rhein-Sieg) (Öffnet in einem neuen Tab)
- Prof. Dr. Jens Kaufmann (Hochschule Niederrhein) (Öffnet in einem neuen Tab)
- Prof. Dr. Christoph Quix (Hochschule Niederrhein) (Öffnet in einem neuen Tab)
- Prof. Dr. Detlev Frick (Hochschule Niederrhein)
- Birgit Lankes (Hochschule Niederrhein)