Big Data Innovation Center

Ausgangssituation und Rahmenbedingungen

Die Industrie 4.0 wird die gesamte Industrieproduktion revolutionieren, dabei wird die Digitalisierung ein Schlüsselfaktor für die Wettbewerbsfähigkeit von Unternehmen.
Die digitale Transformation in Betrieben stellt dabei einen Zukunftsmarkt mit erheblichen Wachstumsraten dar. 
Notwendige Technologien zur Analyse der weitgehend unstrukturierten Massendaten (Big Data) fehlt jedoch in vielen Unternehmen.

Aus dieser Situation heraus wurde am 26.10.2011 in Mönchengladbach  eine Kooperationsvereinbarung zwischen
der Hochschule Niederrhein, der Hochschule Bonn-Rhein-Sieg und der Fachhochschule Dortmund geschlossen.
Diese Kooperation hatte zum Ziel auf die bisherigen Entwicklungen aufzusatteln und einen regelmäßigen Austausch innerhalb der SAP Arbeitskreise und der Lehrenden der Hochschulen zu gewährleisten, sowie ein einheitliches Auftreten bei Kongressen zu haben.

Daraus gründete sich 2016 dann, das Big Data Innovation Center (BDIC).

Vision

Das BDIC sieht sich als eine zentrale Anlaufstelle für Kleinere und Mittlere Unternehmen (KMU) in Nordrhein-Westfalen (NRW) und angrenzenden Wirtschaftsräumen. 
Dabei versteht es sich als neutraler und unabhängiger Dienstleister für Unternehmen und Hochschulen zum Thema Big Data. Als Langzeitziel steht hier die Entwicklung eines Hochschulübergreifenden Zertifikatsstudiengangs „Data Science“ (Master of Science, 3 Semester, berufsbegleitende Option)  mit ggf. noch zu evaluierenden Kooperationspartnern.

Mission

Als unmittelbare Ziele stehen im Vordergrund:

  • Eine stufenweise Entwicklung von Content
    • Entwicklung von Case-Studies
    • Integration von Standard-Curriculums in die Lehre
  • Ein Zertifikatsstudiengang
    • Entwicklung von Zertifikatskursen
    • Später eine Integration und Ausbau zum Studiengang
  • Die Organisation des BDIC verbessern
    • Die Kommunikation zwischen den drei unabhängigen Partnerhochschulen stärken
    • Später ggf. die Gründung eines formalen Instituts mit eigener Rechtspersönlichkeit

Die 5 V`s-Definition von Big Data

  1. Volume (Menge)
    • definiert die enorme Menge an Daten, die z.B. täglich in Unternehmen produziert wird
    • als Bezugsgröße gilt hier der Datenumfang (Gigabyte, Terabyte, Petabyte)
    • Datenvolumen verdoppelt sich dabei laut International Data Corporation (IDC) alle 1,5 Jahre und soll weltweit in 5 Jahren um Faktor 6 vergrößern
  2. Variety (Vielfalt)
    • Daten werden grundlegend, in ihre unterschiedlichen Datenformate und Datenquellen strukturierte eingeordnet
    • die Strukturierungsgrade decken dabei das gesamte Spektrum ab
      • Strukturiert (Datenbankmanagementsysteme-RDBMS,z.B. Kundenstammdaten)
      • halbstrukturiert (z.B. E-Mails)
      • unstrukturiert (z.B. Bilder, Audio- und Videodaten)
    • Formate unterliegen dabei einem stetigen Wandel, zum Teil durch die Verwendung von Sensoren, sozialen Netzwerken oder intelligenter Geräte
    • Herausforderungen bei Big Data liegt für diesen Aspekt in der Transformation dieser unterschiedlichen Formate, in eine automatische Auswertung
  3. Velocity (Geschwindigkeit)
    • bezeichnet die Geschwindigkeit mit der Daten generiert, ausgewertet und weiterverarbeitet werden
    • zwei Aspekte sind dabei gesondert zu betrachten
      • Verarbeitungsgeschwindigkeit der Daten 
        Dabei erfolgt die Verarbeitung heutzutage meist im Bruchteil von Sekunden bzw. in Echtzeit aufgrund von z.B. In-Memory-Technologie
      • Änderungsdynamik der Daten
        Gemeint ist die Geschwindigkeit mit der sich Daten und Beziehungen zwischen Daten, sowie deren Bedeutung ändern z.B. Sensoradaten, Finanzmarkdaten oder Daten sozialer Netzwerke
  4. Veracity (Richtigkeit)
    • betrifft die notwendige Höhe der Datenqualität bestimmter Datentypen z.B. zukünftige Wetterdaten, Wirtschaftsdaten oder Kaufentscheidungen der Kunden
    • Das Problem hierbei ist die Unvorhersehbarkeit und Unsicherheit, diese müssen aber bis zu einem gewissen Grad in kauf genommen werden,
      weil keine 100%igen Bereinigungsmethoden existieren.
      Bsp. Stromerzeuger bestimmen einen Prozentsatz des Stroms, der aus erneuerbaren Energiequellen erzeugt werden muss. Sonne und Wind sind aber nicht genau vorhersagbar.
      Der Einsatz verschiedener analytischer Methoden sowie die Kombination und der Kontextbezug verschiedener Daten aus mehreren auch weniger zuverlässigen Quellen kann die Vorraussage aber präzisieren
  5. Value (Mehrwert)
    • Bezeichnet den Business Value von Daten
    • Abhängig von diesem Wert haben viele Unternehmen mittlerweile eigene Datenplattformen und Datenpools aufgebaut und befüllt, sowie viel Geld in ihre Infrastruktur investiert. 

Anforderungen beim Einsatz von Big Data-Technologien

  1. Technische Anforderungen
    • Echtzeit-Analyse
    • Kurze Reaktionszeiten
    • Verfügbarkeit
    • Skalierbarkeit
    • Verringerung des Administrationsaufwands
    • Datenbankreplikation
    • Umfangreiche Schnittstellen
  2. Personelle Anforderungen
    • Ressourcen mit entsprechender Qualifikation (fachlich, technisch)
  3. Organisatorische Anforderungen
    • Regelungen zum Umgang mit den "neuen" Daten
    • Datenschutzregeln
  4. Projektspezifische Anforderungen
    • Passende Szenarien
    • Business Case

Veröffentlichungen