Big Data

Big Data bezeichnet große Mengen von Daten, deren Erfassung,  Verarbeitung und Analyse von klassischen relationalen Datenbanken nicht mehr geleistet werden kann, weshalb spezielle Lösungen zum Einsatz kommen. Die Eigenschaften von Big Data hat Gartner 2011 definiert. Ein Drei-V-Modell aus wachsendem Volumen (engl. volume) der Daten und ansteigender Geschwindigkeit (engl. velocity), mit der Daten generiert und verarbeitet werden, wird komplettiert durch die steigende Vielfalt (engl. variety) der erzeugten Daten, die meist nicht strukturiert sind. Als vierte Eigenschaft tritt manchmal noch die Zuverlässigkeit (engl. veracity) hinzu, da den Datenbergen häufig auch eine gewisse Ungenauigkeit anhaftet.
Big Data in Unternehmen verwalten
Datenlieferanten sind das Internet mit seinen zahlreichen Diensten und Anwendungen, Mobilfunk, Finanzindustrie, Energiewirtschaft oder Gesundheitswesen. Unternehmen, die fortwährend Kundendaten sammeln, sind am explosionsartigen Wachstum der Datenmengen ebenso beteiligt wie Regierungsbehörden etwa in der Verbrechensbekämpfung oder Einzelpersonen, die über ihr Smartphone Transaktionen tätigen, soziale Netzwerke nutzen oder Koordinaten via GPS versenden. Nicht zu vergessen die Maschinen, die per Sensortechnik überwacht werden und zunehmend untereinander kommunizieren, was die Datenflut künftig noch verstärken wird. Dieses gigantische Datenvolumen, das sich nach Berechnungen alle zwei Jahre verdoppelt, ist nur dann von Interesse, wenn es ausgewertet werden kann.

Wichtige Stichworte sind hier Cloud Computing, mit dessen Hilfe sich immer größere Datenmengen zu niedrigen Kosten speichern lassen, und neue Datenbankkonzepte, die speziell auf die Verarbeitung unstrukturierter und nicht konsistenter Daten ausgerichtet sind (zum Beispiel NoSQL-Datenbanken oder das Hadoop Framework).

Anwender von Big-Data-Lösungen aus der Wirtschaft erzeugen personenbezogene Profile und erwarten sich Aufschlüsse über das Kundenverhalten, um sich Wettbewerbsvorteile zu verschaffen, sie nutzen die riesigen Datenberge aus den sozialen Netzwerken zur Trendforschung, versuchen die Abläufe in der Produktion zu verbessern und flexibler zu gestalten (Industrie 4.0) oder verwenden auf der Basis von Big Data Vorausberechnungen, um Produkte besser im Markt zu platzieren.
Big Data im Kampf gegen Kriminalität
Staatliche Stellen betreiben mithilfe von Big-Data-Analysen unter anderem Kriminalitäts- und Terrorismusbekämpfung, und die Wissenschaft analysiert Daten zum Klimawandel oder zur Entstehung von Erdbeben. Kritisch ist das Verhältnis zum Datenschutz. Gerade die Nutzung personenbezogener Daten lässt sich nur schwer mit den datenschutzrechtlichen Prinzipien der EU vereinbaren. So liegt meist keine Einverständniserklärung zur Nutzung der Daten vor, darüber hinaus können Betroffene häufig identifiziert werden. Es braucht daher funktionierende Anonymisierungsverfahren, um rechtskonforme Big-Data-Projekte aufsetzen zu können.Trotzdem bleibt der Datenschutz eine Schattenseite von BD-Analysen.

So warnt der Datenschutzbeauftragte Thilo Weichert vor den „Möglichkeiten des informationellen Machtmissbrauchs durch Manipulation, Diskriminierung und informationelle ökonomische Ausbeutung“, die BD-Vorhaben mit sich bringen können.

Für selbstadaptive Software gibt es heute unzählige Anwendungsmöglichkeiten. Wissenschaftler vom Softwaretechnik-Institut paluno an der Universität Duisburg-Essen (UDE) haben jetzt vielversprechende Ergebnisse mit neuartigen Verfahren der Künstlichen Intelligenz (KI) erzielt, die den Entwicklungsprozess selbstadaptiver Systeme automatisieren.
Das Ziel der Effizienzmaximierung bleibt eine der ständigen Herausforderungen eines jeden Produktionssystems. In dieser Hinsicht stellt die enorme Datenmenge, die jeden Tag generiert wird, wirklich eine Goldmine dar. Die Software-Landschaft AVionics von Antares Vision bezieht wertvolle Informationen in Echtzeit, direkt von der Linie, dem Werk und dem Unternehmen durch die Erfassung und Verarbeitung von Daten sowie mit Algorithmen der künstlichen Intelligenz.
PTC hat die neueste Version seiner Industrial IoT-Plattform ThingWorx angekündigt. Das Release 9.0 wurde entwickelt, um Industrial IoT-Implementierungen in der gesamten Wertschöpfungskette zu beschleunigen und bietet neue bzw. erweiterte Funktionen, um Industrieunternehmen bei der Erstellung, Implementierung, Anpassung und Skalierung ihrer IIoT-Lösungen zu unterstützen.
Mit Bilfinger Connected Asset Performance (BCAP) bietet Bilfinger Digital Next Betreibern von Industrieanlagen eine modular aufgebaute Digitalisierungslösung. Kern ist eine cloudbasierte Plattform, auf der alle Daten aus den Bereichen Engineering, Betrieb und Instandhaltung einer Anlage zusammengeführt werden. Ab sofort stellt man im BCAP Solution Store auch die Software TrendMiner zur Verfügung.
Merck hat seine cloudbasierte Plattform BrightLab für die Bestandsverwaltung und Anbindung von Laborgeräten für Forscher vorgestellt. Die neue Software beinhaltet ein elektronisches Laborjournal, mit dem Forscher und Laborleiter Versuchsabläufe von jedem Computer oder Mobilgerät aus nachverfolgen und aktualisieren können.

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: SCM 2040

10 Megatrends für die nächsten 20 Jahre: Darauf müssen sich Supply Chain Manager einstellen

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.