Was ist Big Data? Vorteile und Einsatzmöglichkeiten in SAP

Welche Vorteile bringt Big Data?

Bereits die Analyse von wenigen, strukturierten Daten wie die Einträge in eine Kundenakte konnten einem Unternehmen erhebliche Vorteile liefern. So konnten sie damit z. B. wichtige Erkenntnisse über die Zielgruppe des Unternehmens gewinnen. Heute ist die Sammlung, Verarbeitung und Aufbereitung von unstrukturierten Datenmengen in Dimensionen von Terabyte (1000 Gigabyte) oder sogar Petabyte (1000 Terabyte) möglich. Dadurch können bisher nie dagewesen Möglichkeiten erschlossen werden. So lassen sich unter anderem Verbesserungspotentiale in Geschäftsprozessen aufdecken und Produktentwicklungs- sowie Marketing- oder Vertriebsaktivitäten effizienter gestalteten. Darüber hinaus ist es möglich, Entscheidungen auf Basis realer Fakten erfolgsversprechender und schneller zu treffen. Mit den passenden Rahmenbedingungen können außerdem Maschinen dazu befähigt werden, sich durch die gesammelten Daten eigenständig einen Erfahrungsschatz anzueignen. Dieser kann anschließend auf künftige Problemstellungen angewendet werden (vergleiche Machine Learning). Big Data kann für Unternehmen so in Zukunft ein zentraler Wettbewerbsvorteil sein.

eine Entscheidungshilfe für Unternehmen

Big Data Analysen als Entscheidungshilfen für Unternehmen

„Big Data“ wird im Deutschen meist mit „riesige Datenmengen“ übersetzt. Dabei geht es jedoch nicht um die Daten an sich, sondern vielmehr um die Methodik, mit der Datenströme nutzbar gemacht werden. Im Gegensatz zur herkömmlichen Datenverarbeitung werden beim Big Data Management Analyse-Methoden verwendet, die in hoher Geschwindigkeit ein riesiges und ständig wachsendes Datenvolumen erfasst, speichert und analysiert. Unternehmen verwenden diese Daten, um einen wirtschaftlichen Nutzen daraus zu ziehen. Dabei werden verschiedene Quellen verwendet, zum Beispiel: Social-Media-Informationen

Vernetzte Geräte wie Smartphones, GPS-Systeme oder Fitness-Tracker

Kommunikationsvorgänge

Kundenkontakte Diese Vorgehensweise ist nichts Neues. Allerdings gewann der Begriff „Big Data“ durch den Branchenanalytiker Doug Laney erst in den frühen 2000er Jahren an Bedeutung.

Wie funktioniert eine Big Data Analyse?

Mithilfe neuer Big Data Analysen können Unternehmen eine Vielzahl von Datenquellen schnell analysieren. Dadurch erhalten Sie interessante Erkenntnisse über die aktuelle Marktsituation, bestehende und potentielle Kunden sowie das eigene Unternehmen. Das Verfahren kann dabei als eine Art Entscheidungshilfe betrachtet werden, denn neugewonnene Daten können direkt anhand ihrer Relevanz gefiltert werden.

Verschiedene Werkzeuge helfen dabei, den immer weiter wachsenden Datenstrom nach wichtigen Informationen zu filtern. Die zunehmende Vernetzung durch intelligente Autos, Smart Homes und andere Datenquellen machen es herkömmlichen Verarbeitungssystemen unmöglich, alle Daten zu berücksichtigen. Big Data Analytics verwenden komplizierte Prozesse, um alle wichtigen Informationen zu speichern und zu ordnen. Aus diesen Datenanalysen können Unternehmen wiederum wichtige Erkenntnisse ziehen, die sie zur Steigerung der Produktivität und der Kundenzufriedenheit einsetzen können. Für diese Aufgaben gibt es auf dem Markt Softwarelösungen verschiedener Hersteller.

Eigenschaften und Besonderheiten von Big Data

Im Vordergrund des Interesses stehen wie bei der herkömmlichen Analyse von Daten auch bei Big Data Anwendungen der Wunsch, möglichst viele detaillierte Daten zu bekommen, aus denen neue Informationen herausgelesen werden können. Diese können wiederum für das Erreichen wirtschaftlicher Ziele genutzt werden. Im Gegensatz zur konventionellen Datenverarbeitung spielen bei der Big Data Definition die folgenden Merkmale die wichtigste Rolle:

Volume: Die riesige Menge an relevanten Daten ist das Hauptmerkmal. Informationsmengen unter einem Terabyte werden in der Regel nicht zur Big Data gezählt. Da Experten davon ausgehen, dass die Datenmengen in den nächsten Jahren immer weiter ansteigen, sind auch den für Unternehmen interessanten Informationen keine Grenzen gesetzt. Das Analysepotential steigt stetig an.

Die riesige Menge an relevanten Daten ist das Hauptmerkmal. Informationsmengen unter einem Terabyte werden in der Regel nicht zur Big Data gezählt. Da Experten davon ausgehen, dass die Datenmengen in den nächsten Jahren immer weiter ansteigen, sind auch den für Unternehmen interessanten Informationen keine Grenzen gesetzt. Das Analysepotential steigt stetig an. Velocity: Neben der Menge spielt auch die Geschwindigkeit, mit der die entsprechenden Informationen entstehen und verarbeitet werden, eine wichtige Rolle, wenn es um die Definition von Big Data geht. Je nach Quelle werden Daten nämlich unterschiedlich schnell erstellt bzw. aktualisiert. Ein Nachrichtenportal wird seine Inhalte schneller aktualisieren als ein Moderatgeber. Unternehmen müssen sich darauf einstellen und entsprechend schnell reagieren können.

Neben der Menge spielt auch die Geschwindigkeit, mit der die entsprechenden Informationen entstehen und verarbeitet werden, eine wichtige Rolle, wenn es um die Definition von Big Data geht. Je nach Quelle werden Daten nämlich unterschiedlich schnell erstellt bzw. aktualisiert. Ein Nachrichtenportal wird seine Inhalte schneller aktualisieren als ein Moderatgeber. Unternehmen müssen sich darauf einstellen und entsprechend schnell reagieren können. Variety: Die Big Data Tools, die von Unternehmen eingesetzt werden, müssen in der Lage sein, Daten aus verschiedenen Quellen beziehen zu können. Die Informationen stammen meist aus einem Netzwerk verschiedener Medien, wie elektronische Handelsforen, soziale Netzwerke oder Blogs. Trotz ihrer Unterschiede hinsichtlich Struktur, Organisation und Formatierung müssen alle Daten gleichermaßen verarbeitet werden können.

Abb. 1: Die drei Merkmale der Big Data im Zusammenspiel

Daneben spielen noch zwei weitere Faktoren eine Rolle für Unternehmen, die mit großen Datenmengen arbeiten:

Veracity Value

Unter dem ersten Begriff werden mehrere Merkmale zusammengefasst, darunter Vollständigkeit und Authentizität. Es geht also vor allem auch darum, eine hohe Qualität der gesammelten Daten zu gewährleisten. Das könnte sich sonst wiederum negativ auf den zweiten Punkt auswirken. Mit „Value“ ist nämlich der wirtschaftliche Mehrwert gemeint, den ein Unternehmen mit Big Data Anwendungen generieren möchte.

Bei Big Data geht es also nicht alleine um die Anwendung spezieller Methoden zur Verarbeitung großer Datenmengen, sondern auch darum, dass dieser Datenstrom bestimmte Kriterien erfüllt.

Die Vorteile von Big Data

Die Datenmengen werden immer größer, weshalb klassische relationale Datenbanksysteme an ihre Grenzen kommen. Genau deshalb kommt Big Data ins Spiel:

Die neuen Datenspeicher- und Analyse-Systeme greifen auf zahlreiche Prozessoren zu und optimieren die Geschwindigkeit der Datenverarbeitung. Das bringt viele Vorteile für die Verarbeitung vieler Datensätze mit sich.

Auch der Export und Import großer Datenmengen erfolgt durch Big Data schnell und effizient.

Ein weiterer Vorteil ist die geringe Latenz und Verarbeitungsdauer. Komplexe Abfragen oder auch mehrere Abfragen gleichzeitig lassen sich ohne große Performance-Einbußen ausführen.

Die Herausforderungen der Big Data Analyse

Die Herausforderungen für Unternehmen liegen in den stetig steigenden Datenmengen. Die Anforderungen an die Datenverarbeitung und -auswertung werden oft zur Problematik.

Denn die einzelnen Kennziffern, welche durch die Big Data Analyse gewonnen wurden, müssen nun verknüpft werden, damit Unternehmen diese strategisch nutzen können.

Eine weitere Herausforderung ist die Datenqualität. Ist der Input fehlerhaft, folgt auch ein inkorrektes Ergebnis. Deshalb sind die Bereiche Data Cleaning und Data Prep essentiell und gehören zu einem Daten-Management dazu.

Kaum hat ein Unternehmen nur eine Datenquelle, aus der man alle Informationen beziehen kann. Deshalb müssen unterschiedliche Datenquellen verwendet werden. Hier entstehen einige Herausforderungen wie unklare Bezeichnungen, abweichende Zeiträume oder unterschiedliche Interpretationen von Kennziffern.

Buchempfehlung

Gleich, Ronald u.a. (Hg.): Controlling und Big Data, 2014.

Die Vor- und Nachteile des Big Data Outsourcing

Es gibt mehrere Gründe, warum Unternehmen einige oder sogar alle Elemente ihrer Big-Data-Projekte auslagern. Obwohl viele Führungskräfte von den Möglichkeiten des Outsourcing begeistert sind, muss man sich darüber im Klaren sein, dass die erfolgreiche Durchführung dieser Projekte mit viel Routinearbeit im Datenmanagement verbunden ist.

Einigen Schätzungen zufolge verbringen Unternehmen fünfmal so viel Zeit mit Datenaufbereitung, -bereinigung, -sammlung und -transformation, wie mit Data Science. Das Outsourcing von Big Data kann dazu beitragen, diese Initiativen in Gang zu bringen, da den Teams mehr Ressourcen für die Durchführung von Data Science zur Verfügung stehen. Outsourcing kann auch die Grundlage für nachhaltigere und wiederholbare Ergebnisse der Datenwissenschaft schaffen.

Warum Big-Data-Projekte auslagern? Da die Datenwertschöpfungskette immer reifer wird, konzentrieren sich Unternehmen zunehmend auf die Entwicklung von Erkenntnissen und verlassen sich bei der Veredelung von Daten auf Partner. Partner können Größenvorteile und Fachwissen einbringen, und ausgereifte Entwicklungsprozesse und eine globale Dimension helfen bei der Kostenkontrolle. So trägt zum Beispiel eine umfangreiche Cloud-Datenmigration bei einer regionalen Bank dazu bei, die langfristigen Kosten für die Dateninfrastruktur in den Griff zu bekommen. Laut Amaresh Tripathy, Global Business Leader of Analytics bei Genpact, einem Anbieter von professionellen Dienstleistungen für die digitale Transformation, beschleunigt die Partnerschaft mit Dienstleistern auch die Datenwertschöpfungskette, da die Unternehmen immer datenhungriger werden. Unternehmen können sich darauf konzentrieren, ihren Data-Scientist-Teams einen Mehrwert zu bieten, während sie gleichzeitig die Dienste von Anbietern in Anspruch nehmen, die bei der Verwaltung anderer Datenprojekte helfen. Nach Angaben von Peter Mottram, Managing Director und Global Enterprise Data and Analytics Leader bei Protiviti, sind die Hauptgründe für Unternehmen, Big-Data-Projekte auszulagern, folgende: Nicht genügend Fachexperten für Legacy-Systeme im Unternehmen, die die Daten kennen;

neue Technologien und Fähigkeiten, die es schwierig machen, Ressourcen zu finden oder zu verwalten;

Kosteneinsparungen durch Offshore oder Nearshore Outsourcing;

Einführung neuer Bereitstellungs- und Unterstützungsmodelle zur Kostensenkung; und

Beratungsunternehmen, die variable Ressourcenpools für Projekte bereitstellen, damit das Unternehmen keine neuen Mitarbeiter einstellen muss.

Vorteile von Big Data Outsourcing

Skalierung für komplexe Datenprozesse Viele Aspekte größerer Big-Data-Projekte erfordern erheblich mehr manuelle Arbeit, um Abstammung, Metadaten und Qualität zu gewährleisten. „Ein Vorteil des Einsatzes eines Drittanbieters besteht darin, dass man die Ressourcen für den Start des Projekts aufstocken und nach der Behebung der Datenprobleme wieder abbauen kann“, sagt Mottram. „Es ist auch wichtig, die Prozesse zu automatisieren und zu kontrollieren.

Mit der Disruption Schritt halten Viele Unternehmen verlagern ihre Dateninfrastruktur als Reaktion auf COVID-19 und neue Anforderungen an die Arbeit im Home-Office in die Cloud. „Außerdem kommt es nach wirtschaftlichen Rezessionen oft zu großen Sprüngen in der Automatisierungsnutzung“, erklärt Mike O'Malley, Senior Vice President beim IT-Outsourcing-Unternehmen SenecaGlobal. Während Unternehmen in die Automatisierung investieren wollen, besteht derzeit weltweit ein Mangel an Experten für Big Data Engineering und Cloud-native Technologien, die diese Initiativen unterstützen können. „Immer mehr Unternehmen wenden sich an Outsourcer, die genau das erforderliche Fachwissen im Bereich Data Science und Big Data mit Erfahrung in der Cloud-Native-Entwicklung bieten können“, so O'Malley.

Engpässe identifizieren Big-Data-Projekte erfordern erhebliche Investitionen und Change-Management. Einige dieser Investitionen sind komplexe Entscheidungen, wenn man bedenkt, wie viele Tools auf dem Markt verfügbar sind und wie schnell die Innovation voranschreitet. Das Änderungsmanagement umfasst strategische, technologische und betriebliche Änderungen, die sorgfältig abgewogen werden müssen. Das Wissen dieser Outsourcing-Partner darüber, wo ein Big-Data-Migrations- oder Greenfield-Programm auf potenzielle Engpässe stoßen könnte, hilft, Risiken frühzeitig zu mindern. „Strategische Outsourcing-Partner in diesem Bereich haben im Laufe vieler Big-Data-Implementierungen bei ihren Kunden die notwendigen Erfahrungen gesammelt, um Unternehmen bei diesen Investitionsentscheidungen zu unterstützen und alle erforderlichen Change-Management-Maßnahmen sorgfältig zu prüfen“, sagt Sandhya Balakrishnan, Region Head of Data Analytics und Engineering bei Brillio.

Datensümpfe vermeiden Viele Unternehmen haben sich auch die Finger verbrannt, weil sie Big-Data-Programme gestartet haben, bei denen nicht sichergestellt war, dass die Benutzer über qualitativ hochwertige Daten verfügen und diese leicht finden können. Solche Datensümpfe können durch durchdachte Architekturentscheidungen im Vorfeld des Programms vermieden werden. Durch die Bereitstellung branchenüblicher Best Practices und die Möglichkeit, optimierte Technologien zu kombinieren, helfen Big-Data-Outsourcing-Anbieter ihren Kunden, einen hohen ROI für ihre Investitionen zu erzielen.

Automatisieren Sie bewährte Verfahren zur Datenhygiene Geschäftsentscheidungen, die auf datengestützten Erkenntnissen beruhen, sind nur so genau wie die zugrunde liegenden Daten. Big-Data-Outsourcing-Anbieter verfügen häufig über Fachwissen bei der Anwendung von branchenüblichen Methoden zur Bereinigung der Daten im Kontext von Branchen- und Domänenanwendungen. Außerdem sind sie mit dem entsprechenden Technologie-Stack vertraut, um die intensiven manuellen Datenbereinigungs- und Standardisierungsprozesse weiter zu automatisieren. Folglich wird die Entwicklung einer sauberen Datenbasisschicht weniger personen- und mehr prozessorientiert, sagt Tripathy. Genpact verbessert zum Beispiel die Cashflow-Prognosen eines großen Kosmetikunternehmens, die auf Daten aus einem Dutzend separater ERP-Systeme basierten.

Nachteile von Big Data Outsourcing

Verlust von Wissen Unternehmen müssen sich überlegen, wie sie die Talente und das Wissen über ihre Systeme im Laufe der Zeit erhalten können. Sie müssen neue Arbeitsweisen einführen und Partner einsetzen, die ihnen bei der Umsetzung dieses organisatorischen Wandels helfen. Abbildung 1: Zehn Big-Data-Herausforderungen „Wenn sie sich nur auf Outsourcing verlassen, könnten sie in Zukunft zu Geiseln des Outsourcing-Unternehmens werden“, sagt Mottram. Geeignete Fachkenntnisse sicherstellen Es gibt ein breites Angebot an Big-Data-Outsourcing-Unternehmen. Es ist wichtig, ein Unternehmen zu finden, das über das entsprechende Fachwissen in einem bestimmten vertikalen Bereich und über die entsprechenden Datenverarbeitungs-Tools verfügt. Nur weil ein Unternehmen Data Science beherrscht, heißt das noch lange nicht, dass es auch weiß, wie man Ihre Daten effizient bereinigt. Daten spiegeln die Geschäftsprozesse wider, aber Unternehmen lagern sie oft an reine Technologieunternehmen aus, die möglicherweise nicht den richtigen Kontext für das Geschäft haben. Dies führt häufig zu Problemen mit der Datenqualität.

Fehlender Kontext Ein weiterer Nachteil ist das Fehlen einer Talentpipeline. Viele Datenwissenschaftler haben ihre ersten Schritte im Datenmanagement gemacht, was ihnen hilft, die Feinheiten eines Unternehmens zu verstehen. Wenn sich das Unternehmen bei Datenprojekten ausschließlich auf Partner verlässt, könnte mit der Zeit eine Talentlücke für anspruchsvollere Geschäftsanalysen entstehen, so Tripathy. Es gibt Möglichkeiten, dieses Risiko abzumildern, aber die Unternehmen müssen proaktiv dafür planen.

 

Leave a Reply

Your email address will not be published. Required fields are marked *