Was ist Big Data und wie nutze ich Daten sinnvoll?

Die voranschreitende Digitalisierung geht mit der Generierung unvorstellbar großer Datenmengen einher. Diese sind zu mächtig, zu unstrukturiert und zu veränderlich, um sie mit den üblichen Methoden der IT greifen zu können.

Gelingt es jedoch, die wertvollen Massendaten aus internen und externen Quellen mit geeigneten Ansätzen zu beherrschen, entstehen einzigartige Analysemöglichkeiten und Wettbewerbsvorteile. Neben einer Big-Data-Erklärung liefert dieser Artikel umfangreiche Einblicke zu möglichen Anwendungsgebieten, Chancen und Strategien.

Big Data – Erklärung der wesentlichen Hintergründe

Die Frage „Was ist Big Data?“ lässt sich nicht mit einem Satz beantworten. Grundsätzlich handelt es sich bei Big Data um Datenmengen, die mit herkömmlichen IT-Lösungen nicht mehr erfasst, gespeichert, durchsucht, verteilt und analysiert werden können. Neben einem hohen Datenvolumen sind unterschiedlichste Dateiformate, also unstrukturierte Daten, charakteristisch für Big Data. Für den enormen Anstieg des Datenvolumens sind verschiedene Quellen ursächlich. Hierzu zählen unter anderem ERP-Systeme, intelligente Gegenstände (IoT-Daten aus Maschinen und Produkten, „M2M-Kommunikation“), Sensoren, mobile Endgeräte, Informationen externer Partner, das World Wide Web und Social Media.

Für Unternehmen eröffnet das Erschließen aller geschäftsrelevanten Informationen mehrere Chancen:

neue Einblicke in Kundenbedürfnisse und Kaufverhalten

Generierung personenbezogener Profile

Abbildung neuer Kennzahlen

Optimierung und Flexibilisierung der Produktion (Industrie 4.0)

Optimierung vorhandener Geschäftsmodelle

Unterstützung bei der Entwicklung neuer Geschäftsmodelle, Produkte oder Dienstleistungen

Innovationsführerschaft durch genauere Marktprognosen

verbesserte Risikokalkulation

Schaffung klarer Entscheidungsgrundlagen

Wie können Unternehmen ein gewinnbringendes Big Data Management etablieren?

Oft sind die attraktiven Potenziale von Big Data weitgehend ungenutzt. Hieraus leitet sich unweigerlich die Frage ab, wie Unternehmen Informationen für ihren individuellen Bedarf erfassen und analysieren können. Wie kann es gelingen, Daten zu erschließen, die in der Vergangenheit nicht zugänglich waren? In erster Linie bedarf es an dieser Stelle einer geeigneten Strategie, welche die Zielrichtung des Big-Data-Projekts klar definiert. Darüber hinaus sind geeignete Technologien und Algorithmen erforderlich, welche die relevanten Daten aus dem großen Pool herauslösen, visualisieren und in Beziehung zueinander setzen.

Big-Data-Projekte sind Managementaufgabe. Sie laufen nicht „nebenher“. Vielmehr ist Big Data, sofern es richtig eingesetzt und genutzt wird, als Teil der Unternehmenskultur zu betrachten. Einige Führungskräfte haben dies bereits erkannt und damit begonnen, die Potenziale zu nutzen. Sie betrachten neue Datenquellen nicht mehr als irrelevant, nur da sie in der Vergangenheit schwer erschließbar waren.

Mögliche Herangehensweise

Um beurteilen zu können, ob der Einsatz von Big Data überhaupt lohnenswert ist, reicht möglicherweise bereits ein Blick auf größere Marktbegleiter sowie Markt- und Fallstudien. In den meisten Fällen stellt sich heraus, dass Potenziale vorhanden sind. Um diese Annahme zu überprüfen, muss im zweiten Schritt geklärt werden, welche internen und externen Daten tatsächlich sinnvoll nutzbar sind. Anders formuliert geht es hierbei um eine eingehende Analyse des sogenannten „Informationsökosystems“, welches sich keineswegs nur auf unternehmenseigene Daten beschränkt. Sind Informationen außerhalb des Unternehmens vorhanden, die sinnvoll in eine Beziehung gesetzt werden können, müssen diese ebenfalls betrachtet werden. Insbesondere sind folgende Fragestellungen zu beantworten:

Wo liegen Daten vor?

In welcher Form liegen die Daten vor?

Welches Datenvolumen liegt vor und wird künftig erzeugt?

Wie oft ändern sich die Daten?

Gibt es bereits bekannte Beziehungen der Daten zu anderen?

Dürfen die Daten uneingeschränkt genutzt werden?

Existieren Schnittstellen, um an die Daten zu gelangen?

Diese exakte Form der Analyse bildet die Grundlage für die Beurteilung der tatsächlichen Potenziale von Big Data.

Daten gruppieren, verknüpfen und Anwendungsmöglichkeiten definieren

In dieser Phase erfolgt eine Gruppierung der gesammelten Informationen. Zusammenhänge werden visualisiert. Hierbei ist Branchenkenntnis hinsichtlich der Daten und möglicher Verknüpfungen erforderlich. Zudem ist es sinnvoll, die Daten nach Kriterien wie Volumen, Frequenz, Typ und Variabilität zu klassifizieren. Im Ergebnis entstehen häufig bestimmte Anwendungsfälle, die sowohl von IT- als auch von Fachverantwortlichen als sinnvoll betrachtet werden.

Um eine Überforderung auszuschließen, ist es zielführend, zunächst nur ein bis zwei Anwendungsszenarien mit geringer Komplexität und zügiger Realisierbarkeit auszuwählen. Auf diese Weise ist schnell überprüfbar, ob Big Data innerhalb einer vertretbaren Zeitspanne tatsächlich Mehrwert schafft.

Anforderungen an Big Data Software

Hinsichtlich der Technologien zur Datenanalyse setzen viele Unternehmen nach wie vor auf Standard-BI-Lösungen, relationale Datenbanken und Datenintegration. Ad-hoc-Analysen mit Tools wie Excel oder Access gehören ebenfalls zum Unternehmensalltag. Die verwendeten Daten stammen überwiegend aus Transaktionssystemen. All diese Ansätze stoßen jedoch im Kontext von Big Data an ihre Grenzen.

Zukunftsweisende Big Data Software ist hingegen effizienter, performanter und meist sogar kostengünstiger als traditionelle Vorgehensweisen. Moderne Big-Data-Anwendungen basieren auf Technologien wie NoSQL-Datenbanken, Process Mining, Hadoop und Cloud Computing. Sie verbessern das Handling unstrukturierter Daten, erhöhen die Analysegeschwindigkeit und entlasten die IT-Infrastruktur durch Speicherauslagerung.

Big Data und Industrie 4.0 als leistungsstarke Einheit

Big Data und Industrie 4.0 sind zwei separate Konzepte. Um Effizienzsteigerungen in der Produktion zu erzielen, können sie jedoch verknüpft werden. Teils wird dies mit dem Begriff „Industry Analytics“ umschrieben. Das Ziel ist es, ein tiefgreifendes Verständnis hinsichtlich der Optimierungsmöglichkeiten in der Fertigung zu erhalten und signifikante Kosteneinsparungen zu realisieren.

Die Ausgangsvoraussetzungen unterscheiden sich von Unternehmen zu Unternehmen mitunter stark. In einigen Betrieben erfolgt bereits eine automatisierte Fertigung mit einer zentralen Datenerfassung. Andere Unternehmen nutzen nach wie vor traditionelle Produktionsabläufe, verwenden vorliegende Daten kaum oder verfügen nur über einen geringen Grad an Digitalisierung und Vernetzung. Es steht jedoch fest, dass langfristige Optimierungen nur durch strategische Datennutzung möglich sind. Auch in der Wartung und Instandhaltung lassen sich, etwa durch die Auswertung von Maschinendaten aus Sensoren, enorme Potenziale identifizieren.

Die Herangehensweise kann grob wie folgt skizziert werden:

Daten für Prozessanalysen definieren

Ziele der Prozessanalysen gemeinsam mit Fachbereichen festlegen

Faktoren, die das Ergebnis beeinflussen, identifizieren

Die ermittelten Einflussfaktoren müssen in einem weiteren Schritt aus den betroffenen Produktionsanlagen oder IoT-Objekten ausgelesen und in einer zentralen Datenbank zusammengeführt werden. Hierfür sind, wie im vorangegangenen Abschnitt (Big Data Software) beschrieben, innovative und skalierbare Technologien erforderlich.

Liegen die Informationen letztlich zentral vor, können sie mit Standard-Reports im Detail ausgewertet werden. Anhand statistischer Methoden werden wiederkehrende Muster sichtbar. Die neuen Erkenntnisse und Zusammenhänge liefern wertvolle Hinweise zu Optimierungspotenzialen.

Fazit: Big Data ermöglicht Wettbewerbsvorteile

Die Fragestellung „Was ist Big Data?“ wurde in diesem Artikel umfassend beantwortet. Dass es an der Zeit ist, eine Big-Data-Strategie zu etablieren, wird in Summe ebenfalls deutlich. Gelingt es Unternehmen, die rasant wachsenden, unstrukturierten Datenmengen zu beherrschen und relevante Informationen zu extrahieren, ergeben sich signifikante Wettbewerbsvorteile. Diese resultieren aus einem tief greifenden Verständnis hinsichtlich interner Optimierungspotenziale, der Märkte und der Kundenbedürfnisse. Gleichzeitig wird eine neue Basis für solide Entscheidungen und die Entwicklung neuer Geschäftsmodelle geschaffen.

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.

Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.

Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen? Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt: Verarbeitungslatenz

Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?

Datenvolumen

Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?

Skalierbarkeit

Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?

Flexibilität

Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte? Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.

Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.

Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.

Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.

Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.

In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) abgerufen am 02.11.2016

(2) abgerufen am 02.11.2016

(3) abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.

Lizenzbestimmungen:

Informationen zu Peter Welker

Big Data im Marketing: Nutzen, Anwendungen und Herausforderungen

Das Marketing ändert sich grundlegend und Big Data spielt heute eine wichtige Rolle im Marketing. Kundendaten lassen sich einfach sammeln, speichern und analysieren, um Kunden das richtige Angebot zur richtigen Zeit zu machen. Viele Unternehmen haben das enorme Potential von Big Data bereits erkannt und schaffen so einen Wettbewerbsvorteil.

Im nachfolgenden Artikel gehe ich auf die verschiedenen Schwerpunkte von Big Data im Marketing ein.

Big Data im Marketing auf einen Blick

Die Digitalisierung und dem damit verbundenen Aufkommen riesiger Datenmengen (Big Data) hat zahlreiche positive Einflussfaktoren auf das Marketing

auf das Marketing Big Data beeinflusst Unternehmen stark in den Bereichen Kundenbindung, Kundenakquise und Marketing-Optimierung

Zudem bestehen konkrete Handlungspotentiale in den Bereichen der Suchmaschinenoptimierung , Geomarketing , Preissetzung , Kundenverständnis und einem personalisierten Produktangebot

, , , und einem Neben dem richtigen Wissen und den richtigen Tools stellt die konkrete Implementierung eine der Herausforderungen dar.

Was bedeutet Big Data im Marketing?

Durch Big Data im Marketing lassen sich intelligente Analysen durchführen, die Prozesse und Aktivitäten im Marketing optimieren. Dabei dienen die gesammelten Kundendaten als Grundlage für die Analyse und das Vorhersagen des Kundenverhaltens. Die richtige Nutzung der gesammelten Kundendaten durch Analysen und Machine Learning, führt zu Kosteneinsparungen aufgrund von gezielter Werbung und der Vermeidung von Streuverlusten.

Des Weiteren sind Umsatzsteigerungen durch die Personalisierung und der damit verbundenen kundenspezifischen Angebote zu erreichen. Verbessert sich das Verständnis des Kunden und trifft das Unternehmen die richtigen Maßnahmen, so sind auf lange Sicht gute und langlebige Kundenbeziehungen zu erwarten.

Big Data im Marketing kann Kosten senken und den Umsatz erhöhen. (Quelle: in Anlehnung an Dr. Albrecht)

Zusätzlich lässt sich durch Personalisierung das Produktangebot passgenauer auf den Kunden zuschneiden, wonach die Kundenzufriedenheit steigt und bessere Geschäftsergebnisse erzielt werden.

Über Personalisierung im Marketing haben wir bereits einen Artikel. Schauen Sie gerne hier.

Doch um bessere Geschäftsergebnisse in Form von Wettbewerbsvorteilen erzielen zu können, ist es von Nöten, dass dieses die Wünsche und Verhaltensorientierungen seiner Kunden besser versteht.

Download: KI Use Cases für Marketing und Vertrieb Mehr Umsatz durch gezielte Vorhersagen

Durch Automatisierung mehr Zeit gewinnen

Budget und Ressourcen gezielt einsetzen Jetzt eintragen und spannende KI-Projektbeispiele aus der Praxis erhalten: Email Jetzt PDF herunterladen Mit der Anmeldung stimmen Sie unserer Datenschutzerklärung zu.

Wie wird Big Data das Marketing verändern?

Der enorme Datenwachstum, der aufgrund von Big Data generiert wird, bietet vor allem im Marketing ein enormes Potential, um aus vorhandenen Daten wertvolle Informationen zu generieren. Dabei besteht grundlegend das Ziel, die vorhandenen Daten so zu transformieren, dass sich daraus einen Wettbewerbsvorteil ergibt. Im Folgenden werden drei Bereiche erläutert, die durch Big Data im Marketing beeinflusst werden.

1. Kundenbindung

Schon jetzt ist erkennbar, dass Big Data das Marketing und den Vertrieb grundlegend verändern wird und neue Handlungschancen bietet. Dabei ist vor allem der Bereich der Kundenbindung zu erwähnen. Aufgrund des hohen Angebots ist es für viele Unternehmen heutzutage unabdingbar, die richtigen Maßnahmen zu ergreifen, um entsprechend entlang den Bedürfnissen eines Kunden die richtigen Handlungen zu ergreifen, welche zu einer starken Kundenbindung führen. Demnach bietet die Analyse großer Datenmengen ein hohes Potential, um erkennbare Entscheidungen abzuleiten. Dabei lassen sich durch Customer Value Prediction ertragreiche Kunden von weniger ertragreichen identifizieren. Dies spielt vor allem dann in der Praxis eine wichtige Rolle, wenn es um die Frage geht, ob sich Investitionen in eine Kundenbeziehung lohnen, oder nicht. Auf Basis von Big Data liefert Customer Value Prediction Marketingmanagern über eine Vielzahl an Kanälen wertbeständige Informationen, welche Verkaufszyklen verstärken und dennoch den Wünschen bestehender Kundenbeziehungen durch Personalisierung gerecht werden.

2. Personalisierte Angebote Diese personalisierten Angebote aufgrund von Big Data Analytics sind ein weiteres Beispiel für verbesserte Kundenbeziehungen. Aus den Erkenntnissen der Customer Journey, sozusagen dem Verhalten eines Kunden, werden spezifische Handlungen ausgeführt, die den Wünschen und Bedürfnissen gerecht werden. Diese Handlungen haben in der Regel zum einen das Interesse Kundenabwanderungen zu verhindern und zum anderen zum erneuten Kauf aufzufordern. In der Praxis wird daher mit Hilfe standortbezogener Daten versucht, kontextbezogene Angebote an den Bedürfnissen des Kunden auszurichten. Infolgedessen kann das Unternehmen dem Kunden Angebote aus dem näheren Umfeld präsentieren, welche individuell auf die Wünsche angepasst sind. Zudem wird im Bereich der Marketing-Optimierung aufgrund von Big Data dem Unternehmen ermöglicht, das entsprechende Marketingbudget durch Messungen und Analysen sinnvoll auf verschiedene Kanäle aufzuteilen, sodass im Ergebnis das Risiko von Streuverlusten minimiert und Kosten gesenkt werden.

3. Kundenakquise durch 360-Grad-Ansicht der Kunden

Darüber hinaus besteht ein weiterer Vorteil aufgrund von Kundenakquise durch 360-Grad-Ansicht der Kunden. Während das Konzept KYC (Know your customer) ursprünglich entwickelt wurde, um Betrugsfälle im Finanzsektor ausfindig zu machen, bietet es heutzutage im Marketing einen wichtigen Einblick in die Bedürfnisse und das Verhalten des Kunden.

Dank Cloud-Computing und großer Datenmengen ist es mittlerweile auch für kleine und mittelständische Unternehmen möglich, eine weitreichende Übersicht des Kunden zu erhalten.

Welche Chancen birgt Big Data im Marketing?

Big Data im Bereich des Marketings hat enorme Potentiale. Es lassen sich Geschäftsprozesse so verändern, dass das Unternehmen Wettbewerbsvorteile generieren und Kunden besser verstehen. Im Nachfolgenden werden die wichtigsten Chancen von Big Data im Marketing kurz und knapp erläutert.

Minimierung von Streuverlusten

Tracking-Informationen können in der Bespielung von angepasster Werbung eine wichtige Rolle spielen. Demnach ermöglichen Nutzerdaten durch Erkenntnisse aus Standortdaten, mit den richtigen Kunden zum richtigen Zeitpunkt in Kontakt zu treten. Darüber hinaus erhält das Unternehmen einen weitreichenden Einblick in die Interessen und Bedürfnisse des Kunden, wonach Streuverluste vermieden werden können.

Differenzierte Preissetzung

Ein weiterer Vorteil durch Big Data besteht in der Verbesserung der Preisstrategie. Dies bedeutet, dass jedes Unternehmen in der Lage sein sollte, den optimalen Preis für den Kunden zu treffen. Solche Preiskalkulationen geschehen in der Praxis oftmals durch die Auswertung von Big Data, bei der automatisierte Systeme ähnliche Produkte analysieren und anhand dessen den Wert des Produkts für den Kunden bestimmen.

Besseres Kundenverständnis

Mithilfe von Big Data ist es für Unternehmen möglich, nicht nur herauszufinden, wer die Kunden sind, sondern auch wo diese sich aufhalten und was ihre Vorlieben sind.

Kostenreduzierung durch Big Data Analytics

Während vor geraumer Zeit das Verhalten eines Kunden noch manuell analysiert wurde, so haben sich gewisse Prozesse im Laufe der Digitalisierung automatisiert. Dabei stellen die Kundenprofile, welche sich neben demografischen Daten, Verbindungsdaten und Metainformationen über das Verhalten des Kunden zusammensetzen, die Grundlage für Analysen dar.

Demnach ist es mittlerweile für Marketingmanager möglich, gewinnbringende Informationen so zu nutzen, dass Prozesse angepasst und Streuverluste verhindert werden.

Was sind die Herausforderungen von Big Data im Marketing?

Damit Big Data im Marketing die richtige Anwendung findet und Marketingmanager die Implementierung im Unternehmen sinnvoll und erfolgreich anwenden, sind gewisse Dinge zu beachten. Doch was ist zu beachten? Im Nachfolgenden Text erkläre ich die grundlegenden Herausforderungen innerhalb von Big Data im Marketing.

Das richtige Wissen

Vor allem greifbare Erkenntnisse für die Umsetzung in der Praxis zu generieren, stellt eine der Herausforderungen dar. Darüber hinaus ist es wichtig zu differenzieren, auf welche Daten es ankommt. Dies bedeutet, dass Unternehmen vorhandene Finanz-, Betriebs-, und Kundendaten unterscheiden und sinnvoll zur Analyse herbeiziehen.

Data-Scientists helfen aus den unterschiedlichsten Datenquellen wie Internet-Clickstreams und CRM-Datenbanken die richtigen Erkenntnisse zu gewinnen. Dabei ist es für viele Unternehmen eine große Herausforderung, die konkreten Handlungsschritte durch die Komplexität der Digitalisierung und dem damit verbundenen Fehlen von “Best practice cases” in die Praxis zu transformieren.

Darüber hinaus stellt die Ungewissheit der adäquaten Datenverwendung durch gesetzliche Bestimmungen und Neuerungen wie der DSGVO eine weitere Hürde für viele Unternehmen dar. Dies veranlasst zahlreiche Unternehmen oftmals dazu, die gesamte Thematik aufgrund mangelnder Expertise zu vernachlässigen.

Um aus den gewonnenen Daten konkrete Handlungsstrategien abzuleiten, ist es essentiell, die richtige Art von Fragestellung in Bezug auf den Erkenntnisbedarf auszurichten. Demnach stellen das konkrete Vorhaben und die Formulierung eines Use-Cases den Ausgangspunkt vieler Entscheidungen dar, um gewonnene Daten in wertvolle Informationen zu transformieren.

Fazit: Wie viel Potential steckt hinter Big Data im Marketing?

Die Anwendung von Big Data im Marketing ermöglicht es vielen Unternehmen zur Verbesserung von Kundenbeziehungen sowie der Qualität der Produkte aktiv beizutragen. Dabei entstehen für das Unternehmen oftmals erfolgreiche Geschäftsprozesse, welche sich in Form von höheren Umsätzen sowie geringeren Kosten darstellen.

Um jedoch reine Daten in Form von Zahlen in wertvolle Informationen umzuwandeln, bedarf es neben einer korrekten Formulierung des Vorhabens, die richtige Expertise. Haben Sie Fragen oder benötigen Hilfe, so melden Sie sich gerne bei uns.

 

Leave a Reply

Your email address will not be published. Required fields are marked *