Einführung ins Data Warehousing in der Cloud

Daten sind überall. Sie strömen mit rasanter Geschwindigkeit von angeschlossenen Geräten, in einer Vielzahl von Formaten und Nutzern ins Unternehmen.

Die Verwendung von Daten für Geschäftsentscheidungen ist nichts Neues

Früher hätte “datenbasierte Entscheidungsfindung” bedeuten können, dass ein Zusammenhang zwischen einer Print-Werbekampagne und anekdotischen Berichten über höhere als übliche Umsätze festgestellt wurde. Unternehmen nutzen schon immer alle Daten, die sie bekommen können.

Aber in den letzten Jahren gab es fundamentale Änderungen.

Drei Faktoren haben die Datennutzung und -analyse nachhaltig verändert

  • Die exponentielle Zunahme des Volumens und der Vielfalt der Daten, die von Milliarden von Benutzern und Geräten erzeugt werden
  • Die Forderung nach einem sofortigen Zugang zu hochwertigen Daten und Erkenntnissen
  • Die Kosten und die Leistung vieler Cloud-Fähigkeiten haben eine Niveau erreicht, das maschinelles Lernen (ML) und künstliche Intelligenz (KI) für jedes Unternehmen zugänglich macht

Heute sind Daten überall vorhanden. Sie strömen mit rasanter Geschwindigkeit von angeschlossenen Geräten, in einer Vielzahl von Formaten und von Milliarden von Benutzern ein. Big Data wird oft als Chance genutzt, aber nur für Unternehmen, die so strukturiert sind, dass sie mit ihrem Volumen und ihrer Vielfalt umgehen können. Für andere Unternehmen kann die Datenflut ein Risiko darstellen – dass potenzielle Erkenntnisse ungenutzt bleiben, Kundenbedürfnisse nicht erfüllt werden und Unternehmen immer wieder uninformierte Entscheidungen treffen.

Die Verwaltung der Daten wäre erheblich einfacher, wenn die Daten auf wenige Quellen beschränkt wäre oder wenn die Daten einheitlich wären. Die Herausforderung liegt in der Vielfalt der Quellen und Formate. Dazu gehört insbesondere das wachsende Volumen an unstrukturierten Daten: E-Mails, Systemprotokolle, Webseiten, Kundentranskripte, Dokumente, Folien, informelle Chats und ein explodierendes Volumen an Rich Media wie HD-Bilder und Videos.

Serverless Architecure

Oft landet das Problem zunächst in der IT-Abteilung. Sie müssen Wege finden, eine Echtzeitansicht des Unternehmens zu liefern und gleichzeitig eine größere und komplexere Datenlandschaft zu verwalten. Bei den meisten Unternehmen ist zunächst die Reduzierung der Komplexität ein wichtiger Erfolgsfaktor.

Moderne serverlose Architekturen können den Verantwortungsbereich, den Entwickler und IT-Teams verkleinern und so zusätzliche Ressourcen schaffen. Grundsätzlich ist das Ziel von Serverless Computing, die Arbeit der IT-Teams zu vereinfachen: Verwaltung von Serverclustern, Sharding von Datenbanken, Lastausgleich, Kapazitätsplanung, Sicherstellung der Verfügbarkeit – damit sollten sich moderne IT-Teams nur sporadisch beschäftigen. Serverless reduziert standardisierter IT zugunsten differenzierter Arbeit, die die IT-Teams zu einem direkten Faktor in der Wertschöpfung machen#

Managed Cloud Services können Unternehmen dabei helfen, die neuen Herausforderungen in der Nutzung Ihrer Daten zu bewältigen.

Die Lösung beginnt mit der Erfassung von rohen Geschäftsdaten in der Cloud. Für eine Analyse können Cloud-basierte Tools diese Rohdaten je nach Bedarf aufbereiten und strukturieren. Die aufbereiteten Daten werden dann in ein Cloud Data Warehouse integriert, wo sie sofort zur Analyse zur Verfügung stehen. Dieses Data Warehouse dient als “Datenzentrale”, von der aus Unternehmen Daten jeglicher Art und aus jeder Quelle erfassen, aufbereiten und analysieren können. Der vollständig verwaltete Charakter der Cloud Services trägt dazu bei, den gesamten Prozess zu nutzen ohne dass die IT-Abteilung die zugrunde liegende Infrastruktur kennen muss. Auf dieser Grundlage können Unternehmen diese Systematik der Datenerfassung und -vorbereitung nutzen, um maschinelles Lernen und KI zu ermöglichen.

Cloud Storage und Data Warehousing

Die Zentralisierung von Rohdaten aus wichtigen Geschäftsprozessen in Cloud Storage ist einer der ersten Schritte, die Unternehmen zur Modernisierung unternehmen können. Auf diese Weise positionieren sie sich, um die Analysefähigkeiten in der Cloud zu nutzen.

Über das gesamte Unternehmen verteilte Datensilos belasten Geschäfts- und IT-Teams gleichermaßen, wobei täglich neue Silos (sei es aus organisatorischen oder technischen Gründen oder aus beidem) erstellt werden. Die Idee ist, Daten zu zentralisieren, den Zugriff auf diese daten aber im Unternehmen zu demokratisieren. So erhält der Mitarbeiter die Daten, die er für seine Arbeit benötigt.

Die Zentralisierung von Rohdaten aus wichtigen Geschäftsprozessen in der Cloud ist einer der ersten Schritte, die Unternehmen zur Modernisierung unternehmen können. Damit bereiten sie sich vor, um zukünftig die Datenanalyse in der Cloud zu nutzen.

Cloud Storage und Data Warehousing ermöglichen es Unternehmen ein einziges, zentrales Data Warehouse zu verwalten und gleichzeitig verschiedene Geschäftsbereiche in die Lage zu versetzen, Daten nach Ihren individuellen Bedürfnissen zu analysieren.

Erfassung von Rohdaten für zukünftige Analysen

IDC schätzt, dass weniger als 1% aller Dateien analysiert werden. Die anderen 99% enthalten aber ebenfalls Erkenntnisse, die für die unternehmerische Entscheidungsfindung wichtig sind. Da Unternehmen die auftretenden Geschäftsfragen nicht vorhersagen können, benötigen sie reibungslose und kostengünstige Möglichkeiten, große Datenmengen zu speichern. Dies gilt insbesondere für unstrukturierte Dateien, die typischerweise den größten Teil der erzeugten Daten ausmachen.

Während Cloud Storage Daten in ihrem nativen Rohformat zentralisiert, ermöglicht ein Cloud Data Warehouse Unternehmen, Daten aus unterschiedlichen Silos für die Analytik zusammenzutragen – genau wie ein herkömmliches Data Warehouse. Mit der Cloud können Unternehmen große Datenmengen mit minimalen Investitionen verwalten, praktisch unbegrenzt skalieren und nur für das bezahlen, was sie nutzen.

Managed Cloud Services gehen noch einen Schritt weiter und befreien die IT-Abteilung von der Sorge um die zugrunde liegende Infrastruktur. Unternehmen müssen allerdings überlegen, welche Aspekte des Unternehmens analysiert werden sollen und welche Daten dafür erforderlich sind.

  • Zu verstehen, wie Benutzer mit meinen Systemen interagieren, Trends erkennen, Umsätze steigern, Kundenbindung aufbauen oder etwas anderes?
  • Was sind die wichtigsten Unternehmensziele für Ihre Daten?
  • Woher kommen meine wichtigsten Daten (Transaktionen, Serverprotokolle, Cloud Services, Geräte/IoT, Social Media) Werden diese bereits in die Cloud importiert?
  • Wie schnell muss mein System neue Daten in Reportern und Visualisierungen einbinden?
  • Gibt es eine Kultur, die datengetriebene Entscheidungen im gesamten Unternehmen fördert (nicht nur unter Analysten)? Wer sollte Zugang zur Analytikplattform haben?

Machine Learning und Künstliche Intelligenz

Jüngste Durchbrüche beim maschinellen Lernen (ML) und bei der künstlichen Intelligenz (KI) machen häufig Schlagzeilen: Computer haben in Go, einem Brettspiel mit mehr Positionen als es im Universum gibt, menschliche Weltmeister besiegt.

Das Konzept der KI ist einfach: die Fähigkeit, Software zu verbessern, ohne explizit programmiert werden zu müssen. Anstatt von Entwicklern zu verlangen, dass sie neuen Code manuell schreiben, setzt die KI auf Algorithmen, die durch die Aufnahme von mehr realen Daten “intelligenter” werden können. Die Zentralisierung der Speicherung und Aufbereitung von Daten in der Cloud schafft die ideale Grundlage für die Schulung und Verbesserung von KI-Modellen.

Die KI-Chance geht über die einfache Automatisierung einmaliger manueller Aufgaben hinaus. Im Online-Handel beispielsweise können maschinelle Lernalgorithmen enorme Mengen an Verbraucherdaten aufnehmen und analysieren, wenn potenzielle Käufer durch den Online-Shop oder die mobile App eines Einzelhändlers navigieren. Je mehr Daten das Modell aufnimmt, desto näher kommt es dem Verständnis, wann – und warum – ein bestimmter Käufer sich für einen bestimmten Kauf entscheidet. Schließlich wird dieses Lernen prädiktiv und ermöglicht es dem Händler, das richtige Produkt für die richtige Person zur richtigen Zeit zu finden. Dieser Grad der Personalisierung – einst verkörpert durch den kleinstädtischen Ladenbesitzer, der die Namen und Geburtstage der Kinder seiner Kunden kannte – ist nun in großem Stil möglich.

Viele kleine, technologisch orientierte Unternehmen nutzen bereits Machine Learning – aber etabliertere Unternehmen haben den entscheidenden Vorteil, eine Fülle von historischen Daten nutzen zu können. Beim Machine Learning hängen die Ergebnisse insbesondere von der Menge an Daten, die in dieTrainingsmodelle einfließen können ab. Etablierte Unternehmen können ihre First-Party-Daten abrufen – von IT-Systemprotokollen bis hin zu Finanzdaten, Transaktionen zu Kundenservice-Call-Transkripten – um diese Modelle zu trainieren und zu optimieren und so einzigartige Erkenntnisse für das Unternehmen zu gewinnen.

Diese Dienste können über einfache API-Aufrufe einfach in jede Anwendung integriert werden. Entwickler müssen keine der zugrunde liegenden Details kennen. Ohne diese Dienste selbst entwickeln zu müssen, können Unternehmen die neuesten Funktionen sofort als Service nutzen.

Etablierte Unternehmen und etablierte Industrieunternehmen verfügen in der Regel über jahrzehntelange Daten aus erster Hand: Finanztransaktionen, Systemprotokolle, Rohdaten aus Produktion, Einzelhandel und E-Commerce oder Leistungsergebnisse aus Marketingkampagnen, die über Jahre hinweg erfasst wurden. Richtig verfeinert und verwendet, um kundenspezifische maschinelle Lernmodelle zu trainieren, entwickeln diese Daten erstaunliche Vorhersagekraft.

Anwendungsfälle erstrecken sich über viele Branchen und zeigen einige der vielversprechendsten Anwendungen der KI. Die Betrugserkennung in Finanzdienstleistungen, die präventive Instandhaltung in der Fertigung, Diagnose- und Behandlungsvorschläge im Gesundheitswesen oder die Bonitätsbeurteilung verdeutlichen die Fähigkeit von Künstlicher Intelligenz, Anomalien in einem Meer von Transaktionen und unstrukturierten Daten zu erkennen.

Wie Sie auf der Google Cloud Platform ein Marketing-Data Warehouse erstellen

Während das alte Paradigma auf Datenerfassung und nachträglicher Leistungsanalyse basierte, nutzen die Werbetreibenden von heute datengestützte Kundeneinblicke für ein proaktives Targeting.

Wenn Sie verstehen, wie Kunden mit Ihrer Marke interagieren, steigern Sie den Lifetime-Wert (LTV) und ermöglichen ein tieferes Verständnis Ihrer Kunden. Wenn Sie Daten aus mehreren Quellen erfassen erhalten Sie einen ganzheitlichen Überblick über Ihre Kunden.

Neuer Herausforderungen bei der Datensammlung

Die immer kostengünstigeren Speichermöglichkeiten tragen zwar zu einem exponentiellen Wachstum der Datenmengen bei, das Sammeln dieser Daten zur Analyse an einem einzigen Ort bleibt jedoch eine Herausforderung.

Die primäre Herausforderung für Marketingverantwortliche besteht in der Regel darin, das Marketingbudget zu optimieren, indem Sie den Return on Investment (ROI) der Werbeausgaben ermitteln. Dabei bestehen jedoch folgende Schwierigkeiten:

  • Die Daten sind auf Produkte wie Google Analytics 360, ein Customer-Relationship-Management-System (CRM) und Google DoubleClick Campaign Manager (DCM) verteilt
  • Ein Teil der Daten kann aufgrund ihres Formats nicht abgefragt werden
  • Es gibt kein Tool, um Daten zu analysieren und die Ergebnisse mit dem Rest des Unternehmens zu teilen

Um Ihre Daten in Zukunft für einen höheren ROI zu nutzen, müssen Sie Daten aus verschiedenen Quellen so transformieren, dass sie abgefragt und verknüpft werden können. Somit erhalten Sie Zugriff auf Berichtsdimensionen, die in standardmäßigen Berichts-APIs nicht verfügbar sind, Sie können maschinelles Lernen nutzen, um Nutzergruppen zu erkennen und Remarketing-Listen erstellen, die zuvor nicht verfügbar waren.

Der erste Schritt zur Gewinnung von Erkenntnissen ist die Konsolidierung der Daten an einem zentralen Ort. Wählen Sie eine Technologie, die Ihnen hilft, Informationen aus Ihren wichtigsten Marketingkanälen und Datenquellen effizient zu erfassen.

BigQuery bietet Speichermöglichkeiten und eine Abfrage-Engine und kann Daten aus verschiedenen Quellen aufnehmen. Der BigQuery Data Transfer Service kann problemlos und automatisch Daten aus Quellen wie Google DoubleClick, Gooogle Ads und YouTube aufnehmen.

Sie können zudem Daten aus Quellen wie CRM- und Kassensystemen erfassen. In den meisten Fällen führen Sie diese Datenaufnahme offline mithilfe des bq-Befehlszeilentools, der API oder der Web-UI durch. Sie können Daten lokal oder aus Cloud Storage laden. Cloud Storage ist der empfohlene Ansatz für große Datasets oder für das Erstellen eines Data Lake.

Analysieren Sie Ihre Daten

Nachdem Sie die bereinigten Daten zentral gespeichert haben, können Sie mit der Analyse zur weiteren Informationsgewinnung beginnen.

Bei der Standardanalyse geht es hauptsächlich um zwei Arten der Analyse:

  • Deskriptive Analyse, um sich anzusehen, was in Ihrem Unternehmen passiert
  • Diagnostische Analyse, um zu verstehen, warum dies passiert

Die auf maschinellem Lernen basierenden Analysen ermöglichen Ihnen neue Analysen:

  • Prädiktive Analyse, um mithilfe älterer Daten Ergebnisse vorauszusehen
  • Präskriptive Analyse, um Ergebnisse vorherzusehen und Ihre Strategie vorzubereiten

Visualisieren Sie Ihre Ergebnisse mit dem Google Data Studio

Mit Google Data Studio können technisch weniger versierte Nutzer schnell gemeinsam nutzbare Geschäfts-Dashboards erstellen – entweder ganz neu oder mithilfe vorkonfigurierter Vorlagen. Dieser Ansatz bietet mehrere Vorteile:

  • Er ermöglicht den Zugriff auf Daten per Drag-and-Drop
  • Er erleichtert die Zusammenarbeit beim Erstellen aussagekräftiger Dashboards
  • Er ermöglicht Nutzern, vorgefertigte Dashboards mit Entscheidungsträgern zu teilen

Bespiele für die Aktivierung Ihrer Daten

  • Analysieren Sie zum Beispiel, wie sich die Häufigkeit einer Anzeigeneinblendung auf die Conversion pro Nutzer und Kampagne auswirkt. Diese Informationen helfen Ihnen, Ihre Remarketing-Kampagnen zu optimieren.
  • Optimieren Sie Ihre Kampagnen, indem Sie den Customer-Lifetime-Wert bestimmter Nutzergruppen vorhersagen. So könnten Sie beispielsweise feststellen, dass eine Gruppe von Nutzern mit begrenztem Markeninteresse ein hohes Kaufpotenzial aufweist, sofern die Nutzerinteraktion gesteigert wird. Sie gewinnen diese Erkenntnis, indem Sie Daten verknüpfen und maschinelles Lernen verwenden, um Kundensegmente zu erstellen und einen Lifetimevalue vorherzusagen.
  • Durch das Analysieren der Entwicklung von Textkommentaren und Bewertungen können Sie ungenaues Targeting besser vermeiden, indem Sie vorhersagen, wie ein Produkt mit bestimmten Merkmalen bei einer bestimmten Gruppe von Nutzern ankommen wird. Für diese Aufgabe können Sie beispielsweise Sentimentanalyse und Kundensegmentierung nutzen.

Fazit

In einem Zeitalter reichhaltiger Daten und Echtzeitanalysen wird die Fähigkeit, Werte aus Daten zu gewinnen im Mittelpunkt der Wettbewerbsfähigkeit eines Unternehmens stehen.

Der erste Schritt besteht darin, die Datenstrategie von Grund auf zu überdenken. Die heutigen Cloud-Tools ermöglichen es Unternehmen, enorme Mengen an unterschiedlichen Datentypen effizienter und kostengünstiger zu verwalten als es bisher möglich war.

Unternehmen, die einen modernen Ansatz zur Erfassung, Speicherung, Aufbereitung und Analyse ihrer Daten verfolgen, haben die Grundlage, um die Vorteile des maschinellen Lernens und der KI zu nutzen.

Die mobile Version verlassen