Contoso ist ein Spielehersteller, der Spiele für mehrere Plattformen entwickelt: Spielekonsolen, Handgeräte und PCs. Diese ...

Contoso ist ein Spielehersteller, der Spiele für mehrere Plattformen entwickelt: Spielekonsolen, Handgeräte und PCs. Diese Spiele generieren viele Protokolle und die Zielsetzung von Contoso lautet, diese Protokolle zu erfassen und zu analysieren, um Einblicke in die Vorlieben der Kunden, Standortdaten, das Nutzungsverhalten usw. zu erhalten. Damit sollen Up-Selling- und Cross-Selling-Möglichkeiten ermittelt, neue tolle Funktionen entwickelt werden, um das Unternehmenswachstum anzutreiben und Kunden bessere Produkte anbieten zu können.

Dieses Beispiel bewertet speziell die Effizienz einer Marketing-Kampagne, die Contoso vor kurzem durchgeführt hat, bei der Beispielprotokolle erfasst, verarbeitet und durch Verweisdaten erweitert, und umgewandelt wurden. Sie erstreckt sich auf folgende drei Pipelines:

  1. Die PartitionGameLogsPipeline liest die Rohdaten zu Spiele-Events aus dem Blob-Speicher aus und erstellt auf Grundlage von Jahr, Monat und Tag Partitionen.
  2. Die EnrichGameLogsPipeline verbindet partitionierte Daten zu Spiele-Events mit geografischen Referenzdaten, indem IP-Adressen den entsprechenden geografischen Standorten zugeordnet werden.
  3. Die AnalyzeMarketingCampaignPipeline nutzt die erweiterten Daten und verarbeitet sie mit Werbedaten, um eine abschließende Auswertung zu erstellen, in der die Effizienz der Marketing-Kampagne aufgeführt ist.

In dem Beispiel wird aufgezeigt, wie Sie den Azure Data Factory-Dienst verwenden können, um Datenintegrationsworkflows zusammenzustellen, um Daten mithilfe von Pig- oder Hive-Skripts und der HDInsight-Aktivität auf ein Azure HDInsight-Cluster zu kopieren/verschieben.

So stellen Sie das Beispiel bereit:

  • Wählen Sie in der Dropdownliste das Speicherkonto, das Sie in dem Beispiel verwenden möchten.
  • Wählen Sie den Datenbankserver und die Datenbank aus, die Sie in dem Beispiel verwenden möchten.
  • Geben Sie Benutzername und Kennwort ein, um auf die Datenbank zuzugreifen
  • Click the Create button.

Der Bereitstellungsprozess nimmt Folgendes vor:

  • Lädt Beispieldaten auf Ihren Azure-Speicher hoch
  • Erstellt eine Tabelle in der Azure SQL-Datenbank
  • Stellt verknüpfte Dienste, Tabellen und Pipelines bereit, um das Beispiel auszuführen.

Ein verknüpfter On-Demand-HDInsight wird in diesem Beispiel verwendet, der ein On-Demand-HDInsight-Cluster mit einem Knoten erstellt, um Pig- aud Hive-Skripts auszuführen, nachdem die Verarbeitung abgeschlossen ist wird es gelöscht.

Nachdem die Bereitstellung abgeschlossen ist, können Sie den End-to-EndDatenintegrationsworkflow mithilfe der Diagrammansicht überwachen und die Überwachungsfunktionen des Microsoft Azure-Portals verwenden, um Datensätze und Pipelines zu überwachen.

HINWEIS: das Übertragen der Daten und Verarbeiten der Daten mit einem On-Demand-HDInsight-Cluster ist mit Kosten verbunden. Weitere Details finden Sie unter HDInsight-Preise und Preise für Datenübertragungen.

Weitere Details zu diesem Beispiel finden Sie in diesem Tutorial auf Azure.com.