Contoso è una società di giochi online che crea giochi per più piattaforme: console di gioco, dispositivi portatili e personal computer (PC). Ognuno di questi giochi genera grandi quantità di log. L'obiettivo di Contoso è raccogliere e analizzare i log generati da questi giochi per ottenere informazioni dettagliate sulle preferenze dei clienti, informazioni demografiche, comportamenti di utilizzo e così via per identificare opportunità di upselling e cross-selling, sviluppare nuove accattivanti funzionalità per favorire l'espansione del business e offrire una migliore esperienza ai clienti.
Nello specifico, questo esempio valuta l'efficacia di una campagna di marketing lanciata di recente da Contoso, tramite la raccolta e l'elaborazione dei log di esempio, l'aggiunta di dati di riferimento e la successiva trasformazione dei dati. Contiene le tre pipeline seguenti:
- PartitionGameLogsPipeline: legge gli eventi di gioco non elaborati dall'archivio BLOB e crea le partizioni in base ad anno, mese e giorno.
- EnrichGameLogsPipeline unisce gli eventi di gioco partizionati a dati di riferimento con codici geografici e migliora i dati grazie al mapping degli indirizzi IP alle località geografiche corrispondenti.
- AnalyzeMarketingCampaignPipeline: utilizza i dati migliorati e li elabora con i dati pubblicitari per creare l'output finale contenente l'efficacia della campagna di marketing.
L'esempio illustra come è possibile usare il servizio Azure Data Factory per comporre i flussi di integrazione dei dati che consentono di copiare e spostare i dati tramite l'attività di copia ed elaborare i dati tramite script Pig o Hive in un cluster HDInsight di Azure tramite l'attività HDInsight.
Per distribuire l'esempio:
- Nell'elenco a discesa selezionare l'account di archiviazione da usare per l'esempio.
- Selezionare il server di database e il database da usare per l'esempio.
- Immettere il nome utente e la password per accedere al database
- Fare clic sul pulsante Crea.
Il processo di distribuzione esegue le operazioni seguenti:
- Carica i dati di esempio nell'account di archiviazione di Azure
- Crea una tabella nel database SQL di Azure
- Distribuisce le pipeline, le tabelle e i servizi collegati per l'esecuzione dell'esempio.
In questo esempio viene usato un servizio collegato HDInsight su richiesta, che crea un cluster HDInsight su richiesta a un nodo per eseguire gli script Pig e Hive e che viene eliminato al termine dell'elaborazione.
Al termine della distribuzione, è possibile monitorare il flusso di lavoro dell'integrazione dati end-to-end nella vista diagramma e usare le funzionalità di monitoraggio del portale di Microsoft Azure per monitorare i set di dati e le pipeline.
NOTA: è previsto l'addebito dei costi relativi al trasferimento dei dati e l'elaborazione tramite un cluster HDInsight su richiesta. Per altre informazioni, vedere le pagine relative ai prezzi di HDInsight e ai prezzi dei trasferimenti di dati.
Per altre informazioni su questo esempio, vedere questa esercitazione in Azure.com.
Contoso è una società di giochi online che crea giochi per più piattaforme: console di gioco, dispositivi portatili e personal computer (PC). Ognuno di questi giochi genera grandi quantità di log. L'obiettivo di Contoso è raccogliere e analizzare i log generati da questi giochi per ottenere informazioni dettagliate sulle preferenze dei clienti, informazioni demografiche, comportamenti di utilizzo e così via per identificare opportunità di upselling e cross-selling, sviluppare nuove accattivanti funzionalità per favorire l'espansione del business e offrire una migliore esperienza ai clienti.
Nello specifico, questo esempio valuta l'efficacia di una campagna di marketing lanciata di recente da Contoso, tramite la raccolta e l'elaborazione dei log di esempio, l'aggiunta di dati di riferimento e la successiva trasformazione dei dati. Contiene le tre pipeline seguenti:
- PartitionGameLogsPipeline: legge gli eventi di gioco non elaborati dall'archivio BLOB e crea le partizioni in base ad anno, mese e giorno.
- EnrichGameLogsPipeline unisce gli eventi di gioco partizionati a dati di riferimento con codici geografici e migliora i dati grazie al mapping degli indirizzi IP alle località geografiche corrispondenti.
- AnalyzeMarketingCampaignPipeline: utilizza i dati migliorati e li elabora con i dati pubblicitari per creare l'output finale contenente l'efficacia della campagna di marketing.
L'esempio illustra come è possibile usare il servizio Data factory di Azure per comporre i flussi di integrazione dei dati che consentono di copiare e spostare i dati tramite l'attività di copia ed elaborare i dati tramite script Pig o Hive in un cluster HDInsight di Azure tramite l'attività HDInsight.
Per distribuire l'esempio:
- Nell'elenco a discesa selezionare l'account di archiviazione da usare per l'esempio.
- Selezionare il server di database e il database da usare per l'esempio.
- Immettere il nome utente e la password per accedere al database
- Fare clic sul pulsante Crea.
Il processo di distribuzione esegue le operazioni seguenti:
- Carica i dati di esempio nell'account di archiviazione di Azure
- Crea una tabella nel database SQL di Azure
- Distribuisce le pipeline, le tabelle e i servizi collegati per l'esecuzione dell'esempio.
In questo esempio viene usato un servizio collegato HDInsight su richiesta, che crea un cluster HDInsight su richiesta a un nodo per eseguire gli script Pig e Hive e che viene eliminato al termine dell'elaborazione.
Al termine della distribuzione, è possibile monitorare il flusso di lavoro dell'integrazione dati end-to-end nella vista diagramma e usare le funzionalità di monitoraggio del portale di Microsoft Azure per monitorare i set di dati e le pipeline.
NOTA: è previsto l'addebito dei costi relativi al trasferimento dei dati e l'elaborazione tramite un cluster HDInsight su richiesta. Per altre informazioni, vedere le pagine relative ai prezzi di HDInsight e ai prezzi dei trasferimenti di dati.
Per altre informazioni su questo esempio, vedere questa esercitazione in Azure.com.