Contoso é uma empresa de jogos que cria jogos para diversas plataformas: consoles, dispositivos portáteis e computadores (PCs). Esses jogos geram muitos logs e a meta da Contoso é coletá-los e examiná-los para entender as preferências dos clientes, a demografia, o comportamento de uso, etc. Assim, a empresa pode identificar oportunidades de melhoria de vendas e de vendas cruzadas, desenvolver novos recursos mais atraentes para aumentar o crescimento dos negócios e fornecer uma experiência melhor aos clientes.
Este exemplo avalia especificamente a eficiência de uma campanha de marketing que a Contoso lançou recentemente para coletar logs, processando-os e enriquecendo-os com dados de referência, e transformando tais dados. Ele conta com três pipelines:
- O PartitionGameLogsPipeline lê os eventos de jogos brutos a partir do armazenamento de blobs e cria partições com base no ano, mês e dia.
- O EnrichGameLogsPipeline participa de eventos de jogo particionados com os dados de referência da codificação geográfica e enriquece os dados ao mapear endereços de IP com seus locais geográficos correspondentes.
- O pipeline AnalyzeMarketingCampaignPipeline aproveita os dados enriquecidos e processa-os com os dados de propaganda para criar o resultado final que contém a eficiência da campanha de marketing.
O exemplo mostra como você pode usar o serviço Azure Data Factory para compor fluxos de trabalho com integração de dados a fim de copiar/mover dados usando o Copiar Atividade e processa os dados usando scripts Pig ou Hive em um cluster do Azure HDInsight usando a Atividade HDInsight.
Para implantar o exemplo:
- Escolha a conta de armazenamento na lista suspensa que você quer usar com o exemplo.
- Depois, escolha o servidor do banco de dados e o banco de dados.
- Informe o nome de usuário e a senha para acessar o banco de dados.
- Clique no botão Criar.
O processo de implantação faz o seguinte:
- Carrega os dados do exemplo em seu armazenamento do Azure
- Cria uma tabela no banco de dados SQL do Azure
- Implanta serviços vinculados, tabelas e pipelines para executar o exemplo.
Um serviço vinculado sob demando do HDInsight é usado neste exemplo, o que cria um cluster de um nó sob demanda do HDInsight para executar os scripts Pig e Hive, e é excluído quando o processamento termina.
Quando a implantação é concluída, você pode monitorar o fluxo de trabalho da integração de dados de ponta a ponta usando a exibição em diagrama, bem como usar os recursos de monitoramento do portal do Microsoft Azure para monitorar conjuntos de dados e pipelines.
OBSERVAÇÃO: há custos associados à transferência de dados e processamento de dados com um cluster sob demanda do HDInsight. Veja os preços do HDInsight e os preços de transferências de dados para saber mais detalhes.
Para conseguir mais detalhes sobre este exemplo, confira este tutorial em Azure.com.
Contoso é uma empresa de jogos que cria jogos para diversas plataformas: consoles, dispositivos portáteis e computadores (PCs). Esses jogos geram muitos logs e a meta da Contoso é coletá-los e examiná-los para entender as preferências dos clientes, a demografia, o comportamento de uso, etc. Assim, a empresa pode identificar oportunidades de melhoria de vendas e de vendas cruzadas, desenvolver novos recursos mais atraentes para aumentar o crescimento dos negócios e fornecer uma experiência melhor aos clientes.
Este exemplo avalia especificamente a eficiência de uma campanha de marketing que a Contoso lançou recentemente para coletar logs, processando-os e enriquecendo-os com dados de referência, e transformando tais dados. Ele conta com três pipelines:
- O PartitionGameLogsPipeline lê os eventos de jogos brutos por meio do armazenamento de blob e cria partições com base no ano, mês e dia.
- O EnrichGameLogsPipeline participa de eventos de jogo particionados com os dados de referência da codificação geográfica e enriquece os dados ao mapear endereços de IP com seus locais geográficos correspondentes.
- O pipeline AnalyzeMarketingCampaignPipeline aproveita os dados enriquecidos e processa-os com os dados de propaganda para criar o resultado final que contém a eficiência da campanha de marketing.
O exemplo mostra como você pode usar o serviço Azure Data Factory para compor fluxos de trabalho com integração de dados a fim de copiar/mover dados usando o Copiar Atividade e processa os dados usando scripts Pig ou Hive em um cluster do Azure HDInsight usando a Atividade HDInsight.
Para implantar o exemplo:
- Escolha a conta de armazenamento na lista suspensa que você quer usar com o exemplo.
- Depois, escolha o servidor do banco de dados e o banco de dados.
- Informe o nome de usuário e a senha para acessar o banco de dados.
- Clique no botão Criar.
O processo de implantação faz o seguinte:
- Carrega os dados do exemplo em seu armazenamento do Azure
- Cria uma tabela no banco de dados SQL do Azure
- Implanta serviços vinculados, tabelas e pipelines para executar o exemplo.
Um serviço vinculado sob demando do HDInsight é usado neste exemplo, o que cria um cluster de um nó sob demanda do HDInsight para executar os scripts Pig e Hive, e é excluído quando o processamento termina.
Quando a implantação é concluída, você pode monitorar o fluxo de trabalho da integração de dados de ponta a ponta usando a exibição em diagrama, bem como usar os recursos de monitoramento do portal do Microsoft Azure para monitorar conjuntos de dados e pipelines.
OBSERVAÇÃO: há custos associados à transferência de dados e processamento de dados com um cluster sob demanda do HDInsight. Veja os preços do HDInsight e os preços de transferências de dados para saber mais detalhes.
Para conseguir mais detalhes sobre este exemplo, confira este tutorial em Azure.com.