Contoso 社は、ゲーム コンソール、携帯デバイス、パーソナル コンピューター (PC) など、複数のプラットフォーム向けにゲームを制作するゲーム会社です。これらのゲームはそれぞれが大量のログを生成します。Contoso 社では、これらのログを収集して分析することによって、顧客の嗜好、人口統計、利用実態などを理解し、アップセルやクロスセルの機会の見極め、ビジネスを成長させる魅力的な新機能の開発、より優れたカスタマー エクスペリエンスの提供に役立てたいと考えています。
このサンプルでは、Contoso 社が最近開始したマーケティング キャンペーンの有効性を評価します。そのために、サンプル ログを収集、処理して参照データで強化し、このデータを変換します。このサンプルには、次の 3 つのパイプラインがあります。
- PartitionGameLogsPipeline は、未処理のゲーム イベントを BLOB ストレージから読み取り、年、月、日に基づくパーティションを作成します。
- EnrichGameLogsPipeline は、パーティションに分割されたゲーム イベントと地理的コード参照データを結合し、IP アドレスを対応する地理的位置にマッピングしてデータを強化します。
- AnalyzeMarketingCampaignPipeline パイプラインは、強化されたデータを活用し、それを広告データと共に処理して、マーケティング キャンペーンの有効性を含む最終的な出力を作成します。
このサンプルは、Azure Data Factory サービスを使ってデータ統合ワークフローを作成する方法を示します。このデータ統合ワークフローでは、コピー アクティビティを使ってデータをコピーまたは移動し、HDInsight アクティビティを使って Azure HDInsight クラスター上で Pig または Hive スクリプトによりデータを処理します。
サンプルをデプロイするには:
- サンプルで使うストレージ アカウントをドロップダウン リストから選択します。
- サンプルで使うデータベース サーバーとデータベースをドロップダウン リストから選択します。
- データベースにアクセスするためのユーザー名とパスワードを入力します。
- [作成] をクリックします。
デプロイメント プロセスでは、次の操作を実行します。
- サンプル データを Azure Storage にアップロードします。
- Azure SQL Database にテーブルを作成します。
- リンクされたサービス、テーブル、パイプラインをデプロイしてサンプルを実行します。
このサンプルでは、オンデマンド HDInsight のリンクされたサービスが使用されています。このリンクされたサービスは、Pig と Hive のスクリプトを実行する単一ノードのオンデマンド HDInsight クラスターを作成し、処理が完了した後に削除されます。
デプロイメントが完了した後は、ダイアグラム ビューを使ってエンド ツー エンドのデータ統合ワークフローを監視し、Microsoft Azure ポータルの監視機能を使ってモニター データセットとパイプラインを監視できます。
注: データの転送とオンデマンド HDInsight クラスターによるデータの処理を行うには、料金が発生します。詳細については、「HDInsight 料金」とデータ転送の料金に関するページを参照してください。
このサンプルの詳細については、Azure.com のこのチュートリアルを参照してください。
Contoso 社は、ゲーム コンソール、携帯デバイス、パーソナル コンピューター (PC) など、複数のプラットフォーム向けにゲームを制作するゲーム会社です。これらのゲームはそれぞれが大量のログを生成します。Contoso 社では、これらのログを収集して分析することによって、顧客の嗜好、人口統計、利用実態などを理解し、アップセルやクロスセルの機会の見極め、ビジネスを成長させる魅力的な新機能の開発、より優れたカスタマー エクスペリエンスの提供に役立てたいと考えています。
このサンプルでは、Contoso 社が最近開始したマーケティング キャンペーンの有効性を評価します。そのために、サンプル ログを収集、処理して参照データで強化し、このデータを変換します。このサンプルには、次の 3 つのパイプラインがあります。
- PartitionGameLogsPipeline は、未処理のゲーム イベントを BLOB ストレージから読み取り、年、月、日に基づくパーティションを作成します。
- EnrichGameLogsPipeline は、パーティションに分割されたゲーム イベントと地理的コード参照データを結合し、IP アドレスを対応する地理的位置にマッピングしてデータを強化します。
- AnalyzeMarketingCampaignPipeline パイプラインは、強化されたデータを活用し、それを広告データと共に処理して、マーケティング キャンペーンの有効性を含む最終的な出力を作成します。
このサンプルは、Azure Data Factory サービスを使ってデータ統合ワークフローを作成する方法を示します。このデータ統合ワークフローでは、コピー アクティビティを使ってデータをコピーまたは移動し、HDInsight アクティビティを使って Azure HDInsight クラスター上で Pig または Hive スクリプトによりデータを処理します。
サンプルをデプロイするには:
- サンプルで使うストレージ アカウントをドロップダウン リストから選択します。
- サンプルで使うデータベース サーバーとデータベースをドロップダウン リストから選択します。
- データベースにアクセスするためのユーザー名とパスワードを入力します。
- [作成] をクリックします。
デプロイメント プロセスでは、次の操作を実行します。
- サンプル データを Azure Storage にアップロードします。
- Azure SQL Database にテーブルを作成します。
- リンクされたサービス、テーブル、パイプラインをデプロイしてサンプルを実行します。
このサンプルでは、オンデマンド HDInsight のリンクされたサービスが使用されています。このリンクされたサービスは、Pig と Hive のスクリプトを実行する単一ノードのオンデマンド HDInsight クラスターを作成し、処理が完了した後に削除されます。
デプロイメントが完了した後は、ダイアグラム ビューを使ってエンド ツー エンドのデータ統合ワークフローを監視し、Microsoft Azure Portal の監視機能を使ってモニター データセットとパイプラインを監視できます。
注: データの転送とオンデマンド HDInsight クラスターによるデータの処理を行うには、料金が発生します。詳細については、「HDInsight 料金」とデータ転送の料金に関するページを参照してください。
このサンプルの詳細については、Azure.com のこのチュートリアルを参照してください。