データの読み込み @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, Urls string, ClickedUrls ...

//データの読み込み
@searchlog = 
    EXTRACT UserId          int, 
            Start           DateTime, 
            Region          string, 
            Query           string, 
            Duration        int, 
            Urls            string, 
            ClickedUrls     string
    FROM @"/Samples/Data/SearchLog.tsv"
    USING Extractors.Tsv();

//以前に作成されたテーブルへのデータの挿入
INSERT INTO SampleDBTutorials.dbo.SearchLog
SELECT *
FROM @searchlog;
ステップ 1: はじめに このチュートリアルでは Azure Data Lake Analytics を使用して Web サイト ログを分析する方法について取り上げます まだ行っていない場合には 対話型チュートリアル ブレードにある サンプル ... ステップ 2: Web ログ TVF の作成 複数の Data Lake Analytics ジョブでこのデータを使用するため データを テーブル値関数 (TVF) に格納しておくと便利です TVF を使用すると ジョブは 適切なスキーマで ... ステップ 3: 参照元の分析 (受信リンク) このステップでは 参照元と HTTP 状態をグループ化する ReferrersPerDay というテーブルを作成して 成功と失敗の頻度を調べます U-SQL スクリプトを確認し 送信 をクリックします ... ステップ 4: 失敗した要求の識別 このステップでは Web サイトにアクセスを試みたもののエラーになった参照元を調べます U-SQL スクリプトを確認し 送信 をクリックします ジョブが完了するには数分かかります 上部にステータス バーが表示されます ... データの読み込み @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, Urls string, ClickedUrls ... データベース SampleDBTutorials の作成 CREATE DATABASE IF NOT EXISTS SampleDBTutorials; //テーブル Table OlympicAthletes の作成 CREATE TABLE ... ファイル スキーマの定義 すべての列をマップする必要があります @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, ... フォルダー名が無効です BLOB 名に文字の任意の組み合わせを含めることができますが 予約された URL 文字は適切にエスケープする必要があります ポータルでアップロードする場合 ファイル サイズは 2 GB に制限されています 大きいファイルのアップロードには PowerShell または Visual Studio をご使用ください ツールを取得するには こちらをクリックします