//データの読み込み @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, Urls string, ClickedUrls string FROM @"/Samples/Data/SearchLog.tsv" USING Extractors.Tsv(); //以前に作成されたテーブルへのデータの挿入 INSERT INTO SampleDBTutorials.dbo.SearchLog SELECT * FROM @searchlog;
ステップ 1: はじめに このチュートリアルでは Azure Data Lake Analytics を使用して Web サイト ログを分析する方法について取り上げます まだ行っていない場合には 対話型チュートリアル ブレードにある サンプル ...
ステップ 2: Web ログ TVF の作成 複数の Data Lake Analytics ジョブでこのデータを使用するため データを テーブル値関数 (TVF) に格納しておくと便利です TVF を使用すると ジョブは 適切なスキーマで ...
ステップ 3: 参照元の分析 (受信リンク) このステップでは 参照元と HTTP 状態をグループ化する ReferrersPerDay というテーブルを作成して 成功と失敗の頻度を調べます U-SQL スクリプトを確認し 送信 をクリックします ...
ステップ 4: 失敗した要求の識別 このステップでは Web サイトにアクセスを試みたもののエラーになった参照元を調べます U-SQL スクリプトを確認し 送信 をクリックします ジョブが完了するには数分かかります 上部にステータス バーが表示されます ...
データの読み込み @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, Urls string, ClickedUrls ...
データベース SampleDBTutorials の作成 CREATE DATABASE IF NOT EXISTS SampleDBTutorials; //テーブル Table OlympicAthletes の作成 CREATE TABLE ...
ファイル スキーマの定義 すべての列をマップする必要があります @searchlog = EXTRACT UserId int, Start DateTime, Region string, Query string, Duration int, ...
フォルダー名が無効です BLOB 名に文字の任意の組み合わせを含めることができますが 予約された URL 文字は適切にエスケープする必要があります
ポータルでアップロードする場合 ファイル サイズは 2 GB に制限されています 大きいファイルのアップロードには PowerShell または Visual Studio をご使用ください ツールを取得するには こちらをクリックします