翻訳
Deutsch (Deutschland)
German (Germany)
Español (España)
Spanish (Spain)
Français (France)
French (France)
italiano
Italian
日本語
Japanese
한국어
Korean
Português
Portuguese
Русский
Russian
English
English (United States)
Azure Stream Analytics
1
2
3
ジョブが出力の作成を開始するタイミングを選択します このジョブには 結果が正確になるように まず入力データの読み取りが必要な場合があることに留意してください 停止されたジョブをデータを失わずに再開するには 最終停止時を選択します (このオプションはジョブを初めて実行する場合は使用できません) ...
ジョブごとに 少なくとも 1 つのデータ ストリーム入力が必要です 参照データ入力の追加はオプションです データ ストリームは Stream Analytics ジョブによって消費および変換される連続した一連のデータまたはイベントです 参照データは ...
ジョブは現在すでに更新を実行しています 別の更新要求を行う前に 現在の更新が完了するまでお待ちください
スキーマレスな JSON データの格納には DocumentDB を使用します DocumentDB は予測可能なスループット 低遅延 柔軟なクエリに最適化されています
ステップ {0} に同じサブクエリからの入力を 2 つ含めることはできません 修正するには 同じサブクエリを持つ異なる名前のステップを別に作成します
ステップ {0} に対する参照は 1 つしか使用できません 修正するには 同じサブクエリを持つ異なる名前のステップを別に作成します
ストリーミング ユニットは クエリの処理に使用できる計算リソースのプールとして使用されます 詳しくは ページ下部にある ? アイコンをクリックしてください
ソース '{0}' を使用できるのは 'datediff' 関数を使用するテンポラルな述語においてのみです 例: SELECT input1.a, input2.b FROM input1 JOIN input2 ON DATEDIFF(minute, ...
ターゲットのサブスクリプション/リソース グループへの移動中に予期しないエラーが発生したため 指定された 1 つ以上のストリーミング ジョブは移動できませんでした
ターゲットのサブスクリプションとリソース グループにストリーミング ジョブの名前が既に存在するため 指定された 1 つ以上のストリーミング ジョブを移動できませんでした
テンポラル表では SYSTEM_TIME PERIOD 定義の上限列名が GENERATED ALWAYS AS ROW END 列名と一致しなければなりません
テンポラル表では SYSTEM_TIME PERIOD 定義の下限列名が GENERATED ALWAYS AS ROW START 列名と一致しなければなりません
デバイスからクラウドへのメッセージについては 'メッセージング' エンドポイントを使用します デバイス テレメトリとメタデータについては '操作の監視' エンドポイントを使用します
データのサンプリングは Azure プレビュー ポータルではまだサポートされていません この機能を利用するには Azure の管理ポータルへ移動してください
トピックは イベント ハブやキューと似ているメッセージング エンティティです 多数の異なるデバイスやサービスからのイベント ストリームを収集するように設計されています トピックを作成するときは 特定の名前も指定します
トピックを作成するときは トピックの設定 で共有アクセス ポリシーを作成することもできます 共有アクセス ポリシーを使用すると プライマリ キーとセカンダリ キーを使用してアクセス許可を付与できます ここにはプライマリ キーまたはセカンダリ ...
トピックを作成するときは トピックの設定で共有アクセス ポリシーを作成することもできます 各共有アクセス ポリシーは 名前 ユーザーが設定したアクセス許可 およびアクセス キーを持ちます
ネストした INSERT UPDATE DELETE または MERGE ステートメントを ネストした別の INSERT UPDATE DELETE または MERGE ステートメントの内側に指定することはできません
パラメーター番号 {0} とそれに続いてパラメーターを '@name = value' の形式で渡す必要があります '@name = value' の形式を使用した後は その後のすべてのパラメーターの形式を '@name = value' で指定してください ...
パーティション分割されたストリームに TIMESTAMP BY OVER 句を使用する場合 パーティション キーとして 'PartitionId' を使用する必要があります '{0}' 入力に "PARTITION BY PartitionId" ...
リレーショナルな性質のデータ またはデータベースでホストされているコンテンツに依存するアプリケーションには SQL Database を使用します
上で選択した時間外のイベントが到着した場合 2 つのオプションがあります ドロップ を選択した場合 そのイベントは削除されます 調整 を選択した場合 イベントは保持され そのタイムスタンプが変更されます
使用するコレクションのコレクション名のパターン コレクション名の形式は オプションの {partition} トークンを使って作成できます パーティションは 0 から始まる数値で指定します Stream Analytics ジョブが開始される前からコレクションが存在していることが必要です ...
値の長さは 6 50 文字である必要があります 名前に含めることができるのは 英字 数字 ハイフンのみです 名前の先頭は英字でなければならず 末尾は英字か数字でなければなりません
入力 BLOB ソースの PathPattern プロパティで正しくないトークンが見つかりました 使用できるのは {date} {time} {partition} のすべて またはいすれかのみです
入力イベントを {0} としてシリアル化解除できません 考えられる原因: 1) イベントの形式が間違っている 2) 入力ソースが正しくないシリアル化形式で構成されている
入力ソースから Stream Analytics ジョブにトリップした後では イベントが順不同で到着することがあります これらのイベントをその状態のまま受け入れるか 設定された時間一時停止して順序を変更するかを選択できます
入力ソースのいずれかで TIMESTAMP BY OVER 句を使用する場合 同じフィールド名を指定する TIMESTAMP BY OVER 句が他のすべての入力ソースに必要です
出力 DataLake ソースの FilePathPrefix プロパティで正しくないトークンが見つかりました 使用できるのは {date} {time} の両方またはそのいずれかのみです
出力へのイベントの書き込みに失敗した場合 いくつかのオプションがあります 'ドロップ' は失敗の原因となったイベントをドロップし '再試行' は成功するまでイベントの書き込みを再試行します
出力イベントに {0} という列が含まれていますが これは {0} として構成されていません 列を '{0}' として使用するには 列を削除するか または出力の定義を更新してください
出力列の名前にパーティション キーが含まれています パーティション キーは 指定されたテーブル内のパーティションの一意の識別子であり エンティティの主キーの最初の部分を構成するものです これは最大 1 KB のサイズの文字列値です
出力列の名前に行キーが含まれています 行キーは 指定されたパーティション内のエンティティの一意の識別子であり エンティティの主キーの 2 番目の部分を構成するものです 行キーは最大 1 KB のサイズの文字列値です
出力列の型は Service Bus Message プロパティの Stream Analytics ではサポートされていません 列名: '{0}' 列の型: {1} サポートされている型: {2}
名前には文字 数字 ピリオド ハイフン アンダースコアを使用できます 先頭と末尾は文字または数字にする必要があります
名前には文字 数字 ピリオド ハイフン アンダースコアを使用できます 先頭と末尾は文字または数字にする必要があります
名前には文字 数字 ピリオド ハイフン アンダースコアを使用できます 先頭と末尾は文字または数字にする必要があります
名前には文字 数字 ピリオド ハイフン アンダースコアを使用できます 先頭と末尾は文字または数字にする必要があります
名前には英数字しか使えません 名前の始めに数字を使うことはできません 名前は大文字と小文字を区別しません 名前は 3 文字以上 63 文字以下の長さにする必要があります
名前には英数字しか使えません 名前の始めに数字を使うことはできません 名前は大文字と小文字を区別しません 名前は 3 文字以上 63 文字以下の長さにする必要があります
名前に含めることのできる文字は 英小文字 数字 ハイフンのみで 先頭は英字か数字でなければなりません 名前に 連続した 2 個のハイフンを含めることはできません 長さは 3 文字以上 36 文字以下にすることが必要です
国際化の個人設定を選択します この設定は データで使用されている言語とロケールの設定に基づいて Stream Analytics ジョブがデータを解析 比較 ソートする方法を指定します
型 {0} および型 {1} のオペランドでは Lag' はサポートされません 値 (最初の引数) の型および既定値 (3 番目の引数) の型には互換性がなければなりません
多くのコンシューマーにメッセージを送信するには Service Bus トピックを使用します トピックで登録される各サブスクリプションに対して メッセージが使用できるようになります
大規模な非構造化データを取り込むには BLOB ストレージを使用します BLOB に対する Stream Analytics ジョブは BLOB 内のレコードにタイムスタンプが含まれていない限り 本来は継時的ではありません
式 '{1}' で 関数 'CreateLineString' を型 '{0}' に適用することはできません GeoJSON LineString の値には少なくとも 2 つのポイントが必要であり それ自体を 2 つ以上の連続するポイントの区間に重ねることはできません ...
式 '{1}' で 関数 'CreatePoint' を型 '{0}' に適用することはできません 数値が期待されています 例: "CreatePoint(0.0, 0)" or "CreatePoint("0.0", 0)"
式 '{1}' で 関数 'CreatePolygon' を型 '{0}' に適用することはできません GeoJSON Polygon の値には少なくとも 4 つのポイントが必要であり 最初と最後のポイントは等しくなければなりません 例: ...
式 '{1}' で 関数 'CreatePolygon' を型 '{0}' に適用することはできません GeoJSON Polygon の値には少なくとも 4 つのポイントが必要であり 最初と最後のポイントは等しくなければなりません 例: ...
式 '{2}' で 関数 '{0}' を型 '{1}' に適用することはできません GeoJSON 形式のレコード値が必要です 例: "{'type':'Point', 'coordinates':[0.0, 0.0]}"
式 '{2}' で 関数 '{0}' を型 '{1}' に適用することはできません GeoJSON 形式のレコード値が必要です 例: "{'type':'Point', 'coordinates':[0.0,0.0]}"
指定された 1 つ以上のストリーミング ジョブが実行状態であったため 移動できませんでした ストリーミング ジョブを別のリソース グループまたはサブスクリプションに移動するには ストリーミング ジョブが停止状態である必要があります
指定された 1 つ以上のストリーミング ジョブのサブスクリプション ID またはリソース グループが要求 URL で指定されたものと異なるため 移動できませんでした
指定されたアカウント内でファイルの場所を指定するために使用するファイル パス パス内では 次の 2 つの変数のインスタンスを 1 つ以上指定できます: {date} {time} 例 1: cluster1/logs/{date}/{time} ...
指定されたコンテナー内で BLOB を探すために使用されるファイル パス パス内では 次の 2 つの変数の 1 つ以上のインスタンスを指定できます {date} {time} 例 1: cluster1/logs/{date}/{time} ...
指定されたコンテナー内の BLOB を探すために使用されるファイル パスです パスでは 次の 2 つの変数の 1 つ以上のインスタンスを指定できます {date} {time} 例 1 (定期的に更新される参照データ): products/ ...
指定されたコンテナー内の BLOB を探すために使用されるファイル パスです パスでは 次の 3 つの変数の 1 つ以上のインスタンスを指定できます {date} {time} {partition} 例 1: cluster1/logs/{date}/{time}/{partition} ...
指定されたサイズの上限が許容される最大値を上回っています サイズの上限は 16777215 TB より小さくする必要があります
指定されたターゲットのサブスクリプション/リソース グループの組み合わせは ソースサブスクリプション/リソース グループの組み合わせと異なっている必要があります
指定されたログイン資格情報を使って Data Lake Store にアクセスできませんでした 正しい資格情報を使っていることを確認して もう一度お試しください
指定されたロケール ID が無効です ロケール ID が正しく 対応する言語のリソースがインストールされていることを確認してください
指定したログイン認証情報を使って PowerBI にアクセスできませんでした 会社の資格情報を使っていることを確認して もう一度お試しください
指定したログイン資格情報を使って Azure Data Lake にアクセスできませんでした 正しい資格情報を使っていることを確認して もう一度お試しください
指定したログイン資格情報を使って PowerBI にアクセスできませんでした 会社の資格情報を使っていることを確認して もう一度お試しください
操作を実行しようとしてエラーが発生しました: {0} 次の情報は 問題の診断に役立つ可能性があります 受信したエラー コード: {1}
改行区切り の場合は 各 JSON オブジェクトを改行で区切って出力をフォーマットします 配列 の場合は JSON オブジェクトの配列として出力をフォーマットします
新しい Data Lake Store 出力を追加するには アカウント名が必要です サブスクリプションに Data Lake Store アカウントが少なくとも 1 つ含まれていることを確認してもう一度お試しください
注: この出力に Data Lake Store アカウントへの永続的なアクセス権を付与しています 今後 このアクセス権を取り消す必要が生じた場合は 次のいずれかを実行してください:
注: この出力に対して Power BI ダッシュボードへの永続的なアクセス権を付与しています 今後 このアクセス権を取り消す必要が生じた場合は 次のいずれかを実行してください:
注: この出力に対して Power BI ダッシュボードへの永続的なアクセス権を付与しようとしています 今後 このアクセス権を取り消す必要が生じた場合は 次のいずれかを実行してください:
注: この出力は Data Lake Store アカウントへの永続的なアクセス権を有しています Data Lake へのアクセス権は 一度付与されると 次のいずれかを行わない限り期限切れにはなりません:
注: この出力は Power BI ダッシュボードに永続的にアクセスできます Power BI へのアクセス権は 一度付与されると 次のいずれかを行わない限り期限切れにはなりません:
注: この出力は Power BI ダッシュボードに永続的にアクセスできます Power BI へのアクセス権は 一度付与されると 次のいずれかを行わない限り期限切れにはなりません:
現在 入力ソースに接続できません 入力ソースが使用可能で 接続の上限に達していないか確認してください
結合ソースが (TIMESTAMP BY OVER 句で指定されたキーごとに) 複数のタイムラインを使用する場合 TIMESTAMP BY OVER 句で指定した両方のソースの条件を満たすキーを結合述語に含める必要があります 結合述語に '{0}' ...
Deutsch (Deutschland)
German (Germany)
Español (España)
Spanish (Spain)
Français (France)
French (France)
italiano
Italian
日本語
Japanese
한국어
Korean
Português
Portuguese
Русский
Russian
English
English (United States)
検索
×