次の方法で共有


カスタム モデルに対してクエリを実行する

デプロイメントが正常に追加されたら、デプロイにクエリを実行して、デプロイに割り当てたモデルに基づいてテキストからエンティティを抽出できます。 Prediction API またはクライアント ライブラリ (Azure SDK) を使用して、プログラムでデプロイに対してクエリを実行できます。

デプロイされたモデルをテストする

Language Studio を使用して、カスタム エンティティ認識タスクを送信し、結果を視覚化できます。

Language Studio 内からデプロイされたモデルをテストするには、次の手順を行います。

  1. 左側のメニューから [デプロイのテスト] を選びます。

  2. テストするデプロイを選択します。 テストできるのは、デプロイに割り当てられているモデルのみです。

  3. 多言語プロジェクトの場合は、[言語] ドロップダウンから、テストするテキストの言語を選択します。

  4. ドロップダウンからクエリ/テストするデプロイを選択します。

  5. 要求に送信するテキストを入力するか、使用する .txt ファイルをアップロードできます。

  6. 上部のメニューから [テストの実行] を選択します。

  7. [Result](結果) タブでは、テキストから抽出されたエンティティとその型を確認できます。 [JSON] タブで JSON 応答を表示することもできます。

モデルのテスト結果を示すスクリーンショット。

モデルにエンティティ認識要求を送信する

  1. デプロイ ジョブが正常に完了した後、使うデプロイを選び、上部のメニューで [予測 URL の取得] を選択します。

    予測 URL を取得するボタンを示すスクリーンショット。

  2. 表示されたウィンドウの [送信] ピボットで、サンプルの要求 URL と本文をコピーします。 YOUR_DOCUMENT_HEREYOUR_DOCUMENT_LANGUAGE_HERE などのプレースホルダー値を、実際に処理するテキストと言語に置き換えます。

  3. ターミナルまたはコマンド プロンプトで、POST cURL 要求を送信します。 要求が成功した場合は、API の結果と共に 202 応答を受け取ります。

  4. 応答ヘッダーで、{ENDPOINT}/language/analyze-text/jobs/<JOB-ID}> という形式の operation-location から抽出の {JOB-ID} を受け取ります。

  5. Language Studio に戻り、前に要求の例を取得したのと同じウィンドウで [取得] ピボットを選び、サンプル要求をテキスト エディターにコピーします。

  6. 前の手順で抽出した ID を使用して、URL の /jobs/ の後にジョブ ID を追加します。

  7. ターミナルまたはコマンド プロンプトで、GET cURL 要求を送信します。

次のステップ