次の方法で共有


Azure AI モデル推論サービスにモデルを追加して構成する

リソースのモデル推論エンドポイントで推論に使用できるモデルを決定して構成できます。 特定のモデルが構成されたら、要求でそのモデル名またはデプロイ名を指定することで、そこから予測を生成できます。 これを使用するためにコードをさらに変更する必要はありません。

この記事では、Azure AI サービスの Azure AI モデル推論サービスに新しいモデルを追加する方法について説明します。

前提条件

この記事を完了するには、以下が必要です。

モデルの追加

すべてのモデルが既に構成されている GitHub モデルとは反対に、Azure AI サービス リソースを使用すると、エンドポイントで利用できるモデルと構成を制御することができます。

エンドポイントに必要なすべてのモデルを追加するには、Azure AI Foundry for GitHub を使用します。 次の例では、サービスに Mistral-Large モデルを追加します。

  1. Azure AI Foundry for GitHub[モデルカタログ] セクションに移動します。

  2. 関心のあるモデルまでスクロールして選択します。

  3. モデル カードでモデルの詳細を確認できます。

  4. [デプロイ] を選択します。

  5. 追加の契約条件を必要とするモデル プロバイダーの場合は、これらの使用条件に同意するように求められます。 たとえば、Mistral モデルでは、他の使用条件に同意するように求められます。 [サブスクリプションとデプロイ] を選択して、これらのケースの使用条件に同意します。

    Mistral-Large モデルの使用条件に同意する方法を示すスクリーンショット。

  6. この時点でデプロイ設定を構成できます。 既定では、デプロイはデプロイするモデルの名前を受け取ります。 デプロイ名は、この特定のモデル デプロイにルーティングする要求の model パラメーターで使用されます。 この設定では、特定の構成をアタッチするときに、モデルの特定の名前を構成することもできます。 たとえば、厳密なコンテンツ安全性コンテンツ フィルターを使用するモデルは o1-preview-safe とします。

ヒント

各モデルは、異なるデータ所在地またはスループットの保証を提供する、さまざまな種類のデプロイをサポートする場合があります。 詳細については、デプロイの種類に関するページを参照してください。

  1. コンテンツ フィルターやレート制限 (使用可能な場合) などの設定を変更する必要がある場合は、[カスタマイズ] オプションを使用します。

必要に応じてデプロイをカスタマイズする方法を示すスクリーンショット。

  1. [デプロイ] を選択します。

  2. デプロイが完了すると、新しいモデルがページに一覧表示され、使用できるようになります。

モデルを使用する

Azure AI サービスにデプロイされたモデルは、リソースの Azure AI モデルの推論エンドポイントを使って利用できます。

使用方法:

  1. Azure AI モデルの推論エンドポイントの URL とキーは、[デプロイ] ページまたは概要ページから取得します。 Microsoft Entra ID 認証を使用している場合は、キーは必要ありません。

    デプロイに関連付けられた URL とキーの取得方法を示すスクリーンショット。

  2. クライアントを構築する前のモデル推論エンドポイントの URL とキーを使用します。 次の例では、Azure AI 推論パッケージを使用します。

    pip のように、パッケージ マネージャーを使用してパッケージ azure-ai-inference をインストールします。

    pip install azure-ai-inference>=1.0.0b5
    

    警告

    Azure AI サービス リソースには、Python のバージョン azure-ai-inference>=1.0.0b5 が必要です。

    その後、パッケージを使用してモデルを使用できます。 次の例では、チャット入力候補を使用してクライアントを作成する方法を示します。

    import os
    from azure.ai.inference import ChatCompletionsClient
    from azure.core.credentials import AzureKeyCredential
    
    client = ChatCompletionsClient(
        endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
        credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
    )
    

    サンプルを確認し、API リファレンス ドキュメントを参照して、作業を開始してください。

  3. 要求を作成するときに、パラメーター model を指定し、作成したモデル デプロイ名を挿入します。

    from azure.ai.inference.models import SystemMessage, UserMessage
    
    response = client.complete(
        messages=[
            SystemMessage(content="You are a helpful assistant."),
            UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
        ],
        model="mistral-large"
    )
    
    print(response.choices[0].message.content)
    

ヒント

エンドポイントを使用する場合は、model パラメーターをリソース内の使用可能な任意のモデル デプロイに変更できます。

また、Azure OpenAI モデルは、リソースの Azure OpenAI サービス エンドポイント を使って利用できます。 このエンドポイントは、モデル デプロイごとに排他的であり、独自の URL を持っています。

モデル デプロイのカスタマイズ

モデル デプロイを作成するときに、コンテンツのフィルター処理やレート制限など、他の設定を構成できます。 その他の設定を構成するには、[デプロイ] ウィザードで [カスタマイズ] オプションを選択します。

Note

構成は、デプロイするモデルによって異なる場合があります。

次のステップ