次の方法で共有


別の Azure AI Foundry プロジェクトまたはハブのサーバーレス API エンドポイントを使用する

この記事では、デプロイを作成したプロジェクトやハブとは別のプロジェクトやハブに存在する、既存のサーバーレス API エンドポイントを構成する方法について説明します。

重要

プレビュー段階のモデルは、モデルカタログ内のモデル カードで "プレビュー" のマークが付けられます。

モデル カタログ内の特定のモデルは、サーバーレス API としてデプロイできます。 この種類のデプロイは、組織が必要とする企業レベルのセキュリティとコンプライアンスを維持しながら、サブスクリプションでホストせずに API としてモデルを使う方法を提供します。 このデプロイ オプションでは、サブスクリプションからのクォータを必要としません。

次のような状況では、デプロイの作成に使ったものとは異なるプロジェクトまたはハブでサーバーレス API エンドポイントを使う必要がある可能性があります。

  • 特定のプロジェクトまたはハブにデプロイを一元化し、組織内の異なるプロジェクトまたはハブから使う必要があります。
  • モデルのサーバーレス デプロイを使用できる特定の Azure リージョンのハブにモデルをデプロイする必要があります。 しかしそれを、その特定のモデルに対してサーバーレス デプロイを使用できない別のリージョンから使う必要があります。

前提条件

サーバーレス API エンドポイント接続を作成する

次の手順に従って、接続を作成します。

  1. エンドポイントがデプロイされているプロジェクトまたはハブに接続します。

    Azure AI Foundryを開き、接続するエンドポイントがデプロイされているプロジェクトに移動します。

  2. 接続対象のエンドポイントの URL と資格情報を取得します。 この例では、エンドポイント名 meta-llama3-8b-qwerty の詳細を取得します。

    1. Azure AI Foundry ポータルのプロジェクトの左サイド バーから、[マイ アセット]>[モデル + エンドポイント] の順に移動すると、プロジェクト内のデプロイの一覧が表示されます。

    2. 接続するデプロイを選びます。

    3. [ターゲット URI][キー] の値をコピーします。

  3. 次に、接続を作成するプロジェクトまたはハブに接続します。

    接続を作成する必要がある対象プロジェクトに移動します。

  4. プロジェクトに接続を作成します。

    1. Azure AI Foundry ポータルのプロジェクトから左側のサイド バーの下部に移動し、[管理センター] を選択します。

    2. 管理センターの左側のサイド バーから、[接続されたリソース] を選択します。

    3. 新しい接続を選択します。

    4. [サーバーレス モデル] を選択します。

    5. [ターゲット URI] には、前にコピーした値を貼り付けます。

    6. [キー] には、前にコピーした値を貼り付けます。

    7. 接続に名前 (この場合は meta-llama3-8b-connection) を付けます。

    8. [接続の追加] を選択します。

  5. これで、接続が利用できるようになりました。

  6. 接続が機能していることを検証するには、次のようにします。

    1. Azure AI Foundry ポータルでプロジェクトに戻ります。

    2. プロジェクトの左側のサイド バーから、[ビルドとカスタマイズ][プロンプト フロー] の順に移動します。

    3. [作成] を選択して新しいフローを作成します。

    4. [チャット フロー] ボックスで [作成] を選びます。

    5. [プロンプト フロー] に名前を付け、[作成] を選びます。

    6. グラフから [チャット] ノードを選択し、[チャット] セクションに移動します。

    7. [接続] に対して、ドロップダウン リストを開いて、作成したばかりの接続 (この場合は meta-llama3-8b-connection) を選びます。

    8. 上部のナビゲーション バーから [コンピューティング セッションを開始する] を選択して、プロンプト フローの自動ランタイムを開始します。

    9. [チャット] オプションを選びます。 メッセージを送信して応答を取得できるようになりました。