Freigeben über


Importieren einer Azure OpenAI-API

GILT FÜR: Alle API Management-Ebenen

Dieser Artikel zeigt zwei Möglichkeiten, eine Azure OpenAI Service-API als REST API in eine Azure API Management-Instanz zu importieren:

Voraussetzungen

  • Eine bestehende API Management-Instanz. Erstellen Sie eine, falls nicht schon geschehen.

  • Eine Azure OpenAI-Ressource mit einem bereitgestellten Modell. Weitere Informationen zur Modellimplementierung finden Sie im Leitfaden zur Ressourcenbereitstellung.

    Notieren Sie sich die ID (Name) der Bereitstellung. Sie benötigen sie, wenn Sie die importierte API in der API-Verwaltung testen.

  • Berechtigungen zum Gewähren des Zugriffs auf die Azure OpenAI-Ressource über die API Management-Instanz

Option 1. Importieren der API aus dem Azure OpenAI Service

Sie können eine Azure OpenAI-API direkt aus dem Azure OpenAI-Dienst in die API-Verwaltung importieren.

Hinweis

Diese Funktion ist derzeit in Arbeitsbereichen nicht verfügbar.

Wenn Sie die API importieren, konfiguriert API Management automatisch Folgendes:

  • Vorgänge für jeden Azure OpenAI REST-API-Endpunkt
  • Eine systemseitig zugewiesene Identität mit den erforderlichen Berechtigungen für den Zugriff auf die Azure OpenAI-Ressource
  • Eine backend-Ressource und eine set-backend-service-Richtlinie, die API-Anforderungen an den Azure OpenAI Service-Endpunkt weiterleitet
  • Eine authentication-managed-identity-Richtlinie, die sich mithilfe der systemseitig zugewiesenen Identität der Instanz bei der Azure OpenAI-Ressource authentifizieren kann
  • (optional) Richtlinien zur Überwachung und Verwaltung der Tokennutzung durch die Azure OpenAI-API

So importieren Sie eine Azure OpenAI-API in API Management:

  1. Navigieren Sie im Azure-Portal zu Ihrer API Management-Instanz.

  2. Wählen Sie im linken Menü unter APIs die Option APIs>+ API hinzufügen aus.

  3. Wählen Sie unter Aus Azure-Ressource erstellen die Option Azure OpenAI Service aus.

    Screenshot: Erstellen einer API aus Azure OpenAI Service im Portal

  4. Gehen Sie auf der Registerkarte Grundlagen wie folgt vor:

    1. Wählen Sie die Azure OpenAI-Ressource aus, die Sie importieren möchten.

    2. Wählen Sie optional eine Azure OpenAI-API-Version aus. Wenn Sie keine Version auswählen, wird standardmäßig die neueste produktionsfähige REST-API-Version verwendet.

    3. Geben Sie einen Anzeigenamen und optional eine Beschreibung für die API ein.

    4. Fügen Sie in Basis-URL einen Pfad an, den Ihre API Management-Instanz für den Zugriff auf die Azure OpenAI-API-Endpunkte verwendet. Wenn Sie OpenAI SDK-Kompatibilität sicherstellen aktivieren (empfohlen), wird /openai automatisch an die Basis-URL angefügt.

      Wenn Ihr API Management-Gatewayendpunkt beispielsweise https://contoso.azure-api.net lautet, legen Sie eine Basis-URL wie https://contoso.azure-api.net/my-openai-api/openai fest.

    5. Wählen Sie optional ein oder mehrere Produkte aus, die mit der API verknüpft werden sollen. Wählen Sie Weiter aus.

  5. Aktivieren Sie auf der Registerkarte Richtlinien optional Richtlinien zum Überwachen und Verwalten der Azure OpenAI-API-Tokennutzung. Wenn diese Option ausgewählt ist, geben Sie Einstellungen ein, oder akzeptieren Sie die Standardeinstellungen, die die Richtlinien azure-openai-token-limit und azure-openai-emit-token-metric für Ihre API definieren. Sie können die Richtlinienkonfiguration auch später festlegen oder aktualisieren. Klicken Sie auf Überprüfen + erstellen.

  6. Wählen Sie nach der Überprüfung Ihrer Einstellungen Erstellen aus.

Option 2. Hinzufügen der OpenAPI-Spezifikation zu API Management

Alternativ können Sie die OpenAPI-Spezifikation für die Azure OpenAI REST-API manuell herunterladen und API Management als OpenAPI-API hinzufügen.

Herunterladen der OpenAPI-Spezifikation

Laden Sie die OpenAPI-Spezifikation für die Azure OpenAI REST-API herunter, z. B. die GA-Version2024-02-01.

  1. Öffnen Sie in einem Text-Editor die von Ihnen heruntergeladene Spezifikationsdatei.

  2. Ersetzen Sie im servers-Element in der Spezifikation den Namen Ihres Azure OpenAI Service-Endpunkts in den Platzhalterwerte für url und default-Endpunkt in der Spezifikation. Wenn Ihr Azure OpenAI Service-Endpunkt beispielsweise contoso.openai.azure.com lautet, aktualisieren Sie das servers-Element mit den folgenden Werten:

    • URL: https://contoso.openai.azure.com/openai
    • Standardendpunkt: contoso.openai.azure.com
    [...]
    "servers": [
        {
          "url": "https://contoso.openai.azure.com/openai",
          "variables": {
            "endpoint": {
              "default": "contoso.openai.azure.com"
            }
          }
        }
      ],
    [...]
    
  3. Notieren Sie sich den Wert der API version in der Spezifikation. Sie benötigen sie, um die API zu testen. Beispiel: 2024-02-01.

Importieren der OpenAPI-Spezifikation in API Management

  1. Navigieren Sie im Azure-Portal zu Ihrer API Management-Instanz.
  2. Wählen Sie im linken Menü APIs>+ API hinzufügen aus.
  3. Wählen Sie unter Neue API definieren die Option gRPC aus. Geben Sie einen Anzeigenamen und einen Namen für die API ein.
  4. Geben Sie ein API-URL-Suffix ein, das mit /openai endet, um auf die Azure OpenAI-API-Endpunkte in Ihrer API Management-Instanz zuzugreifen. Beispiel: my-openai-api/openai.
  5. Klicken Sie auf Erstellen.

Die API wird importiert und zeigt Vorgänge aus der OpenAPI-Spezifikation an.

Konfigurieren der Authentifizierung bei der Azure OpenAI-API

Um sich bei der Azure OpenAI-API zu authentifizieren, geben Sie einen API-Schlüssel oder eine verwaltete Identität an. Wenn Sie die Azure OpenAI-API direkt in Ihre API Management-Instanz importiert haben, wird die Authentifizierung mit der verwalteten Identität der API Management-Instanz automatisch konfiguriert.

Wenn Sie die Azure OpenAI-API aus der OpenAPI-Spezifikation hinzugefügt haben, müssen Sie die Authentifizierung konfigurieren. Weitere Informationen über das Konfigurieren der Authentifizierung mithilfe von API Management-Richtlinien finden Sie unter Authentifizieren und Autorisieren der Azure OpenAI-API.

Testen der Azure OpenAI-API

Um sicherzustellen, dass Ihre Azure OpenAI-API erwartungsgemäß funktioniert, testen Sie sie in der API Management-Testkonsole. Sie müssen die Modellimplementierungs-ID (Name) angeben, die in der Azure OpenAI-Ressource konfiguriert ist, um die API zu testen.

  1. Wählen Sie die API aus, die Sie im vorherigen Schritt erstellt haben.

  2. Wählen Sie die Registerkarte Testen aus.

  3. Wählen Sie einen Vorgang aus, der mit dem in der Azure OpenAI-Ressource implementierten Modell kompatibel ist. Auf der Seite werden Felder für Parameter und Header angezeigt.

  4. Geben Sie in Vorlagenparameter die folgenden Werte ein:

    • deployment-id: die ID einer Bereitstellung im Azure OpenAI Service
    • api-version: eine gültige Azure OpenAI-API-Version, z. B. die API-Version, die Sie beim Importieren der API ausgewählt haben. Screenshot: Testen einer Azure OpenAI Service-API im Portal
  5. Geben Sie bei Bedarf weitere Parameter und Header ein. Je nach Vorgang müssen Sie möglicherweise einen Anforderungstextkonfigurieren oder aktualisieren.

    Hinweis

    In der Testkonsole füllt API Management automatisch einen Ocp-Apim-Subscription-Key-Header auf und konfiguriert den Abonnementschlüssel des integrierten All-Access-Abonnements. Dieser Schlüssel ermöglicht den Zugriff auf jede API in der API Management-Instanz. Optional können Sie den Ocp-Apim-Subscription-Key-Header anzeigen, indem Sie das Augensymbol neben der HTTP-Anforderung auswählen.

  6. Wählen Sie Send (Senden) aus.

    Wenn der Test erfolgreich ist, antwortet das Back-End mit einem erfolgreichen HTTP-Antwortcode und einigen Daten. An die Antwort angefügt werden Tokennutzungsdaten, die Ihnen helfen, Ihre Azure OpenAI-API-Nutzung zu überwachen und zu verwalten. Screenshot: Tokennutzungsdaten in der API-Antwort im Portal

Zwischenspeicherungsrichtlinien für Azure OpenAI-APIs

Neben den Richtlinien azure-openai-token-limit und azure-openai-emit-token-metric, die Sie beim Importieren einer Azure OpenAI Service-API konfigurieren können, bietet API Management die folgenden Zwischenspeicherungsrichtlinien, um die Leistung zu optimieren und die Latenz für Azure OpenAI-APIs zu verringern:

  • azure-openai-semantic-cache-store
  • azure-openai-semantic-cache-lookup