Freigeben über


Referenz: Vervollständigungen | Azure KI Studio

Wichtig

Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

Erstellt eine Modellantwort für die angegebene Chatunterhaltung.

POST /chat/completions?api-version=2024-04-01-preview

URI-Parameter

Name Geben Sie in Erforderlich Type BESCHREIBUNG
api-version Abfrage True Zeichenfolge Die Version der API im Format "JJJJ-MM-TT" oder "JJJJ-MM-TT-Vorschau"

Anforderungsheader

Name Erforderlich Type Beschreibung
Zusätzliche Parameter Zeichenfolge Das Verhalten der API, wenn zusätzliche Parameter in der Nutzlast angegeben werden. Durch die Verwendung von pass-through wird die API zum Übergeben des Parameters an das zugrunde liegende Modell angeregt. Verwenden Sie diesen Wert, wenn Sie Parameter übergeben möchten, die Ihnen bekannt sind, damit das zugrunde liegende Modell unterstützt werden kann. Die Verwendung von ignore führt dazu, dass die API alle nicht unterstützten Parameter ablegt. Verwenden Sie diesen Wert, wenn Sie dieselbe Nutzlast in verschiedenen Modellen verwenden müssen, aber einer der zusätzlichen Parameter kann dazu führen, dass ein Modell ausfällt, wenn es nicht unterstützt wird. Die Verwendung von error sorgt dafür, dass die API alle zusätzlichen Parameter in der Nutzlast ablehnt. Es können nur Parameter angegeben werden, die in dieser API festgelegt sind, ansonsten wird ein 400-Fehler zurückgegeben.
azureml-model-deployment Zeichenfolge Name der Bereitstellung, an die Sie die Anforderung weiterleiten möchten Unterstützt für Endpunkte, die mehrere Bereitstellungen unterstützen

Anforderungstext

Name Erforderlich Type Beschreibung
model Zeichenfolge Der Name des Modells. Dieser Parameter wird ignoriert, wenn der Endpunkt nur für ein Modell verwendet wird.
Cloud an das Gerät True ChatCompletionRequestMessage Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Gibt einen 422-Fehler zurück, wenn mindestens einige der Nachrichten vom Modell nicht verstanden werden können.
frequency_penalty Zahl Verhindert Wortwiederholungen, indem die Wahrscheinlichkeit reduziert wird, dass ein Wort ausgewählt wird, wenn es bereits verwendet wurde. Je höher die Häufigkeitsstrafe ist, desto geringer ist die Wahrscheinlichkeit, dass das Modell dieselben Wörter in seiner Ausgabe wiederholt. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird.
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. Das Übergeben von NULL bewirkt, dass das Modell seine maximale Kontextlänge verwendet.
presence_penalty Zahl Verhindert, dass dieselben Themen wiederholt werden, indem ein Wort bestraft wird, wenn es bereits in der Vervollständigung vorhanden ist, selbst wenn es nur einmal ist. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird.
response_format ChatCompletionResponseFormat
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
stop Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird
Temperatur Zahl Nicht negative Zahl Gibt 422 zurück, wenn der Wert vom Modell nicht unterstützt wird.
Toolauswahl ChatCompletionToolChoiceOption Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird.
tools ChatCompletionTool[] Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird.
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.

Antworten

Name Typ BESCHREIBUNG
200 – OK CreateChatCompletionResponse OK
401 – Nicht autorisiert UnauthorizedError Zugriffstoken fehlt oder ist ungültig

Kopfzeile

x-ms-error-code: string
404 Nicht gefunden NotFoundError Modalität wird vom Modell nicht unterstützt. Sehen Sie in der Dokumentation des Modells nach, welche Routen verfügbar sind.

Kopfzeile

x-ms-error-code: string
422: Entität kann nicht verarbeitet werden UnprocessableContentError Die Anforderung enthält nicht verarbeitbaren Inhalt.

Kopfzeile

x-ms-error-code: string
429 – Zu viele Anforderungen TooManyRequestsError Sie haben das zugewiesene Ratenlimit erreicht, und Ihre Anforderung muss beschleunigt werden.

Kopfzeile

x-ms-error-code: string
Andere Statuscodes ContentFilterError Ungültige Anforderung

Kopfzeile

x-ms-error-code: string

Sicherheit

Autorisierung

Das Token mit dem Bearer:-Präfix, z. B. Bearer abcde12345

Typ: apiKey
In: Header

AADToken

Azure Active Directory OAuth2-Authentifizierung

Typ: oauth2
Flow: Anwendung
Token-URL: https://login.microsoftonline.com/common/oauth2/v2.0/token

Beispiele

Erstellt eine Modellantwort für die angegebene Chatunterhaltung

Beispiel-Anfrage

POST /chat/completions?api-version=2024-04-01-preview

{
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "max_tokens": 256,
  "seed": 42,
  "stop": "<|endoftext|>",
  "stream": false,
  "temperature": 0,
  "top_p": 1,
  "response_format": { "type": "text" }
}

Beispiel für eine Antwort

Statuscode: 200

{
  "id": "1234567890",
  "model": "llama2-70b-chat",
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "No, it has never been proved"
      }
    }
  ],
  "created": 1234567890,
  "object": "chat.completion",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  }
}

Definitionen

Name Beschreibung
ChatCompletionRequestMessage
ChatCompletionMessageContentPart
ChatCompletionMessageContentPartType
ChatCompletionToolChoiceOption Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird.
ChatCompletionFinishReason Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop, wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length, wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter, wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls, wenn das Modell ein Tool aufgerufen hat.
ChatCompletionMessageToolCall
ChatCompletionObject Der Objekttyp, der immer chat.completion ist.
ChatCompletionResponseFormat Das Antwortformat für die Modellantwort. Wenn Sie ihn auf json_object festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist. Wenn Sie den JSON-Modus verwenden, müssen Sie auch das Modell anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
ChatCompletionResponseFormatType Der Antwortformattyp.
ChatCompletionResponseMessage Eine vom Modell generierte Chatvervollständigungsnachricht
ChatCompletionTool
ChatMessageRole Die Rolle des Autors dieser Nachricht
Optionen Eine Liste der Auswahlmöglichkeiten für den Chatabschluss.
CompletionUsage Nutzungsstatistiken für die Vervollständigungsanforderung
ContentFilterError Der API-Aufruf schlägt fehl, wenn der Prompt einen Inhaltsfilter wie konfiguriert auslöst. Ändern Sie die Äußerung, und versuchen Sie es erneut.
CreateChatCompletionRequest
CreateChatCompletionResponse Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
Detail Details zum Fehler UnprocessableContentError.
Funktion Die Funktion, die das Modell aufgerufen hat
FunctionObject Definition einer Funktion, auf die das Modell zugreifen kann.
ImageDetail Gibt den Detailgrad des Bilds an.
NotFoundError Die Route ist für das bereitgestellte Modell ungültig.
ToolType Der Typ des Tools. Derzeit wird nur function unterstützt.
TooManyRequestsError Sie haben das zugewiesene Ratenlimit erreicht, und Ihre Anforderungen müssen beschleunigt werden.
UnauthorizedError Die Authentifizierung fehlt oder ist ungültig.
UnprocessableContentError Die Anforderung enthält nicht verarbeitbaren Inhalt. Der Fehler wird zurückgegeben, wenn die angegebene Nutzlast gemäß dieser Spezifikation gültig ist. Einige der in der Nutzlast angegebenen Anweisungen werden jedoch vom zugrunde liegenden Modell nicht unterstützt. Verwenden Sie den details-Abschnitt, um den problematischen Parameter zu verstehen.

ChatCompletionFinishReason

Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop, wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length, wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter, wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls, wenn das Modell ein Tool aufgerufen hat.

Name Typ Beschreibung
content_filter Zeichenfolge
length Zeichenfolge
stop Zeichenfolge
tool_calls Zeichenfolge

ChatCompletionMessageToolCall

Name Typ Beschreibung
Funktion Funktion Die Funktion, die das Modell aufgerufen hat
Kennung Zeichenfolge Die ID des Toolaufrufs
Typ ToolType Der Typ des Tools. Derzeit wird nur function unterstützt.

ChatCompletionObject

Der Objekttyp, der immer chat.completion ist.

Name Typ Beschreibung
chat.completion Zeichenfolge

ChatCompletionResponseFormat

Das Antwortformat für die Modellantwort. Wenn Sie ihn auf json_object festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist. Wenn Sie den JSON-Modus verwenden, müssen Sie auch das Modell anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Name Typ Beschreibung
Typ ChatCompletionResponseFormatType Der Antwortformattyp.

ChatCompletionResponseFormatType

Der Antwortformattyp.

Name Typ Beschreibung
json_object Zeichenfolge
Text Zeichenfolge

ChatCompletionResponseMessage

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Typ Beschreibung
Inhalt Zeichenfolge Der Inhalt der Nachricht.
role ChatMessageRole Die Rolle des Autors dieser Nachricht
tool_calls ChatCompletionMessageToolCall[] Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

ChatCompletionTool

Name Typ Beschreibung
Funktion FunctionObject
Typ ToolType Der Typ des Tools. Derzeit wird nur function unterstützt.

ChatMessageRole

Die Rolle des Autors dieser Nachricht

Name Typ Beschreibung
assistant Zeichenfolge
system Zeichenfolge
Tool Zeichenfolge
user Zeichenfolge

Optionen

Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist.

Name Typ Beschreibung
finish_reason ChatCompletionFinishReason Der Grund, warum das Modell das Generieren von Token beendet hat. Der Wert ist stop, wenn das Modell einen natürlichen Beendigungspunkt oder eine angegebene Beendigungssequenz erreicht hat, oder length, wenn die in der Anforderung angegebene maximale Anzahl von Token erreicht wurde, oder content_filter, wenn Inhalte aufgrund eines Flags in unseren Inhaltsfiltern ausgelassen wurden, oder tool_calls, wenn das Modell ein Tool aufgerufen hat.
Index integer Der Index der Auswahl in der Liste der Auswahlmöglichkeiten
message ChatCompletionResponseMessage Eine vom Modell generierte Chatvervollständigungsnachricht

CompletionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ Beschreibung
completion_tokens integer Anzahl der Token in der generierten Vervollständigung
prompt_tokens integer Anzahl der Token im Prompt.
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung).

ContentFilterError

Der API-Aufruf schlägt fehl, wenn der Prompt einen Inhaltsfilter wie konfiguriert auslöst. Ändern Sie die Äußerung, und versuchen Sie es erneut.

Name Typ BESCHREIBUNG
code Zeichenfolge Der Fehlercode.
error Zeichenfolge Die Fehlerbeschreibung.
message Zeichenfolge Die Fehlermeldung.
param Zeichenfolge Der Parameter, der den Inhaltsfilter ausgelöst hat.
status integer Der HTTP-Statuscode.

CreateChatCompletionRequest

Name Type Standardwert Beschreibung
frequency_penalty Zahl 0 Verhindert Wortwiederholungen, indem die Wahrscheinlichkeit reduziert wird, dass ein Wort ausgewählt wird, wenn es bereits verwendet wurde. Je höher die Häufigkeitsstrafe ist, desto geringer ist die Wahrscheinlichkeit, dass das Modell dieselben Wörter in seiner Ausgabe wiederholt. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird.
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. Das Übergeben von NULL bewirkt, dass das Modell seine maximale Kontextlänge verwendet.
Cloud an das Gerät ChatCompletionRequestMessage[] Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Gibt einen 422-Fehler zurück, wenn mindestens einige der Nachrichten vom Modell nicht verstanden werden können.
presence_penalty Zahl 0 Verhindert, dass dieselben Themen wiederholt werden, indem ein Wort bestraft wird, wenn es bereits in der Vervollständigung vorhanden ist, selbst wenn es nur einmal ist. Gibt einen 422-Fehler zurück, wenn der Wert oder Parameter vom Modell nicht unterstützt wird.
response_format ChatCompletionResponseFormat Text
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
stop Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
Datenstrom boolean False Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird
Temperatur number 1 Nicht negative Zahl Gibt 422 zurück, wenn der Wert vom Modell nicht unterstützt wird.
Toolauswahl ChatCompletionToolChoiceOption Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird.
tools ChatCompletionTool[] Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Gibt einen 422-Fehler zurück, wenn das Tool vom Modell nicht unterstützt wird.
top_p number 1 Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.

ChatCompletionRequestMessage

Name Typ Beschreibung
content Zeichenfolge oder ChatCompletionMessageContentPart[] Der Inhalt der Nachricht.
role ChatMessageRole Die Rolle des Autors dieser Nachricht
tool_calls ChatCompletionMessageToolCall[] Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

ChatCompletionMessageContentPart

Name Typ Beschreibung
Inhalt Zeichenfolge Entweder eine URL des Bilds oder die base64-codierten Bilddaten
detail ImageDetail Gibt den Detailgrad des Bilds an.
Typ ChatCompletionMessageContentPartType Der Typ des Inhaltsteils

ChatCompletionMessageContentPartType

Name Typ BESCHREIBUNG
text Zeichenfolge
image Zeichenfolge
image_url Zeichenfolge

ChatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

Name Typ BESCHREIBUNG
Keine Zeichenfolge Das Modell ruft kein Tool auf, sondern generiert stattdessen eine Meldung.
auto Zeichenfolge Das Modell kann zwischen dem Generieren einer Meldung und dem Aufrufen von Tools auswählen.
erforderlich Zeichenfolge Das Modell muss mindestens ein Tools aufrufen.
Zeichenfolge Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

ImageDetail

Gibt den Detailgrad des Bilds an.

Name Typ Beschreibung
auto Zeichenfolge
niedrig Zeichenfolge
high Zeichenfolge

CreateChatCompletionResponse

Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Typ Beschreibung
Optionen Choices[] Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist.
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde
Kennung Zeichenfolge Ein eindeutiger Bezeichner für die Chatvervollständigung
model Zeichenfolge Das Modell, das für die Chatvervollständigung verwendet wird
Objekt ChatCompletionObject Der Objekttyp, der immer chat.completion ist.
system_fingerprint Zeichenfolge Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nutzung CompletionUsage Nutzungsstatistiken für die Vervollständigungsanforderung

Detail

Details zum Fehler UnprocessableContentError.

Name Typ Beschreibung
loc string[] Der Parameter, der das Problem verursacht
value Zeichenfolge Der an den Parameter übergebene Wert, der Probleme verursacht

Funktion

Die Funktion, die das Modell aufgerufen hat

Name Typ Beschreibung
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise falsche Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.
name Zeichenfolge Der Name der aufzurufenden Funktion.

FunctionObject

Definition einer Funktion, auf die das Modell zugreifen kann.

Name Typ BESCHREIBUNG
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird.
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.
Parameter Objekt Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.

NotFoundError

Name Typ Beschreibung des Dataflows
error Zeichenfolge Die Fehlerbeschreibung.
message Zeichenfolge Die Fehlermeldung.
status integer Der HTTP-Statuscode.

ToolType

Der Typ des Tools. Derzeit wird nur function unterstützt.

Name Typ Beschreibung
Funktion Zeichenfolge

TooManyRequestsError

Name Typ Beschreibung des Dataflows
error Zeichenfolge Die Fehlerbeschreibung.
message Zeichenfolge Die Fehlermeldung.
status integer Der HTTP-Statuscode.

UnauthorizedError

Name Typ Beschreibung des Dataflows
error Zeichenfolge Die Fehlerbeschreibung.
message Zeichenfolge Die Fehlermeldung.
status integer Der HTTP-Statuscode.

UnprocessableContentError

Die Anforderung enthält nicht verarbeitbaren Inhalt. Der Fehler wird zurückgegeben, wenn die angegebene Nutzlast gemäß dieser Spezifikation gültig ist. Einige der in der Nutzlast angegebenen Anweisungen werden jedoch vom zugrunde liegenden Modell nicht unterstützt. Verwenden Sie den details-Abschnitt, um den problematischen Parameter zu verstehen.

Name Typ BESCHREIBUNG
code Zeichenfolge Der Fehlercode.
Detail Detail
error Zeichenfolge Die Fehlerbeschreibung.
message Zeichenfolge Die Fehlermeldung.
status integer Der HTTP-Statuscode.