Informazioni di riferimento per l'anteprima dell'API REST del servizio Azure OpenAI
Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per OpenAI di Azure.
Specifiche API
La gestione e l'interazione con i modelli e le risorse di Azure OpenAI sono suddivisi in tre superfici API principali:
- Piano di controllo
- Piano dati - Creazione
- Piano dati - Inferenza
Ogni specifica/superficie dell'API incapsula un set diverso di funzionalità Azure OpenAI. Ogni API ha un proprio set univoco di versioni API di anteprima e stabili/disponibili a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.
API | Ultima versione di anteprima | Ultima versione disponibile a livello generale | Specifiche | Descrizione |
---|---|---|---|---|
Piano di controllo | 2024-06-01-preview |
2024-10-01 |
File di specifiche | Azure OpenAI condivide un piano di controllo comune con tutti gli altri servizi di Azure AI. L'API del piano di controllo viene usata per operazioni come la creazione di risorse di Azure OpenAI, distribuzione modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure. |
Piano dati - Creazione | 2024-10-01-preview |
2024-10-21 |
File di specifiche | L'API di creazione del piano dati controlla l'ottimizzazione, il caricamento file, i processi di inserimento, batch e determinate query a livello di modello |
Piano dati - Inferenza | 2024-10-01-preview |
2024-10-21 |
File di specifiche | L'API di inferenza del piano dati fornisce le funzionalità di inferenza/endpoint per funzionalità come completamenti, completamenti chat, incorporamenti, comandi vocali/sussurro, su dati, Dall-e, assistenti e così via. |
Autenticazione
OpenAI di Azure fornisce due metodi di autenticazione. È possibile usare chiavi API o Microsoft Entra ID.
Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione HTTP
api-key
. La guida di avvio rapido fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Autenticazione di Microsoft Entra ID: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione vengono inclusi in una richiesta come intestazione
Authorization
. Il token specificato deve essere preceduto daBearer
, ad esempio:Bearer YOUR_AUTH_TOKEN
. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.
Controllo delle versioni dell'API REST
Le API del servizio sono sottoposte al controllo delle versioni usando il parametro di query api-version
. Tutte le versioni seguono la struttura di data AAAA-MM-GG. Ad esempio:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo illustra la versione di anteprima più recente della specifica di inferenza del piano dati Azure OpenAI, 2024-10-01-preview
. Questo articolo include la documentazione per le funzionalità di anteprima più recenti, ad esempio assistenti, thread e archivi vettoriali.
Se si sta cercando documentazione sulla versione più recente dell'API GA, vedere l'API di inferenza del piano dati con disponibilità generale più recente
Completamenti - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
Crea un completamento per il prompt e i parametri forniti.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello che è stato distribuito. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt | Stringa o matrice | Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token. Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento. |
Sì | |
best_of | integer | Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n , best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n .Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop . |
No | 1 |
echo | boolean | Eco di ritorno del prompt oltre al completamento |
No | Falso |
frequency_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
No | 0 |
logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>. |
No | None |
logprobs | integer | Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
max_tokens | integer | Numero massimo di token generabili nel completamento. Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
n | integer | Il numero di completamenti da generare per ogni richiesta. Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop . |
No | 1 |
presence_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
seed | integer | Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
No | |
stop | Stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
No | |
stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE] . |
No | Falso |
suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct . |
No | None |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
No | 1 |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | createCompletionResponse | Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat). |
Codice di stato: predefinito
Descrizione: servizio non disponibile
Content-Type | Type | Descrizione |
---|---|---|
application/json | errorResponse |
Esempi
Esempio
Crea un completamento per i prompt forniti, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporamenti - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato dai modelli di Machine Learning e algoritmi.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
input | Stringa o matrice | Testo di input da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passare un array di stringhe o una matrice di array di token. L'input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002 ), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni inferiori o inferiori a 2.048. |
Sì | |
utente | string | Un identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare usi impropri. | No | |
input_type | string | tipo di input della ricerca di incorporamento da usare | No | |
encoding_format | string | Formato in cui restituire gli incorporamenti. Può essere float o base64 . Il valore predefinito è float . |
No | |
dimensioni | integer | Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportata solo in text-embedding-3 e versioni successive. |
No |
Risposte
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
modello | string | Sì | ||
data | array | Sì | ||
attivamente | oggetto | Sì |
Proprietà per l'utilizzo
prompt_tokens
Nome | Tipo | Descrizione | Default |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nome | Tipo | Descrizione | Default |
---|---|---|---|
total_tokens | integer |
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | oggetto |
Esempi
Esempio
Restituisce gli incorporamenti per un prompt specificato.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Completamenti chat - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
Crea un completamento per il messaggio di chat
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello che è stato distribuito. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
No | 1 |
stream | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE] . |
No | Falso |
stop | Stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. |
No | |
max_tokens | integer | Numero massimo di token che possono essere generati al momento del completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. Questa opzione è supportata solo nei modelli di serie o1. Espanderà il supporto ad altri modelli nella versione futura dell'API. | No | |
presence_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
frequency_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
No | 0 |
logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. |
No | |
messages | array | Elenco di messaggi che comprendono la conversazione effettuata finora. | Sì | |
data_sources | array | Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se vero, restituisce le probabilità di log di ogni token di output restituito nella content di message . |
No | Falso |
top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106 . L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No | |
seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
No | |
stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true . |
No | None |
tools | array | Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. |
No | |
function_call | string o chatCompletionFunctionCallOption | Deprecato e sostituito da tool_choice .Controlla quale funzione (se presente) viene chiamata dal modello. none indica che il modello non chiamerà una funzione e genererà invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica una funzione specifica tramite {"name": "my_function"} , impone al modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
functions | array | Deprecato e sostituito da tools .Un elenco di funzioni per cui il modello può generare input JSON. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Codice di stato: predefinito
Descrizione: servizio non disponibile
Content-Type | Type | Descrizione |
---|---|---|
application/json | errorResponse |
Esempi
Esempio
Crea un completamento per i prompt forniti, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento basato sui dati vettoriali dell'immagine di Ricerca di Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento per l'Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento per Mongo DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento per l’Elasticsearch fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento per la risorsa Pinecone fornita.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Trascrive l'audio nella lingua di input.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello sussurro. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: multipart/form-data
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file | string | L'oggetto file audio da trascrivere. | Sì | |
prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
temperatura | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
lingua | string | La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. | No | |
timestamp_granularities[] | array | La granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato su verbose_json per usare le granularità del timestamp. Sono supportate una o entrambe le opzioni seguenti: word o segment . Nota: non esiste una latenza aggiuntiva per i timestamp di segmenti, ma la generazione di timestamp di parole comporta una latenza aggiuntiva. |
No | ['segment'] |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | audioResponse o audioVerboseResponse | |
text/plain | string | Testo trascritto nel formato di output (quando response_format era testo, vtt o srt). |
Esempi
Esempio
Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Esempio
Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
Trascrive e converte l'audio di input in testo inglese.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello sussurro che è stato distribuito. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: multipart/form-data
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file | string | Il file audio da convertire. | Sì | |
prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
temperatura | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | audioResponse o audioVerboseResponse | |
text/plain | string | Testo trascritto nel formato di output (quando response_format era testo, vtt o srt). |
Esempi
Esempio
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Esempio
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Riconoscimento vocale - Creazione
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
Genera audio dal testo di input.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello tts distribuito. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: multipart/form-data
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
input | string | Testo per cui sintetizzare l'audio. La lunghezza massima è di 4,096 caratteri. | Sì | |
voice | enum | Voce da usare per la sintesi vocale. Valori possibili: lega, eco, fable, onyx, nova, shimmer |
Sì | |
response_format | enum | Formato in cui sintetizzare l'audio. Valori possibili: mp3, opus, aac, flac, wav, pcm |
No | |
velocità | number | Velocità dell'audio sintetizzato. Selezionare un valore tra 0.25 e 4.0 . 1.0 è l'impostazione predefinita. |
No | 1.0 |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/octet-stream | string |
Esempi
Esempio
Sintetizza l'audio dal testo fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Risposte: Codice di stato: 200
{
"body": "101010101"
}
Generazioni di immagini - Crea
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
Genera un batch di immagini dai sottotitoli di testo in una determinata distribuzione del modello DALLE
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sì | string | ID distribuzione del modello dalle distribuito. |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4,000 caratteri. | Sì | |
n | integer | Numero di immagini da generare. | No | 1 |
size | imageSize | Dimensioni delle immagini generate. | No | 1024x1024 |
response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | URL. |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. | No | |
quality | imageQuality | La qualità dell'immagine che verrà generata. | No | standard |
style | imageStyle | Stile delle immagini generate. | No | vivid |
Risposte
Codice di stato: 200
Descrizione: Ok
Content-Type | Type | Descrizione |
---|---|---|
application/json | generateImagesResponse |
Codice di stato: predefinito
Descrizione: si è verificato un errore.
Content-Type | Type | Descrizione |
---|---|---|
application/json | dalleErrorResponse |
Esempi
Esempio
Crea immagini in base a un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Elenco - Assistenti
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Restituisce un elenco di assistenti.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listAssistantsResponse |
Esempi
Esempio
Restituisce un elenco di assistenti.
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Creare - Assistente
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Creare un assistente con un modello e istruzioni.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
model | Sì | |||
nome | string | Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri. |
No | |
description | stringa | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
istruzioni | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
No | |
tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter , retrieval o function . |
No | [] |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di un archivio vettoriale collegato all'assistente. |
|
vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di un archivio vettoriale collegato all'assistente. |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | assistantObject | Rappresenta un assistant che può chiamare il modello e usare gli strumenti. |
Esempi
Esempio
Creare un assistente con un modello e istruzioni.
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Ottieni - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Recupera un assistente.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
assistant_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | assistantObject | Rappresenta un assistant che può chiamare il modello e usare gli strumenti. |
Esempi
Esempio
Recupera un assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modica - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Recupera un assistente.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
assistant_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
model | No | |||
name | string | Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri. |
No | |
description | stringa | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
istruzioni | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32,768 caratteri. |
No | |
tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter , retrieval o function . |
No | [] |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Sovrascrive l’elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | Sovrascrive l’archivio vettoriale collegato a questo assistente. Può essere presente un massimo di un archivio vettoriale collegato all'assistente. |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | assistantObject | Rappresenta un assistant che può chiamare il modello e usare gli strumenti. |
Esempi
Esempio
Recupera un assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Elimina - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Elimina un assistente.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
assistant_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | deleteAssistantResponse |
Esempi
Esempio
Elimina un assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Crea - Thread
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Crea un thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
messages | array | Elenco di messaggi con cui avviare il thread. | No | |
tool_resources | oggetto | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
|
vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di un archivio vettoriale collegato al thread. |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | threadObject | Rappresenta un thread che contiene messaggi. |
Esempi
Esempio
Crea un thread.
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Ottieni - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Recupera un thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | threadObject | Rappresenta un thread che contiene messaggi. |
Esempi
Esempio
Recupera un thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifica - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Modifica un thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
tool_resources | oggetto | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di un archivio vettoriale collegato al thread. |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | threadObject | Rappresenta un thread che contiene messaggi. |
Esempi
Esempio
Modifica un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Elimina - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Elimina un thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | deleteThreadResponse |
Esempi
Esempio
Elimina un thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Elenco - Messaggi
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Restituisce un elenco di messaggi per un determinato thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
run_id | query | No | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listMessagesResponse |
Esempi
Esempio
Elenca messaggi
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Crea - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Creare un messaggio.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | string | Ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user : indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.- assistant : indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione. |
Sì | |
content | string | Il contenuto del messaggio. | Sì | |
allegati | array | Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | messageObject | Rappresenta un messaggio all'interno di un thread. |
Esempi
Esempio
Creare un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Ottieni - Messaggio
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Recupera un messaggio.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
message_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | messageObject | Rappresenta un messaggio all'interno di un thread. |
Esempi
Esempio
Recupera un messaggio.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifica - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Modifica un messaggio.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
message_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | messageObject | Rappresenta un messaggio all'interno di un thread. |
Esempi
Esempio
Modificare un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Crea - Thread ed esecuzione
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
Creare un thread ed eseguirlo in una richiesta.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
thread | createThreadRequest | No | ||
modello | string | Nome del modello da usare per questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
istruzioni | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No | |
stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true . |
No | None |
max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà il possibile per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No | |
tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento. |
No | |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di un archivio vettoriale collegato all'assistente. |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Creare un thread ed eseguirlo in una richiesta.
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Elenchi - Esecuzioni
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Restituisce un elenco di esecuzioni che appartengono a un thread.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listRunsResponse |
Esempi
Esempio
Restituisce un elenco di esecuzioni che appartengono a un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Crea - Esecuzione
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Creare un’esecuzione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
modello | string | ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
istruzioni | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. | No | |
additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. | No | |
tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No | |
max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà il possibile per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No | |
tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento. |
No | |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Creare un’esecuzione.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Ottieni - Esecuzione
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Recupera un’esecuzione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Ottiene un’esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifica - Esecuzione
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Modifica un’esecuzione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Modifica un’esecuzione.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Invia - Strumento invia gli output all’esecuzione
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
Quando un’esecuzione ha il status: "requires_action"
e required_action.type
è submit_tool_outputs
, è possibile utilizzare questo endpoint per inviare gli output dalle chiamate dello strumento una volta che sono state tutte completate. Tutti gli output devono essere inviati in una singola richiesta.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
tool_outputs | array | Un elenco degli strumenti per i quali vengono inviati gli output. | Sì | |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Quando un’esecuzione ha il status: "requires_action"
e required_action.type
è submit_tool_outputs
, è possibile utilizzare questo endpoint per inviare gli output dalle chiamate dello strumento una volta che sono state tutte completate. Tutti gli output devono essere inviati in una singola richiesta.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annulla - Esecuzione
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Annulla un'esecuzione in_progress
.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runObject | Rappresenta un’esecuzione eseguita in un thread. |
Esempi
Esempio
Annulla un'esecuzione in_progress
.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Elenco - Passaggi esecuzione
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Restituisce un elenco di esecuzioni che appartengono a un’esecuzione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listRunStepsResponse |
Esempi
Esempio
Restituisce un elenco di esecuzioni che appartengono a un’esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Ottieni - Passaggio esecuzione
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Recupera un passaggio dell’esecuzione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
thread_id | path | Sì | string | |
run_id | path | Sì | string | |
step_id | path | Sì | string | |
api-version | query | Sì | string | Versione dell'API |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Esempi
Esempio
Recupera un passaggio dell’esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Elenco - Archivi vettoriali
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Restituisce un elenco di archivi vettoriali.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listVectorStoresResponse |
Esempi
Esempio
Restituisce un elenco di archivi vettoriali.
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Crea - Archivio vettoriale
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Crea un archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
No | |
name | string | Il nome dell’archivio vettoriale. | No | |
expires_after | vectorStoreExpirationAfter | I criteri di scadenza per un archivio vettoriale. | No | |
chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . Applicabile solo se file_ids non èempty. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreObject | Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search . |
Esempi
Esempio
Crea un archivio vettoriale.
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Ottieni - Archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Recupera un archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreObject | Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search . |
Esempi
Esempio
Recupera un archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifica - Archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Modifica un archivio di vettori.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
name | string | Il nome dell’archivio vettoriale. | No | |
expires_after | vectorStoreExpirationAfter | I criteri di scadenza per un archivio vettoriale. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreObject | Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search . |
Esempi
Esempio
Modifica un archivio di vettori.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
{
"name": "Support FAQ"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Elimina - Archivio vettoriale
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Elimina un archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | deleteVectorStoreResponse |
Esempi
Esempio
Elimina un archivio di vettori.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Elenco - File dell’archivio di vettori
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Restituisce un elenco di file dell’archivio di vettori.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
filter | query | No | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listVectorStoreFilesResponse |
Esempi
Esempio
Restituisce un elenco di file dell’archivio di vettori.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Crea - File archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_id | string | Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
Sì | |
chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreFileObject | Elenco di file collegati a un archivio vettoriale. |
Esempi
Esempio
Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
{
"file_id": "file-abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Ottieni - File dell’archivio di vettori
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Recupera un file dell’archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
file_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreFileObject | Elenco di file collegati a un archivio vettoriale. |
Esempi
Esempio
Recupera un file dell’archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Elimina - File archivio vettoriale
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Elimina un file dell’archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale ma senza venire eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
file_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Esempi
Esempio
Elimina un file dell’archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale ma senza venire eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Crea - Batch file archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
Crea una batch di file dell’archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Corpo della richiesta
Content-Type: application/json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
Sì | |
chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . |
No |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreFileBatchObject | Una batch di file collegati a un archivio vettoriale. |
Esempi
Esempio
Crea una batch di file dell’archivio vettoriale.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Risposte: Codice di stato: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Ottieni - Batch file archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Recupera una batch di file dell’archivio vettoriale.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
batch_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreFileBatchObject | Una batch di file collegati a un archivio vettoriale. |
Esempi
Esempio
Recupera una batch di file dell’archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annulla - Batch file archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Annulla una batch di file dell’archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
batch_id | path | Sì | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | vectorStoreFileBatchObject | Una batch di file collegati a un archivio vettoriale. |
Esempi
Esempio
Annulla una batch di file dell’archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Elenco - Batch file archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Restituisce un elenco di file dell’archivio di vettori in un batch.
Parametri dell'URI
Nome | Tra | Richiesto | Type | Descrizione |
---|---|---|---|---|
endpoint | path | Sì | string URL. |
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com . Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{your-resource-name}.openai.azure.com |
vector_store_id | path | Sì | string | |
batch_id | path | Sì | string | |
limit | query | No | integer | |
ordine | query | No | string | |
after | query | No | string | |
before | query | No | string | |
filter | query | No | string | |
api-version | query | Sì | string |
Intestazione richiesta
Nome | Obbligatorio | Type | Descrizione |
---|---|---|---|
api-key | Vero | string | Fornire la chiave API Azure OpenAI |
Risposte
Codice di stato: 200
Descrizione: OK
Content-Type | Type | Descrizione |
---|---|---|
application/json | listVectorStoreFilesResponse |
Esempi
Esempio
Restituisce un elenco di file dell’archivio di vettori.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Componenti
errorResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Errore | error | No |
errorBase
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
codice | string | No | ||
messaggio | string | No |
Errore
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
param | string | No | ||
type | string | No | ||
inner_error | innerError | Errore interno con dettagli aggiuntivi. | No |
innerError
Errore interno con dettagli aggiuntivi.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
codice | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | No |
innerErrorCode
Codici di errore per l'oggetto errore interno.
Descrizione: codici di errore per l'oggetto errore interno.
Tipo: string
Impostazione predefinita:
Nome enumerazione: innerErrorCode
Valori enumerazione:
valore | Descrizione |
---|---|
ResponsibleAIPolicyViolation | Il prompt ha violato una o più regole di filtro dei contenuti. |
dalleErrorResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Errore | dalleError | No |
dalleError
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
param | string | No | ||
type | string | No | ||
inner_error | dalleInnerError | Errore interno con dettagli aggiuntivi. | No |
dalleInnerError
Errore interno con dettagli aggiuntivi.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
codice | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | No | |
revised_prompt | string | Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. | No |
contentFilterCompletionTextSpan
Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
completion_start_offset | integer | Offset del punto di codice UTF32 che inizia l'intervallo. | Sì | |
completion_end_offset | integer | Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoto. | Sì |
contentFilterResultBase
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
filtered | boolean | Sì |
contentFilterSeverityResult
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
filtered | boolean | Sì | ||
severity | string | No |
contentFilterDetectedResult
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
filtered | boolean | Sì | ||
rilevato | boolean | No |
contentFilterDetectedWithCitationResult
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
citation | object | No |
Proprietà per la citazione
URL
Nome | Tipo | Descrizione | Default |
---|---|---|---|
URL | string |
Licenza
Nome | Tipo | Descrizione | Default |
---|---|---|---|
Licenza | string |
contentFilterDetectedWithCompletionTextSpansResult
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
dettagli | matrice | No |
contentFilterIdResult
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
filtered | boolean | Sì | ||
id | string | No |
contentFilterResultsBase
Informazioni sui risultati del filtro dei contenuti.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Risultati del filtraggio dei contenuti con infomazioni sugli ID del filtro dei contenuti per i segmenti filtrati. | No | |
Errore | errorBase | No |
contentFilterPromptResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Risultati del filtraggio dei contenuti con infomazioni sugli ID del filtro dei contenuti per i segmenti filtrati. | No | |
Errore | errorBase | No | ||
jailbreak | contentFilterDetectedResult | No | ||
indirect_attack | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Risultati del filtraggio dei contenuti con infomazioni sugli ID del filtro dei contenuti per i segmenti filtrati. | No | |
Errore | errorBase | No | ||
protected_material_text | contentFilterDetectedResult | No | ||
protected_material_code | contentFilterDetectedWithCitationResult | No | ||
ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No |
contentFilterDetailedResults
Risultati del filtraggio dei contenuti con infomazioni sugli ID del filtro dei contenuti per i segmenti filtrati.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
filtered | boolean | Sì | ||
dettagli | matrice | No |
promptFilterResult
Risultati del filtro dei contenuti per un singolo prompt nella richiesta.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt_index | integer | No | ||
content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | No |
promptFilterResults
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtro dei contenuti.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
jailbreak | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Risultati del filtraggio dei contenuti con infomazioni sugli ID del filtro dei contenuti per i segmenti filtrati. | No |
chatCompletionsRequestCommon
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
No | 1 |
stream | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati mano a mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE] . |
No | Falso |
stop | Stringa o matrice | Fino a 4 sequenze in cui l'API smetterà di generare altri token. | No | |
max_tokens | integer | Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Non è compatibile con i modelli di serie o1. | No | 4096 |
max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. Questa opzione è supportata solo nei modelli di serie o1. Espanderà il supporto ad altri modelli nella versione futura dell'API. | No | |
presence_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. | No | 0 |
frequency_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. | No | 0 |
logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. | No | |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di Azure di monitorare e rilevare gli abusi. | No |
createCompletionRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt | Stringa o matrice | Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token. Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento. |
Sì | |
best_of | integer | Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n , best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n .Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop . |
No | 1 |
echo | boolean | Eco di ritorno del prompt oltre al completamento |
No | Falso |
frequency_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
No | 0 |
logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>. |
No | None |
logprobs | integer | Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei 5 token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
max_tokens | integer | Numero massimo di token generabili nel completamento. Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
n | integer | Il numero di completamenti da generare per ogni richiesta. Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop . |
No | 1 |
presence_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
seed | integer | Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
No | |
stop | Stringa o matrice | Fino a 4 sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
No | |
stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE] . |
No | Falso |
suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct . |
No | None |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
No | 1 |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. |
No |
createCompletionResponse
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore univoco per il completamento. | Sì | |
choices | array | L'elenco delle scelte di completamento che il modello ha generato per il prompt di input. | Sì | |
created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento. | Sì | |
modello | string | Modello usato per il completamento. | Sì | |
prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. | No | |
system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
oggetto | enum | Tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Sì | |
attivamente | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
No | 1 |
stream | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE] . |
No | Falso |
stop | Stringa o matrice | Fino a 4 sequenze in cui l'API smetterà di generare altri token. |
No | |
max_tokens | integer | Numero massimo di token che possono essere generati al momento del completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. Questa opzione è supportata solo nei modelli di serie o1. Espanderà il supporto ad altri modelli nella versione futura dell'API. | No | |
presence_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
frequency_penalty | number | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
No | 0 |
logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. |
No | |
messages | array | Elenco di messaggi che comprendono la conversazione effettuata finora. | Sì | |
data_sources | array | Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se vero, restituisce le probabilità di log di ogni token di output restituito nella content di message . |
No | Falso |
top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106 . L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No | |
seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
No | |
stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true . |
No | None |
tools | array | Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. |
No | |
function_call | string o chatCompletionFunctionCallOption | Deprecato e sostituito da tool_choice .Controlla quale funzione (se presente) viene chiamata dal modello. none indica che il modello non chiamerà una funzione e genererà invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica una funzione specifica tramite {"name": "my_function"} , impone al modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
functions | array | Deprecato e sostituito da tools .Un elenco di funzioni per cui il modello può generare input JSON. |
No |
chatCompletionFunctions
Nome | Tipo | Descrizione | Richiesto | Default |
---|---|---|---|---|
description | stringa | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
name | string | Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. | Sì | |
parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione di parameters definisce una funzione con un elenco di parametri vuoto. |
No |
chatCompletionFunctionCallOption
Se si specifica una funzione specifica tramite {"name": "my_function"}
, impone al modello a chiamare tale funzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
name | string | Nome della funzione da chiamare. | Sì |
chatCompletionFunctionParameters
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida/ per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
Nessuna proprietà definita per questo componente.
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | Stringa o matrice | Contenuto del messaggio di sistema. | Sì | |
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso system .Valori possibili: sistema |
Sì | |
nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | No |
chatCompletionRequestUserMessage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | Stringa o matrice | Contenuto del messaggio utente. |
Sì | |
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso user .Valori possibili: utente |
Sì | |
nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | No |
chatCompletionRequestAssistantMessage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | Stringa o matrice | Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls o function_call non siano specificati. |
No | |
rifiuto | string | Messaggio di rifiuto dell'assistente. | No | |
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso assistant .Valori possibili: assistente |
Sì | |
nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | No | |
tool_calls | chatCompletionMessageToolCalls | Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. | No | |
function_call | oggetto | Deprecato e sostituito da tool_calls . Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No |
Proprietà per function_call
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
chatCompletionRequestToolMessage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso tool .Valori possibili: strumento |
Sì | |
content | Stringa o matrice | Contenuto del messaggio dello strumento. | Sì | |
tool_call_id | string | Chiamata dello strumento a cui risponde questo messaggio. | Sì |
chatCompletionRequestFunctionMessage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso function .Valori possibili: funzione |
Sì | |
content | string | Contenuto del messaggio della funzione. | Sì | |
nome | string | Nome della funzione da chiamare. | Sì |
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo della parte di contenuto. Valori possibili: testo |
Sì | |
Testo | string | Contenuto di testo. | Sì |
chatCompletionRequestMessageContentPartImage
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo della parte di contenuto. Valori possibili: image_url |
Sì | |
image_url | oggetto | Sì |
Proprietà per image_url
URL.
Nome | Tipo | Descrizione | Default |
---|---|---|---|
URL. | string | URL dell'immagine o dati dell'immagine con codifica base64. |
detail
Nome | Tipo | Descrizione | Default |
---|---|---|---|
detail | string | Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione. | auto |
chatCompletionRequestMessageContentPartRefusal
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo della parte di contenuto. Valori possibili: rifiuto |
Sì | |
rifiuto | string | Messaggio di rifiuto generato dal modello. | Sì |
azureChatExtensionConfiguration
Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì |
azureChatExtensionType
Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Descrizione: una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di
completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Tipo: string
Impostazione predefinita:
Nome enumerazione: azureChatExtensionType
Valori enumerazione:
valore | Descrizione |
---|---|
azure_search | Rappresenta l'uso di Ricerca di Azure come un'estensione chat di Azure OpenAI. |
azure_cosmos_db | Rappresenta l’uso di Azure Cosmos DB come un’estensione della chat Azure OpenAI. |
elasticsearch | Rappresenta l’uso dell’indice Elasticsearch® come un’estensione di chat Azure OpenAI. |
mongo_db | Rappresenta l'uso di Mongo DB come un'estensione chat di Azure OpenAI. |
pinecone | Rappresenta l’uso dell’indice Pinecone come un’estensione di chat Azure OpenAI. |
azureSearchChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Ricerca di Azure quando viene usata come estensione chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
parameters | azureSearchChatExtensionParameters | I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI. | No |
azureSearchChatExtensionParameters
I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
autenticazione | onYourDataApiKeyAuthenticationOptions or onYourDataSystemAssignedManagedIdentityAuthenticationOptions or onYourDataUserAssignedManagedIdentityAuthenticationOptions or onYourDataAccessTokenAuthenticationOptions | Sì | ||
top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
max_search_queries | integer | Il numero massimo di query riscritte che devono essere inviate al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. | No | |
allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | Falso |
in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | No | |
endpoint | string | Percorso assoluto dell'endpoint per la risorsa di Ricerca di Azure da usare. | Sì | |
index_name | string | Il nome dell'indice da usare come disponibile nella risorsa di Ricerca di Azure a cui si è fatto riferimento. | Sì | |
fields_mapping | azureSearchIndexFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata. | No | |
query_type | azureSearchQueryType | Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI. | No | |
semantic_configuration | string | La configurazione semantica aggiuntiva per la query. | No | |
filter | string | Filtro di ricerca. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataIntegratedVectorizationSource | No | ||
include_contexts | array | Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent . |
No |
azureSearchIndexFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
title_field | string | Il nome del campo indice da usare come titolo. | No | |
url_field | string | Nome del campo di indice da usare come URL. | No | |
filepath_field | string | Il nome del campo di indice da usare come percorso file. | No | |
content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | No | |
content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | No | |
vector_fields | array | Nomi dei campi che rappresentano dati vettoriali. | No | |
image_vector_fields | array | Il nome dei campi che rappresentano i dati del vettore dell’immagine. | No |
azureSearchQueryType
Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.
Descrizione: il tipo di richiesta di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.
Tipo: string
Impostazione predefinita:
Nome enumerazione: AzureSearchQueryType
Valori enumerazione:
valore | Descrizione |
---|---|
simple | Rappresenta il parser di query semplice predefinito. |
semantico | Rappresenta il parser di query semantico per la modellazione semantica avanzata. |
vector | Rappresenta la ricerca vettoriale sui dati calcolati. |
vector_simple_hybrid | Rappresenta una combinazione della strategia di query semplice con dati vettoriali. |
vector_semantic_hybrid | Rappresenta una combinazione di query di ricerca semantica e dati vettoriali. |
azureCosmosDBChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Azure Cosmos DB quando viene usato come estensione chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
parameters | azureCosmosDBChatExtensionParameters | Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parametri da usare quando si configurano estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
autenticazione | onYourDataConnectionStringAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione. | Sì | |
top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
max_search_queries | integer | Il numero massimo di query riscritte che devono essere inviate al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. | No | |
allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | Falso |
in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | No | |
database_name | string | Il nome del database MongoDB vCore da usare con Azure Cosmos DB. | Sì | |
container_name | string | Il nome del contenitore della risorsa di Azure Cosmos DB. | Sì | |
index_name | string | Nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. | Sì | |
fields_mapping | azureCosmosDBFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata. | Sì | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Sì | ||
include_contexts | array | Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent . |
No |
azureCosmosDBFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
title_field | string | Il nome del campo indice da usare come titolo. | No | |
url_field | string | Nome del campo di indice da usare come URL. | No | |
filepath_field | string | Il nome del campo di indice da usare come percorso file. | No | |
content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | Sì | |
content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | No | |
vector_fields | array | Nomi dei campi che rappresentano dati vettoriali. | Sì |
elasticsearchChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Elasticsearch quando viene usata come estensione della chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
parameters | elasticsearchChatExtensionParameters | Parametri da usare quando si configura Elasticsearch® come estensione di chat Azure OpenAI. | No |
elasticsearchChatExtensionParameters
Parametri da usare quando si configura Elasticsearch® come estensione di chat Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
autenticazione | onYourDataKeyAndKeyIdAuthenticationOptions o onYourDataEncodedApiKeyAuthenticationOptions | Sì | ||
top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. | No | |
allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | Falso |
in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | No | |
endpoint | string | L’endpoint di Elasticsearch®. | Sì | |
index_name | string | Il nome dell’indice di Elasticsearch®. | Sì | |
fields_mapping | elasticsearchIndexFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Elasticsearch® configurata. | No | |
query_type | elasticsearchQueryType | Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataModelIdVectorizationSource | No | ||
include_contexts | array | Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent . |
No |
elasticsearchIndexFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Elasticsearch® configurata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
title_field | string | Il nome del campo indice da usare come titolo. | No | |
url_field | string | Nome del campo di indice da usare come URL. | No | |
filepath_field | string | Il nome del campo di indice da usare come percorso file. | No | |
content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | No | |
content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | No | |
vector_fields | array | Nomi dei campi che rappresentano dati vettoriali. | No |
elasticsearchQueryType
Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI.
Descrizione: Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI.
Tipo: string
Impostazione predefinita:
Nome enumerazione: ElasticsearchQueryType
Valori di enumerazione:
valore | Descrizione |
---|---|
simple | Rappresenta il parser di query semplice predefinito. |
vector | Rappresenta la ricerca vettoriale sui dati calcolati. |
mongoDBChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Mongo DB quando viene usata come estensione della chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
parameters | mongoDBChatExtensionParameters | Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Mongo DB. | No |
mongoDBChatExtensionParameters
Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Mongo DB.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
autenticazione | onYourDataUsernameAndPasswordAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usano nome utente e password. | Sì | |
top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. | No | |
allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | Falso |
in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | No | |
endpoint | string | Nome dell'endpoint del cluster Mongo DB. | Sì | |
database_name | string | Nome del database Mongo DB. | Sì | |
collection_name | string | Nome della raccolta Mongo DB. | Sì | |
app_name | string | Nome dell'applicazione Mongo DB. | Sì | |
index_name | string | Nome dell'indice Mongo DB. | Sì | |
fields_mapping | mongoDBFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Mongo DB configurata. | Sì | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Sì | ||
include_contexts | array | Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent . |
No |
mongoDBFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Mongo DB configurata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
title_field | string | Il nome del campo indice da usare come titolo. | No | |
url_field | string | Nome del campo di indice da usare come URL. | No | |
filepath_field | string | Il nome del campo di indice da usare come percorso file. | No | |
content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | Sì | |
content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | No | |
vector_fields | array | Nomi dei campi che rappresentano dati vettoriali. | Sì |
pineconeChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Pinecone quando viene usata come estensione della chat di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
parameters | pineconeChatExtensionParameters | Parametri per la configurazione delle estensioni di chat di Azure OpenAI Pinecone. | No |
pineconeChatExtensionParameters
Parametri per la configurazione delle estensioni di chat di Azure OpenAI Pinecone.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
autenticazione | onYourDataApiKeyAuthenticationOptions | Opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API. | Sì | |
top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. | No | |
allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | Falso |
in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | No | |
dell'ambiente di | string | Nome dell'ambiente di Pinecone. | Sì | |
index_name | string | Nome dell'indice di database Pinecone. | Sì | |
fields_mapping | pineconeFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Pinecone configurata. | Sì | |
embedding_dependency | onYourDataDeploymentNameVectorizationSource | Dettagli di un'origine di vettorizzazione, usata da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, basata su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa Azure OpenAI. |
Sì | |
include_contexts | array | Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent . |
No |
pineconeFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Pinecone configurata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
title_field | string | Il nome del campo indice da usare come titolo. | No | |
url_field | string | Nome del campo di indice da usare come URL. | No | |
filepath_field | string | Il nome del campo di indice da usare come percorso file. | No | |
content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | Sì | |
content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | No |
onYourDataAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì |
onYourDataContextProperty
La proprietà di contesto.
Descrizione: proprietà di contesto.
Tipo: string
Impostazione predefinita:
Nome enumerazione: onYourDataContextProperty
Valori di enumerazione:
valore | Descrizione |
---|---|
citazioni | La proprietà citations . |
finalità | La proprietà intent . |
all_retrieved_documents | La proprietà all_retrieved_documents . |
onYourDataAuthenticationType
I tipi di autenticazione supportati con Azure OpenAI On Your Data.
Descrizione: i tipi di autenticazione supportati con Azure OpenAI On Your Data.
Tipo: string
Impostazione predefinita:
Nome enumerazione: onYourDataAuthenticationType
Valori enumerazione:
valore | Descrizione |
---|---|
api_key | Autenticazione tramite chiave API. |
connection_string | Autenticazione tramite stringa di connessione. |
key_and_key_id | Autenticazione tramite coppia chiave e ID chiave. |
encoded_api_key | Autenticazione tramite chiave API codificata. |
access_token | Autenticazione tramite token di accesso. |
system_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dal sistema. |
user_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dall'utente. |
username_and_password | Autenticazione tramite nome utente e password. |
onYourDataApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
chiave | string | La chiave API da usare per l’autenticazione. | No |
onYourDataConnectionStringAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
connection_string | string | La stringa di connessione da usare per l'autenticazione. | No |
onYourDataKeyAndKeyIdAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave Elasticsearch e un’ID chiave.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
chiave | string | La chiave Elasticsearch da usare per l’autenticazione. | No | |
key_id | string | L’ID chiave di Elasticsearch da usare per l’autenticazione. | No |
onYourDataEncodedApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API codificata con Elasticsearch.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
encoded_api_key | string | La chiave API con codifica Elasticsearch da usare per l’autenticazione. | No |
onYourDataAccessTokenAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un token di accesso.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
access_token | string | Token di accesso da usare per l'autenticazione. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dal sistema.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dall'utente.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
managed_identity_resource_id | string | L'ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. | No |
onYourDataUsernameAndPasswordAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usano nome utente e password.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
username | string | Il nome utente da utilizzare per l'autenticazione. | No | |
password | string | Password. da utilizzare per l'autenticazione. | No |
onYourDataVectorizationSource
Una rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI On Your Data con ricerca vettoriale.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì |
onYourDataVectorizationSourceType
Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.
Descrizione: rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati da usare con
la ricerca vettoriale.
Tipo: string
Impostazione predefinita:
Nome enumerazione: onYourDataVectorizationSourceType
Valori enumerazione:
valore | Descrizione |
---|---|
endpoint | Rappresenta la vettorizzazione eseguita dalle chiamate del servizio pubblico a un modello di incorporamento di Azure OpenAI. |
deployment_name | Rappresenta un nome distribuzione del modello Ada da usare. Questa distribuzione del modello deve trovarsi nella stessa risorsa Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che abilita la ricerca vettoriale anche nelle reti private. |
integrato | Rappresenta il vettore integrato definito all'interno della risorsa di ricerca. |
model_id | Rappresenta un ID modello di incorporamento specifico come definito nel servizio di ricerca. Attualmente supportato solo da Elasticsearch®. |
onYourDataEndpointVectorizationSource
Dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su una chiamata all’endpoint Azure OpenAI per gli incorporamenti.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì | |
endpoint | string | Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti. Dovrebbe avere il formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings . Il parametro di query api-version non è consentito. |
No | |
autenticazione | onYourDataApiKeyAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions | No | ||
dimensioni | integer | Numero di dimensioni che devono essere presenti negli incorporamenti. Supportata solo in text-embedding-3 e versioni successive. |
No |
onYourDataDeploymentNameVectorizationSource
I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome distribuzione del modello di incorporamento interno nella stessa risorsa di Azure OpenAI.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì | |
deployment_name | string | Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. | No | |
dimensioni | integer | Numero di dimensioni che devono essere presenti negli incorporamenti. Supportata solo in text-embedding-3 e versioni successive. |
No |
onYourDataIntegratedVectorizationSource
Rappresenta il vettore integrato definito all'interno della risorsa di ricerca.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì |
onYourDataModelIdVectorizationSource
Dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì | |
model_id | string | Specifica l'ID modello da utilizzare per la vettorializzazione. Questo ID modello deve essere definito nel servizio di ricerca. | No |
azureChatExtensionsMessageContext
Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte le estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
citations | array | Ili risultato del recupero dell'origine dati, usato per generare il messaggio dell'assistente nella risposta. | No | |
finalità | string | L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo per trasferire il contesto. | No | |
all_retrieved_documents | array | Tutti i documenti recuperati. | No |
citation
Informazioni sulla citazione per un messaggio di risposta di completamento chat.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | string | Il contenuto della citazione. | Sì | |
title | string | Il titolo della citazione. | No | |
URL. | string | L'URL della citazione. | No | |
filepath | string | Il percorso del file della citazione. | No | |
chunk_id | string | L'ID blocco della citazione. | No | |
rerank_score | number | Punteggio di rerank del documento recuperato. | No |
retrievedDocument
Il documento recuperato.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | string | Il contenuto della citazione. | Sì | |
title | string | Il titolo della citazione. | No | |
URL. | string | L'URL della citazione. | No | |
filepath | string | Il percorso del file della citazione. | No | |
chunk_id | string | L'ID blocco della citazione. | No | |
rerank_score | number | Punteggio di rerank del documento recuperato. | No | |
search_queries | array | Query di ricerca utilizzate per recuperare il documento. | No | |
data_source_index | integer | Indice dell'origine dati. | No | |
original_search_score | number | Punteggio di ricerca originale del documento recuperato. | No | |
filter_reason | filterReason | Motivo del filtro del documento recuperato. | No |
filterReason
Motivo del filtro del documento recuperato.
Descrizione: Motivo del filtro del documento recuperato.
Tipo: string
Impostazione predefinita:
Nome enumerazione: FilterReason
Valori di enumerazione:
valore | Descrizione |
---|---|
score | Il documento viene filtrato in base alla soglia del punteggio di ricerca originale definita dalla configurazione strictness . |
rerank | Il documento non viene filtrato in base alla soglia del punteggio di ricerca originale, ma in base al punteggio di rerank e alla configurazione top_n_documents . |
chatCompletionMessageToolCall
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | ID della chiamata allo strumento. | Sì | |
type | toolCallType | Il tipo di chiamata allo strumento, in questo caso function . |
Sì | |
function | oggetto | Funzione chiamata dal modello. | Sì |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
toolCallType
Il tipo di chiamata allo strumento, in questo caso function
.
Descrizione: il tipo di chiamata dello strumento, in questo caso function
.
Tipo: string
Impostazione predefinita:
Nome enumerazione: toolCallType
Valori enumerazione:
valore | Descrizione |
---|---|
function | Il tipo di chiamata dello strumento è funzione. |
chatCompletionRequestMessageTool
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
tool_call_id | string | Chiamata dello strumento a cui risponde questo messaggio. | No | |
content | string | Contenuto del messaggio. | No |
chatCompletionRequestMessageFunction
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso function .Valori possibili: funzione |
No | |
name | string | Contenuto del messaggio. | No | |
content | string | Contenuto del messaggio. | No |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore univoco per il completamento della chat. | Sì | |
prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. | No | |
choices | array | Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1. |
Sì | |
created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. | Sì | |
modello | string | Modello usato per il completamento della chat. | Sì | |
system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
oggetto | enum | Il tipo di oggetto, che è sempre chat.completion .Valori possibili: chat.completion |
Sì | |
attivamente | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionStreamResponse
Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input fornito.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID. | Sì | |
choices | array | Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1. |
Sì | |
created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp. | Sì | |
modello | string | Modello per generare il completamento. | Sì | |
system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
oggetto | enum | Il tipo di oggetto, che è sempre chat.completion.chunk .Valori possibili: chat.completion.chunk |
Sì |
chatCompletionStreamResponseDelta
Delta di completamento della chat generato dalle risposte del modello trasmesso.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | string | Contenuto del messaggio del blocco. | No | |
function_call | oggetto | Deprecato e sostituito da tool_calls . Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
tool_calls | matrice | No | ||
ruolo | enum | Ruolo dell'autore del messaggio. Valori possibili: sistema, utente, assistente, strumento |
No | |
rifiuto | string | Messaggio di rifiuto generato dal modello. | No |
Proprietà per function_call
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
chatCompletionMessageToolCallChunk
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | Sì | ||
id | string | ID della chiamata allo strumento. | No | |
type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
No | |
function | object | No |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
chatCompletionStreamOptions
Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
include_usage | boolean | Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE] messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il choices campo sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null. |
No |
chatCompletionChoiceLogProbs
Informazioni sulla probabilità di log per la scelta.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
content | array | Un elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. | Sì | |
rifiuto | array | Un elenco di token di rifiuto del messaggio con informazioni sulla probabilità di log. | No |
chatCompletionTokenLogprob
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
token | string | Il token. | Sì | |
logprob | number | La probabilità di log di questo token. | Sì | |
bytes | array | Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token. |
Sì | |
top_logprobs | array | Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di top_logprobs inferiore a quelli richiesti. |
Sì |
chatCompletionResponseMessage
Messaggio di completamento della chat generato dal modello.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | chatCompletionResponseMessageRole | Il ruolo dell'autore del messaggio di risposta. | Sì | |
rifiuto | string | Messaggio di rifiuto generato dal modello. | Sì | |
content | string | Contenuto del messaggio. | Sì | |
tool_calls | array | Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. | No | |
function_call | chatCompletionFunctionCall | Deprecato e sostituito da tool_calls . Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
context | azureChatExtensionsMessageContext | Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente. |
No |
chatCompletionResponseMessageRole
Il ruolo dell'autore del messaggio di risposta.
Descrizione: il ruolo dell'autore del messaggio di risposta.
Tipo: string
Impostazione predefinita:
Valori enumerazione:
- assistant
chatCompletionToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello. none
indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto
indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required
indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}}
impone al modello di chiamare tale strumento. none
è l'impostazione predefinita quando non sono presenti strumenti. auto
è l'impostazione predefinita quando sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
Sì | |
function | oggetto | Sì |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
ParallelToolCalls
Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
chatCompletionMessageToolCalls
Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni.
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Deprecato e sostituito da tool_calls
. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
name | string | Nome della funzione da chiamare. | Sì | |
argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | Sì |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt_tokens | integer | Numero di token nel prompt. | Sì | |
completion_tokens | integer | Numero di token nel completamento generato. | Sì | |
total_tokens | integer | Numero totale di token usati nella richiesta (prompt + completamento). | Sì | |
prompt_tokens_details | oggetto | Dettagli dei token di richiesta. | No | |
completion_tokens_details | oggetto | Suddivisione dei token usati in un completamento. | No |
Proprietà per prompt_tokens_details
cached_tokens
Nome | Tipo | Descrizione | Default |
---|---|---|---|
cached_tokens | integer | Numero di token di richiesta memorizzati nella cache. |
Proprietà per completion_tokens_details
reasoning_tokens
Nome | Tipo | Descrizione | Default |
---|---|---|---|
reasoning_tokens | integer | Token generati dal modello per il ragionamento. |
chatCompletionTool
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
Sì | |
function | FunctionObject | Sì |
FunctionParameters
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione di parameters
definisce una funzione con un elenco di parametri vuoto.
Nessuna proprietà definita per questo componente.
FunctionObject
Nome | Tipo | Descrizione | Richiesto | Default |
---|---|---|---|---|
description | stringa | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
name | string | Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. | Sì | |
parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione di parameters definisce una funzione con un elenco di parametri vuoto. |
No | |
strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel campo parameters . Solo un subset di schema JSON è supportato quando strict è true . |
No | Falso |
ResponseFormatText
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo di formato di risposta definito: text Valori possibili: testo |
Sì |
ResponseFormatJsonObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo di formato di risposta definito: json_object Valori possibili: json_object |
Sì |
ResponseFormatJsonSchemaSchema
Schema per il formato di risposta, descritto come oggetto Schema JSON.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Tipo di formato di risposta definito: json_schema Valori possibili: json_schema |
Sì | |
json_schema | oggetto | Sì |
Proprietà per json_schema
description
Name | Tipo | Descrizione | Default |
---|---|---|---|
description | stringa | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. |
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. |
schema
Nome | Tipo | Descrizione | Default |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Schema per il formato di risposta, descritto come oggetto Schema JSON. |
strict
Nome | Tipo | Descrizione | Default |
---|---|---|---|
strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema . Solo un subset di schema JSON è supportato quando strict è true . |
Falso |
chatCompletionChoiceCommon
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | No | ||
finish_reason | string | No |
createTranslationRequest
Richiesta di conversione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file | string | Il file audio da convertire. | Sì | |
prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
temperatura | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
audioResponse
Risposta di conversione o trascrizione quando response_format era json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Testo | string | Testo convertito o trascritto. | Sì |
audioVerboseResponse
Risposta di conversione o trascrizione quando response_format era verbose_json
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Testo | string | Testo convertito o trascritto. | Sì | |
attività | string | Tipo di attività audio. | No | |
lingua | string | Lingua. | No | |
duration | number | Durata. | No | |
segmenti | matrice | No | ||
words | matrice | No |
audioResponseFormat
Definisce il formato dell'output.
Descrizione: definisce il formato dell'output.
Tipo: string
Impostazione predefinita:
Valori enumerazione:
- JSON
- Testo
- srt
- verbose_json
- vtt
createTranscriptionRequest
Richiesta di trascrizione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file | string | L'oggetto file audio da trascrivere. | Sì | |
prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
temperatura | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
lingua | string | La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. | No | |
timestamp_granularities[] | array | La granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato su verbose_json per usare le granularità del timestamp. Sono supportate una o entrambe le opzioni seguenti: word o segment . Nota: non esiste una latenza aggiuntiva per i timestamp di segmenti, ma la generazione di timestamp di parole comporta una latenza aggiuntiva. |
No | ['segment'] |
audioSegment
Segmento di trascrizione o conversione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | integer | Identificatore del segmento. | No | |
seek | number | Offset del segmento. | No | |
Avvio | number | Offset iniziale del segmento. | No | |
end | number | Offset finale del segmento. | No | |
Testo | string | Testo del segmento. | No | |
tokens | array | Token del testo. | No | |
temperatura | number | Temperatura. | No | |
avg_logprob | number | Probabilità media di log. | No | |
compression_ratio | number | Rapporto di compressione. | No | |
no_speech_prob | number | Probabilità di 'no speech'. | No |
audioWord
Parola di trascrizione o traduzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
word | string | Word | No | |
Avvio | number | Offset iniziale della parola. | No | |
end | number | Offset finale della parola. | No |
createSpeechRequest
Richiesta di riconoscimento vocale.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
input | string | Testo per cui sintetizzare l'audio. La lunghezza massima è di 4096 caratteri. | Sì | |
voice | enum | Voce da usare per la sintesi vocale. Valori possibili: lega, eco, fable, onyx, nova, shimmer |
Sì | |
response_format | enum | Formato in cui sintetizzare l'audio. Valori possibili: mp3, opus, aac, flac, wav, pcm |
No | |
velocità | number | Velocità dell'audio sintetizzato. Selezionare un valore tra 0.25 e 4.0 . 1.0 è l'impostazione predefinita. |
No | 1.0 |
imageQuality
La qualità dell'immagine che verrà generata.
Descrizione: la qualità dell'immagine che verrà generata.
Tipo: string
Impostazione predefinita: standard
Nome enumerazione: quality
Valori enumerazione:
valore | Descrizione |
---|---|
standard | Qualità standard crea immagini di qualità standard. |
hd | Qualità HD crea immagini con dettagli più definiti e maggiore coerenza nell'immagine. |
imagesResponseFormat
Formato in cui vengono restituite le immagini generate.
Descrizione: il formato in cui vengono restituite le immagini generate.
Tipo: string
Impostazione predefinita: url
Nome enumerazione: imagesResponseFormat
Valori enumerazione:
valore | Descrizione |
---|---|
URL. | L'URL che fornisce l'accesso temporaneo per scaricare le immagini generate. |
b64_json | Le immagini generate vengono restituite come stringa con codifica Base64. |
imageSize
Dimensioni delle immagini generate.
Descrizione: le dimensioni delle immagini generate.
Tipo: string
Impostazione predefinita: 1024×1024
Nome enumerazione: size
Valori enumerazione:
valore | Descrizione |
---|---|
256x256 | Le dimensioni desiderate dell'immagine generata sono 256x256 pixel. Supportato solo per DALL-E-2. |
512x512 | Le dimensioni desiderate dell'immagine generata sono 512x512 pixel. Supportato solo per DALL-E-2. |
1792x1024 | Le dimensioni desiderate dell'immagine generata sono 1792x1024 pixel. Supportato solo per DALL-E-3. |
1024x1792 | Le dimensioni desiderate dell'immagine generata sono 1024x1792 pixel. Supportato solo per DALL-E-3. |
1024x1024 | Le dimensioni desiderate dell'immagine generata sono 1024×1024 pixel. |
imageStyle
Stile delle immagini generate.
Descrizione: lo stile delle immagini generate.
Tipo: string
Impostazione predefinita: vivid
Nome enumerazione: style
Valori enumerazione:
valore | Descrizione |
---|---|
vivid | Vivid crea immagini iperrealistiche e drammatiche. |
natural | Natural crea immagini più naturali e meno iperrealistiche. |
imageGenerationsRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4000 caratteri. | Sì | |
n | integer | Numero di immagini da generare. | No | 1 |
size | imageSize | Dimensioni delle immagini generate. | No | 1024x1024 |
response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | URL. |
utente | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. | No | |
quality | imageQuality | La qualità dell'immagine che verrà generata. | No | standard |
style | imageStyle | Stile delle immagini generate. | No | vivid |
generateImagesResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
created | integer | Il timestamp unix al momento della creazione dell'operazione. | Sì | |
data | array | I dati del risultato dell'operazione, se l'operazione riesce | Sì |
imageResult
L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
URL. | string | L'URL dell'immagine. | No | |
b64_json | string | L'immagine con codifica Base64 | No | |
content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtro dei contenuti. | No | |
revised_prompt | string | Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. | No | |
prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | No |
line
Oggetto linea contenuto costituito da una sequenza adiacente di elementi di contenuto, ad esempio parole e segni di selezione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Testo | string | Sì | ||
intervalli | array | Matrice di intervalli che rappresentano gli oggetti rilevati e le relative informazioni sul rettangolo di selezione. | Sì |
span
Oggetto di intervalli che rappresenta un oggetto rilevato e le relative informazioni sul rettangolo di selezione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
Testo | string | Contenuto di testo dell'intervallo che rappresenta l'oggetto rilevato. | Sì | |
offset | integer | Offset di caratteri all'interno del testo in cui inizia l'intervallo. Questo offset viene definito come posizione del primo carattere dell'intervallo, contando dall'inizio del testo come punti di codice Unicode. | Sì | |
length | integer | Lunghezza dell'intervallo in caratteri, misurata in punti di codice Unicode. | Sì | |
polygon | array | Matrice di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato. | Sì |
runCompletionUsage
Statistiche di utilizzo relative all’esecuzione. Questo valore sarà pari a null
se l'esecuzione non si trova in uno stato terminale, ad esempio in_progress
, queued
e così via.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
completion_tokens | integer | Numero di token di completamento che possono essere usati durante l'esecuzione. | Sì | |
prompt_tokens | integer | Numero di token di prompt che possono essere usati durante l'esecuzione. | Sì | |
total_tokens | integer | Numero totale di token usati nella richiesta (prompt + completamento). | Sì |
runStepCompletionUsage
Statistiche di utilizzo relative al passaggio dell’esecuzione. Questo valore sarà pari a null
se lo stato del passaggio di esecuzione è in_progress
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
completion_tokens | integer | Numero di token di completamento che possono essere usati durante il passaggio dell'esecuzione. | Sì | |
prompt_tokens | integer | Numero di token di prompt che possono essere usati durante il passaggio dell’esecuzione. | Sì | |
total_tokens | integer | Numero totale di token usati nella richiesta (prompt + completamento). | Sì |
assistantsApiResponseFormatOption
Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106
.
L'impostazione su { "type": "json_object" }
abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length"
, che indica che la generazione ha superato max_tokens
o la conversazione ha superato la lunghezza massima del contesto.
Questo componente può essere uno dei seguenti:
assistantsApiResponseFormat
Oggetto che descrive l'output previsto del modello. Se json_object
solo function
tipo tools
possono essere passati all'esecuzione. Se text
il modello può restituire testo o qualsiasi valore necessario.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Deve essere text o json_object . |
No | Testo |
Tipo di enumerazione: AssistantsApiResponseFormat
valore | Descrizione |
---|---|
Testo | |
json_object |
assistantObject
Rappresenta un assistant
che può chiamare il modello e usare gli strumenti.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre assistant . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato l’assistente. | Sì | |
nome | string | Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri. |
Sì | |
descrizione | stringa | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
Sì | |
modello | string | ID del modello da usare. Usare l'API Elenco modelli per visualizzare tutti i modelli disponibili. |
Sì | |
istruzioni | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
Sì | |
tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter , file_search o function . |
Sì | [] |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
Enumerazione dell'oggetto: AssistantObjectType
valore | Descrizione |
---|---|
assistant | Il tipo di oggetto, che è sempre assistente |
createAssistantRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
model | Sì | |||
nome | string | Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri. |
No | |
description | stringa | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
istruzioni | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
No | |
tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter , retrieval o function . |
No | [] |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
|
vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
modifyAssistantRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
model | No | |||
name | string | Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri. |
No | |
description | stringa | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
istruzioni | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri. |
No | |
tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter , retrieval o function . |
No | [] |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Sovrascrive l’elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | Sovrascrive l’archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
deleteAssistantResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Sì | ||
deleted | boolean | Sì | ||
oggetto | string | Sì |
Enumerazione oggetto: DeleteAssistantResponseState
valore | Descrizione |
---|---|
assistant.deleted |
listAssistantsResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
assistantToolsCode
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Il tipo di strumento da definire: code_interpreter |
Sì |
Enumerazione tipo: assistantToolsCodeType
valore | Descrizione |
---|---|
code_interpreter |
assistantToolsFileSearch
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Il tipo di strumento da definire: file_search |
Sì | |
file_search | oggetto | Esegue l'override dello strumento di ricerca file. | No |
Proprietà per file_search
max_num_results
Nome | Tipo | Descrizione | Default |
---|---|---|---|
max_num_results | integer | Numero massimo di risultati restituiti dallo strumento di ricerca file. Il valore predefinito è 20 per i modelli GPT-4* e 5 per GPT-3.5-turbo. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi). Si noti che lo strumento di ricerca file può restituire meno dei max_num_results risultati. |
Enumerazione tipo: assistantToolsFileSearchType
valore | Descrizione |
---|---|
file_search |
assistantToolsFileSearchTypeOnly
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Il tipo di strumento da definire: file_search |
Sì |
Enumerazione tipo: assistantToolsFileSearchType
valore | Descrizione |
---|---|
file_search |
assistantToolsFunction
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Il tipo di strumento da definire: function |
Sì | |
function | oggetto | La definizione della funzione. | Sì |
Proprietà per la funzione
description
Name | Tipo | Descrizione | Default |
---|---|---|---|
description | stringa | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. |
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. |
parameters
Nome | Tipo | Descrizione | Default |
---|---|---|---|
parameters | chatCompletionFunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. |
Enumerazione tipo: assistantToolsFunction
valore | Descrizione |
---|---|
function |
truncationObject
Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Strategia di troncamento da usare per il thread. Il valore predefinito è auto . Se impostato su last_messages , il thread verrà troncato ai n messaggi più recenti nel thread. Se impostato su auto , i messaggi al centro del thread verranno rimossi per adattarsi alla lunghezza del contesto del modello, max_prompt_tokens . |
Sì | |
last_messages | integer | Numero di messaggi più recenti dal thread durante la costruzione del contesto per l'esecuzione. | No |
Enumerazione tipo: TruncationType
valore | Descrizione |
---|---|
auto | |
last_messages |
assistantsApiToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello.
none
indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto
è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"}
o {"type": "function", "function": {"name": "my_function"}}
che impone al modello di chiamare tale strumento.
Questo componente può essere uno dei seguenti:
assistantsNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per costringere il modello a chiamare uno strumento specifico.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Tipo dello strumento. Se il tipo è function , il nome della funzione deve essere set |
Sì | |
function | object | No |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione da chiamare. |
Enumerazione tipo: AssistantsNamedToolChoiceType
valore | Descrizione |
---|---|
function | |
code_interpreter | |
file_search |
runObject
Rappresenta un’esecuzione eseguita in un thread.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre thread.run . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stata creata l’enumerazione. | Sì | |
thread_id | string | ID del thread eseguito in come parte di questa esecuzione. | Sì | |
assistant_id | string | ID dell'assistente utilizzato per l'esecuzione di questa esecuzione. | Sì | |
stato | string | Lo stato dell’esecuzione, che può essere queued , in_progress , requires_action , cancelling , cancelled , failed , completed o expired . |
Sì | |
required_action | oggetto | Dettagli sull'azione necessaria per continuare l'esecuzione. Sarà null se non è necessaria alcuna azione. |
Sì | |
last_error | oggetto | Ultimo errore associato a questa esecuzione. Sarà null se non ci sono errori. |
Sì | |
expires_at | integer | Timestamp Unix (in secondi) di quando scadrà l’esecuzione. | Sì | |
started_at | integer | Timestamp Unix (in secondi) di quando è stata avviata l’esecuzione. | Sì | |
cancelled_at | integer | Timestamp Unix (in secondi) di quando è stata eliminata l’esecuzione. | Sì | |
failed_at | integer | Timestamp Unix (in secondi) di quando è stato riscontrato un errore con l’esecuzione. | Sì | |
completed_at | integer | Timestamp Unix (in secondi) di quando è stata completata l’esecuzione. | Sì | |
incomplete_details | oggetto | Dettagli sul motivo per cui l'esecuzione è incompleta. Se l'esecuzione non è incompleta, sarà null . |
Sì | |
modello | string | Il modello che l’assistente ha utilizzato per questa esecuzione. | Sì | |
istruzioni | string | Le istruzioni che l’assistente ha utilizzato per questa esecuzione. | Sì | |
tools | array | L’elenco di strumenti che l’assistente ha utilizzato per questa esecuzione. | Sì | [] |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì | |
attivamente | runCompletionUsage | Statistiche di utilizzo relative all’esecuzione. Questo valore sarà pari a null se l'esecuzione non si trova in uno stato terminale, ad esempio in_progress , queued e così via. |
Sì | |
temperatura | number | Temperatura di campionamento utilizzata per questa esecuzione. Se non viene impostata, il valore predefinito è 1. | No | |
top_p | number | Valore di campionamento del nucleo utilizzato per questa esecuzione. Se non viene impostato, il valore predefinito è 1. | No | |
max_prompt_tokens | integer | Numero massimo di token di richiesta che devono essere usati durante l'esecuzione. |
Sì | |
max_completion_tokens | integer | Numero massimo di token di completamento che devono essere usati durante l'esecuzione. |
Sì | |
truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | Sì | |
tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento. |
Sì | |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
Sì |
Proprietà per required_action
type
Nome | Tipo | Descrizione | Default |
---|---|---|---|
type | string | Per adesso, questo valore è sempre submit_tool_outputs . |
submit_tool_outputs
Nome | Tipo | Descrizione | Default |
---|---|---|---|
tool_calls | array | Elenco delle chiamate degli strumenti pertinenti. |
Proprietà per last_error
codice
Nome | Tipo | Descrizione | Default |
---|---|---|---|
codice | string | Uno tra server_error o rate_limit_exceeded . |
messaggio
Nome | Tipo | Descrizione | Default |
---|---|---|---|
messaggio | string | Descrizione leggibile dell'errore. |
Proprietà per incomplete_details
reason
Nome | Tipo | Descrizione | Default |
---|---|---|---|
reason | string | Motivo per cui l'esecuzione è incompleta. Farà riferimento al limite di token specifico raggiunto nel corso dell'esecuzione. |
Enumerazione dell'oggetto: runObjectType
valore | Descrizione |
---|---|
thread.run | Tipo di oggetto, che è sempre thread.run |
Enumerazione stato: RunObjectStatus
valore | Descrizione |
---|---|
queued | Stato in coda |
in_progress | Lo stato in_progress |
requires_action | Lo stato required_action |
in fase di annullamento | Lo stato in fase di annullamento |
cancelled | Lo stato cancellato |
failed | Lo stato non riuscito |
completato | Lo stato completato |
expired | Lo stato scaduto |
createRunRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
modello | string | ID di distribuzione del modello da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
istruzioni | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. | No | |
additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. | No | |
tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No | |
max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà il possibile per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No | |
tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento. |
No | |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
listRunsResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
modifyRunRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
submitToolOutputsRunRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
tool_outputs | array | Un elenco degli strumenti per i quali vengono inviati gli output. | Sì | |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No |
runToolCallObject
Oggetti della chiamata dello strumento
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | ID della chiamata allo strumento. È necessario fare riferimento a questo ID quando si inviano gli output dello strumento nell’usare gli output dello strumento Invia per eseguire l'endpoint. | Sì | |
type | string | Il tipo di chiamata dello strumento per cui l’output è necessario. Per adesso, questo valore è sempre function . |
Sì | |
function | oggetto | La definizione della funzione. | Sì |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione. |
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Argomenti previsti dal modello per passare alla funzione. |
Enumerazione tipo: RunToolCallObjectType
valore | Descrizione |
---|---|
function |
createThreadAndRunRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
thread | createThreadRequest | No | ||
modello | string | Nome del modello da usare per questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
istruzioni | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
tool_resources | oggetto | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No | |
temperatura | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. |
No | 1 |
top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere è consigliabile modificare questo o la temperatura, ma non entrambi. |
No | 1 |
stream | boolean | Se true , restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE] . |
No | |
stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true . |
No | None |
max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà il possibile per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete . Per ulteriori informazioni, incomplete_details vedere: |
No | |
truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No | |
tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento. |
No | |
parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | Vero |
response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106 .L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length" , che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
threadObject
Rappresenta un thread che contiene messaggi.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre thread . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato il thread. | Sì | |
tool_resources | oggetto | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
Sì | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
Enumerazione oggetto: ThreadObjectType
valore | Descrizione |
---|---|
thread | Tipo di oggetto thread che è sempre thread |
createThreadRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
messages | array | Elenco di messaggi con cui avviare il thread. | No | |
tool_resources | oggetto | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
|
vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
modifyThreadRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
tool_resources | oggetto | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Proprietà per tool_resources
code_interpreter
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_ids | array | Elenco di ID file resi disponibili allo strumento di code_interpreter . Allo strumento possono essere associati al massimo 20 file. |
[] |
file_search
Nome | Tipo | Descrizione | Default |
---|---|---|---|
vector_store_ids | array | L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
deleteThreadResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Sì | ||
deleted | boolean | Sì | ||
oggetto | string | Sì |
Enumerazione oggetto: DeleteThreadResponseObjectState
valore | Descrizione |
---|---|
thread.deleted | Stato dell'oggetto risposta del thread eliminato, ovvero thread.deleted |
listThreadsResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
messageObject
Rappresenta un messaggio all'interno di un thread.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre thread.message . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato il messaggio. | Sì | |
thread_id | string | ID del thread a cui appartiene il messaggio. | Sì | |
stato | string | Lo stato del messaggio, che può essere in_progress , incomplete o completed . |
Sì | |
incomplete_details | oggetto | In un messaggio incompleto, informazioni dettagliate sul motivo per cui il messaggio è incompleto. | Sì | |
completed_at | integer | Timestamp Unix (in secondi) di quando è stato completato il messaggio. | Sì | |
incomplete_at | integer | Timestamp Unix (in secondi) di quando il messaggio è stato contrassegnato come incompleto. | Sì | |
ruolo | string | Entità che ha generato il messaggio. Uno tra user o assistant . |
Sì | |
content | array | Contenuto del messaggio in matrice di testo e/o immagini. | Sì | |
assistant_id | string | Se applicabile, l'ID dell'assistente che ha creato il messaggio. | Sì | |
run_id | string | Se applicabile, l'ID dell'esecuzione associata alla creazione di questo messaggio. | Sì | |
allegati | array | Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. | Sì | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì |
Proprietà per incomplete_details
reason
Nome | Tipo | Descrizione | Default |
---|---|---|---|
reason | string | Motivo per cui il messaggio è incompleto. |
Enumerazione oggetto: MessageObjectType
valore | Descrizione |
---|---|
thread.message | Il tipo di oggetto del messaggio, che è sempre thread.message |
Enumerazione stato: MessageObjectStatus
valore | Descrizione |
---|---|
in_progress | |
incomplete | |
completato |
Enumerazione ruolo: MessageObjectRole
valore | Descrizione |
---|---|
utente | |
assistant |
messageDeltaObject
Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore del messaggio a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre thread.message.delta . |
Sì | |
delta | oggetto | Delta contenente i campi modificati nel messaggio. | Sì |
Proprietà per delta
ruolo
Nome | Tipo | Descrizione | Default |
---|---|---|---|
ruolo | string | Entità che ha generato il messaggio. Uno tra user o assistant . |
content
Nome | Tipo | Descrizione | Default |
---|---|---|---|
content | array | Contenuto del messaggio in matrice di testo e/o immagini. |
Enumerazione oggetto: MessageDeltaObjectType
valore | Descrizione |
---|---|
thread.message.delta |
createMessageRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ruolo | string | Ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user : indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.- assistant : indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione. |
Sì | |
content | string | Il contenuto del messaggio. | Sì | |
allegati | array | Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
Enumerazione ruolo: CreateMessageRequestRole
valore | Descrizione |
---|---|
utente | |
assistant |
modifyMessageRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
deleteMessageResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Sì | ||
deleted | boolean | Sì | ||
oggetto | string | Sì |
Enumerazione oggetto: DeleteMessageResponseObject
valore | Descrizione |
---|---|
thread.message.deleted | Stato dell'oggetto risposta del messaggio eliminato |
listMessagesResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
messageContentImageFileObject
Fa riferimento a un file immagine nel contenuto di un messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre image_file . |
Sì | |
image_file | oggetto | Sì |
Proprietà per image_file
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID del file dell’immagine nel contenuto del messaggio. |
Enumerazione tipo: MessageContentImageFileObjectType
valore | Descrizione |
---|---|
image_file | Tipo di file di immagine del contenuto del messaggio |
messageContentTextObject
Il contenuto del testo parte del messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre text . |
Sì | |
Testo | oggetto | Sì |
Proprietà per il testo
value
Nome | Tipo | Descrizione | Default |
---|---|---|---|
value | string | Dati che costituiscono il testo. |
annotations
Nome | Tipo | Descrizione | Default |
---|---|---|---|
annotations | array |
Enumerazione tipo: messageContentTextObjectType
valore | Descrizione |
---|---|
Testo | Tipo di oggetto del contenuto del messaggio |
messageContentTextAnnotationsFileCitationObject
Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "recupero" per cercare i file.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre file_citation . |
Sì | |
Testo | string | Testo nel contenuto del messaggio che deve essere sostituito. | Sì | |
file_citation | oggetto | Sì | ||
start_index | integer | Sì | ||
end_index | integer | Sì |
Proprietà per file_citation
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | ID del file specifico da cui deriva la citazione. |
Enumerazione tipo: FileCitationObjectType
valore | Descrizione |
---|---|
file_citation | Tipo di oggetto di citazione file |
messageContentTextAnnotationsFilePathObject
URL per il file generato quando l'assistente ha usato lo strumento code_interpreter
per generare un file.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre file_path . |
Sì | |
Testo | string | Testo nel contenuto del messaggio che deve essere sostituito. | Sì | |
file_path | oggetto | Sì | ||
start_index | integer | Sì | ||
end_index | integer | Sì |
Proprietà per file_path
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID del file che è stato generato. |
Enumerazione tipo: FilePathObjectType
valore | Descrizione |
---|---|
file_path | Tipo di oggetto percorso file |
messageDeltaContentImageFileObject
Fa riferimento a un file immagine nel contenuto di un messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | L’indice della parte di contenuto nel messaggio. | Sì | |
type | string | Sempre image_file . |
Sì | |
image_file | object | No |
Proprietà per image_file
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID del file dell’immagine nel contenuto del messaggio. |
Enumerazione tipo: MessageDeltaContentImageFileObjectType
valore | Descrizione |
---|---|
image_file |
messageDeltaContentTextObject
Il contenuto del testo parte del messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | L’indice della parte di contenuto nel messaggio. | Sì | |
type | string | Sempre text . |
Sì | |
Testo | object | No |
Proprietà per il testo
value
Nome | Tipo | Descrizione | Default |
---|---|---|---|
value | string | Dati che costituiscono il testo. |
annotations
Nome | Tipo | Descrizione | Default |
---|---|---|---|
annotations | array |
Enumerazione tipo: MessageDeltaContentTextObjectType
valore | Descrizione |
---|---|
Testo |
messageDeltaContentTextAnnotationsFileCitationObject
Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare i file.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | Indice dell'annotazione nella parte del contenuto di testo. | Sì | |
type | string | Sempre file_citation . |
Sì | |
Testo | string | Testo nel contenuto del messaggio che deve essere sostituito. | No | |
file_citation | object | No | ||
start_index | integer | No | ||
end_index | integer | No |
Proprietà per file_citation
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | ID del file specifico da cui deriva la citazione. |
Offerta
Nome | Tipo | Descrizione | Default |
---|---|---|---|
Offerta | string | Virgolette specifiche nel file. |
Enumerazione tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType
valore | Descrizione |
---|---|
file_citation |
messageDeltaContentTextAnnotationsFilePathObject
URL per il file generato quando l'assistente ha usato lo strumento code_interpreter
per generare un file.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | Indice dell'annotazione nella parte del contenuto di testo. | Sì | |
type | string | Sempre file_path . |
Sì | |
Testo | string | Testo nel contenuto del messaggio che deve essere sostituito. | No | |
file_path | object | No | ||
start_index | integer | No | ||
end_index | integer | No |
Proprietà per file_path
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID del file che è stato generato. |
Enumerazione tipo: MessageDeltaContentTextAnnotationsFilePathObjectType
valore | Descrizione |
---|---|
file_path |
runStepObject
Rappresenta un passaggio in esecuzione di un'esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore del passaggio dell’esecuzione a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre assistant.run.step . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato il passaggio dell’esecuzione. | Sì | |
assistant_id | string | ID dell'assistente associato al passaggio di esecuzione. | Sì | |
thread_id | string | ID del thread eseguito. | Sì | |
run_id | string | L’ID dell’esecuzione di cui fa parte questo passaggio dell’esecuzione. | Sì | |
type | string | Tipo di passaggio di esecuzione, che può essere message_creation o tool_calls . |
Sì | |
stato | string | Lo stato dell’esecuzione, che può essere in_progress , cancelled , failed , completed o expired . |
Sì | |
step_details | runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject | Dettagli del passaggio dell’esecuzione. | Sì | |
last_error | oggetto | Ultimo errore associato a questo passaggio dell’esecuzione. Sarà null se non ci sono errori. |
Sì | |
expired_at | integer | Timestamp Unix (in secondi) di quando scadrà il passaggio dell’esecuzione. Un passaggio viene considerato scaduto se l'esecuzione padre è scaduta. | Sì | |
cancelled_at | integer | Timestamp Unix (in secondi) di quando è stato annullato il passaggio dell’esecuzione. | Sì | |
failed_at | integer | Timestamp Unix (in secondi) di quando il passaggio dell’esecuzione dà esito negativo. | Sì | |
completed_at | integer | Timestamp Unix (in secondi) di quando il passaggio dell’esecuzione viene completato. | Sì | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì |
Proprietà per last_error
codice
Nome | Tipo | Descrizione | Default |
---|---|---|---|
codice | string | Uno tra server_error o rate_limit_exceeded . |
messaggio
Nome | Tipo | Descrizione | Default |
---|---|---|---|
messaggio | string | Descrizione leggibile dell'errore. |
Enumerazione dell'oggetto: RunStepObjectType
valore | Descrizione |
---|---|
assistant.run.step | Il tipo di oggetto, che è sempre assistant.run.step . |
Enumerazione tipo: RunStepObjectType
valore | Descrizione |
---|---|
message_creation | Passaggio di esecuzione message_creation |
tool_calls | Passaggio di esecuzione tool_calls |
Enumerazione stato: RunStepObjectStatus
valore | Descrizione |
---|---|
in_progress | Stato di esecuzione in_progress |
cancelled | Stato di esecuzione annullato |
failed | Stato di esecuzione annullato |
completato | Stato di esecuzione annullato |
expired | Stato di esecuzione annullato |
runStepDeltaObject
Rappresenta un delta del messaggio, ad esempio i campi modificati in un passaggio dell’esecuzione durante lo streaming.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore del passaggio dell’esecuzione a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre thread.run.step.delta . |
Sì | |
delta | oggetto | Delta contenente i campi modificati del passaggio dell’esecuzione. | Sì |
Proprietà per delta
step_details
Nome | Tipo | Descrizione | Default |
---|---|---|---|
step_details | runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject | Dettagli del passaggio dell’esecuzione. |
Enumerazione dell'oggetto: RunStepDeltaObjectType
valore | Descrizione |
---|---|
thread.run.step.delta |
listRunStepsResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
runStepDetailsMessageCreationObject
Dettagli della creazione del messaggio tramite il passaggio dell’esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre message_creation . |
Sì | |
message_creation | oggetto | Sì |
Proprietà per message_creation
message_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
message_id | string | ID del messaggio creato da questo passaggio di esecuzione. |
Enumerazione tipo: RunStepDetailsMessageCreationObjectType
valore | Descrizione |
---|---|
message_creation |
runStepDeltaStepDetailsMessageCreationObject
Dettagli della creazione del messaggio tramite il passaggio dell’esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre message_creation . |
Sì | |
message_creation | object | No |
Proprietà per message_creation
message_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
message_id | string | ID del messaggio creato da questo passaggio di esecuzione. |
Enumerazione tipo: RunStepDeltaStepDetailsMessageCreationObjectType
valore | Descrizione |
---|---|
message_creation |
runStepDetailsToolCallsObject
Dettagli della chiamata allo strumento.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre tool_calls . |
Sì | |
tool_calls | array | Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi strumenti possono essere associati a uno dei tre tipi di strumenti: code_interpreter , retrieval o function . |
Sì |
Enumerazione tipo: RunStepDetailsToolCallsObjectType
valore | Descrizione |
---|---|
tool_calls |
runStepDeltaStepDetailsToolCallsObject
Dettagli della chiamata allo strumento.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre tool_calls . |
Sì | |
tool_calls | array | Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi strumenti possono essere associati a uno dei tre tipi di strumenti: code_interpreter , file_search o function . |
No |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsObjectType
valore | Descrizione |
---|---|
tool_calls |
runStepDetailsToolCallsCodeObject
I dettagli della chiamata allo strumento Interprete di codice in cui era coinvolto il passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | ID della chiamata allo strumento. | Sì | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre code_interpreter per questo tipo di chiamata allo strumento. |
Sì | |
code_interpreter | oggetto | Definizione di chiamata dello strumento Interprete di codice. | Sì |
Proprietà per code_interpreter
input
Nome | Tipo | Descrizione | Default |
---|---|---|---|
input | string | Input per la chiamata dello strumento Interprete di codice. |
outputs
Nome | Tipo | Descrizione | Default |
---|---|---|---|
outputs | array | Output per la chiamata dello strumento Interprete di codice. Interprete di codice può restituire uno o più elementi, incluso testo (logs ) o immagini (image ). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. |
Enumerazione tipo: RunStepDetailsToolCallsCodeObjectType
valore | Descrizione |
---|---|
code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
I dettagli della chiamata allo strumento Interprete di codice in cui era coinvolto il passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Sì | |
id | string | ID della chiamata allo strumento. | No | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre code_interpreter per questo tipo di chiamata allo strumento. |
Sì | |
code_interpreter | oggetto | Definizione di chiamata dello strumento Interprete di codice. | No |
Proprietà per code_interpreter
input
Nome | Tipo | Descrizione | Default |
---|---|---|---|
input | string | Input per la chiamata dello strumento Interprete di codice. |
outputs
Nome | Tipo | Descrizione | Default |
---|---|---|---|
outputs | array | Output per la chiamata dello strumento Interprete di codice. Interprete di codice può restituire uno o più elementi, incluso testo (logs ) o immagini (image ). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType
valore | Descrizione |
---|---|
code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
L'output di testo della chiamata allo strumento Interprete di codice come parte di un passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre logs . |
Sì | |
log | string | L’output di testo dalla chiamata allo strumento Interprete di codice. | Sì |
Enumerazione tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType
valore | Descrizione |
---|---|
log |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
L'output di testo della chiamata allo strumento Interprete di codice come parte di un passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | Indice dell'output nella matrice di output. | Sì | |
type | string | Sempre logs . |
Sì | |
log | string | L’output di testo dalla chiamata allo strumento Interprete di codice. | No |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
valore | Descrizione |
---|---|
log |
runStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre image . |
Sì | |
image | oggetto | Sì |
Proprietà per immagine
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID file dell'immagine. |
Enumerazione tipo: RunStepDetailsToolCallsCodeOutputImageObjectType
valore | Descrizione |
---|---|
image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | Indice dell'output nella matrice di output. | Sì | |
type | string | Sempre image . |
Sì | |
image | object | No |
Proprietà per immagine
file_id
Nome | Tipo | Descrizione | Default |
---|---|---|---|
file_id | string | L’ID file dell'immagine. |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
valore | Descrizione |
---|---|
image |
runStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | ID dell’oggetto della chiamata allo strumento. | Sì | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre file_search per questo tipo di chiamata allo strumento. |
Sì | |
file_search | oggetto | Per il momento, questo sarà sempre un oggetto vuoto. | Sì |
Enumerazione tipo: RunStepDetailsToolCallsFileSearchObjectType
valore | Descrizione |
---|---|
file_search |
runStepDeltaStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Sì | |
id | string | ID dell’oggetto della chiamata allo strumento. | No | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre retrieval per questo tipo di chiamata allo strumento. |
Sì | |
file_search | oggetto | Per il momento, questo sarà sempre un oggetto vuoto. | Sì |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
valore | Descrizione |
---|---|
file_search |
runStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | ID dell’oggetto della chiamata allo strumento. | Sì | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre function per questo tipo di chiamata allo strumento. |
Sì | |
function | oggetto | Definizione della funzione chiamata. | Sì |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione. |
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Gli argomenti passati alla funzione. |
output
Nome | Tipo | Descrizione | Default |
---|---|---|---|
output | string | Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. |
Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType
valore | Descrizione |
---|---|
function |
runStepDeltaStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Sì | |
id | string | ID dell’oggetto della chiamata allo strumento. | No | |
type | string | Tipo di chiamata allo strumento. Questo sarà sempre function per questo tipo di chiamata allo strumento. |
Sì | |
function | oggetto | Definizione della funzione chiamata. | No |
Proprietà per la funzione
name
Nome | Tipo | Descrizione | Default |
---|---|---|---|
name | string | Nome della funzione. |
argomenti
Nome | Tipo | Descrizione | Default |
---|---|---|---|
argomenti | string | Gli argomenti passati alla funzione. |
output
Nome | Tipo | Descrizione | Default |
---|---|---|---|
output | string | Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. |
Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType
valore | Descrizione |
---|---|
function |
vectorStoreExpirationAfter
I criteri di scadenza per un archivio vettoriale.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
ancoraggio | string | Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at . |
Sì | |
giorni | integer | Numero di giorni dopo l'ora di ancoraggio in cui scadrà l'archivio vettoriale. | Sì |
Enumerazione ancoraggio: VectorStoreExpirationAfterAnchor
valore | Descrizione |
---|---|
last_active_at | Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. |
vectorStoreObject
Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | enum | Il tipo di oggetto, che è sempre vector_store .Valori possibili: vector_store |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato l’archivio vettoriale. | Sì | |
nome | string | Il nome dell’archivio vettoriale. | Sì | |
usage_bytes | integer | Numero totale di byte utilizzati dai file nell'archivio vettoriale. | Sì | |
file_counts | oggetto | Sì | ||
stato | string | Lo stato dell’archivio vettoriale, che può essere expired , in_progress o completed . Lo stato di completed indica che l'archivio vettoriale è pronto per l'uso. |
Sì | |
expires_after | vectorStoreExpirationAfter | I criteri di scadenza per un archivio vettoriale. | No | |
expires_at | integer | Timestamp Unix (in secondi) di quando l’archivio vettoriale scadrà. | No | |
last_active_at | integer | Timestamp Unix (in secondi) di quando l’archivio vettoriale è stato attivo per l’ultima volta. | Sì | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
Sì |
Proprietà per file_counts
in_progress
Nome | Tipo | Descrizione | Default |
---|---|---|---|
in_progress | integer | Il numero di file attualmente in fase di elaborazione. |
completato
Nome | Tipo | Descrizione | Default |
---|---|---|---|
completato | integer | Il numero di file elaborati correttamente. |
failed
Nome | Tipo | Descrizione | Default |
---|---|---|---|
failed | integer | Il numero di file per cui l’elaborazione non è riuscita. |
cancelled
Nome | Tipo | Descrizione | Default |
---|---|---|---|
cancelled | integer | Il numero di file che sono stati annullati. |
totale
Nome | Tipo | Descrizione | Default |
---|---|---|---|
totale | integer | Numero totale di file. |
Enumerazione stato: VectorStoreObjectStatus
valore | Descrizione |
---|---|
expired | |
in_progress | |
completato |
createVectorStoreRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
No | |
name | string | Il nome dell’archivio vettoriale. | No | |
expires_after | vectorStoreExpirationAfter | I criteri di scadenza per un archivio vettoriale. | No | |
chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . Applicabile solo se file_ids non èempty. |
No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
updateVectorStoreRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
name | string | Il nome dell’archivio vettoriale. | No | |
expires_after | vectorStoreExpirationAfter | I criteri di scadenza per un archivio vettoriale. | No | |
metadata | oggetto | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri. |
No |
listVectorStoresResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
deleteVectorStoreResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Sì | ||
deleted | boolean | Sì | ||
oggetto | string | Sì |
Enumerazione oggetto: DeleteVectorStoreResponseObject
valore | Descrizione |
---|---|
vector_store.deleted | Stato dell'oggetto risposta dell'archivio vettoriale di eliminazione |
vectorStoreFileObject
Elenco di file collegati a un archivio vettoriale.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre vector_store.file . |
Sì | |
usage_bytes | integer | Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale. | Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato il file dell’archivio vettoriale. | Sì | |
vector_store_id | string | ID dell'archivio vettoriale a cui è associato il file. | Sì | |
stato | string | Lo stato del file dell’archivio vettoriale, che può essere in_progress , completed , cancelled o failed . Lo stato di completed indica che il file dell’archivio vettoriale è pronto per l'uso. |
Sì | |
last_error | oggetto | Ultimo errore associato a questo file dell’archivio vettoriale. Sarà null se non ci sono errori. |
Sì | |
chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . Applicabile solo se file_ids non èempty. |
No |
Proprietà per last_error
codice
Nome | Tipo | Descrizione | Default |
---|---|---|---|
codice | string | Uno tra server_error o rate_limit_exceeded . |
messaggio
Nome | Tipo | Descrizione | Default |
---|---|---|---|
messaggio | string | Descrizione leggibile dell'errore. |
Enumerazione oggetto: VectorStoreFileObjectType
valore | Descrizione |
---|---|
vector_store.file |
Enumerazione stato: VectorStoreFileObjectStatus
valore | Descrizione |
---|---|
in_progress | |
completato | |
cancelled | |
failed |
otherChunkingStrategyResponseParam
Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del concetto chunking_strategy
nell'API.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre other . |
Sì |
type Enum: OtherChunkingStrategyResponseParamType
valore | Descrizione |
---|---|
altro |
staticChunkingStrategyResponseParam
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | string | Sempre static . |
Sì | |
static | staticChunkingStrategy | Sì |
type Enum: StaticChunkingStrategyResponseParamType
valore | Descrizione |
---|---|
static |
staticChunkingStrategy
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
max_chunk_size_tokens | integer | Numero massimo di token in ogni blocco. Il valore predefinito è 800 . Il valore minimo è 100 e il valore massimo è 4096 . |
Sì | |
chunk_overlap_tokens | integer | Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400 .Notare che la sovrapposizione non deve superare la metà di max_chunk_size_tokens . |
Sì |
autoChunkingStrategyRequestParam
Strategia predefinita. Attualmente, questa strategia usa un max_chunk_size_tokens
di 800
e chunk_overlap_tokens
di 400
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Sempre auto .Valori possibili: auto |
Sì |
staticChunkingStrategyRequestParam
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
type | enum | Sempre static .Valori possibili: statico |
Sì | |
static | staticChunkingStrategy | Sì |
chunkingStrategyRequestParam
Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto
.
Questo componente può essere uno dei seguenti:
createVectorStoreFileRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_id | string | Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
Sì | |
chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . |
No |
listVectorStoreFilesResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
oggetto | string | Sì | ||
data | array | Sì | ||
first_id | string | Sì | ||
last_id | string | Sì | ||
has_more | boolean | Sì |
deleteVectorStoreFileResponse
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Sì | ||
deleted | boolean | Sì | ||
oggetto | string | Sì |
Enumerazione oggetto: DeleteVectorStoreFileResponseObject
valore | Descrizione |
---|---|
vector_store.file.deleted |
vectorStoreFileBatchObject
Una batch di file collegati a un archivio vettoriale.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Sì | |
oggetto | string | Il tipo di oggetto, che è sempre vector_store.file_batch . |
Sì | |
created_at | integer | Timestamp Unix (in secondi) di quando è stato creato il batch di file dell’archivio vettoriale. | Sì | |
vector_store_id | string | ID dell'archivio vettoriale a cui è associato il file. | Sì | |
stato | string | Lo stato del batch del file dell’archivio vettoriale, che può essere in_progress , completed , cancelled o failed . |
Sì | |
file_counts | oggetto | Sì |
Proprietà per file_counts
in_progress
Nome | Tipo | Descrizione | Default |
---|---|---|---|
in_progress | integer | Il numero di file attualmente in fase di elaborazione. |
completato
Nome | Tipo | Descrizione | Default |
---|---|---|---|
completato | integer | Il numero di file elaborati. |
failed
Nome | Tipo | Descrizione | Default |
---|---|---|---|
failed | integer | Il numero di file per cui l’elaborazione non è riuscita. |
cancelled
Nome | Tipo | Descrizione | Default |
---|---|---|---|
cancelled | integer | Il numero di file che sono stati annullati. |
totale
Nome | Tipo | Descrizione | Default |
---|---|---|---|
totale | integer | Numero totale di file. |
Enumerazione oggetto: VectorStoreFileBatchObjectType
valore | Descrizione |
---|---|
vector_store.files_batch |
Enumerazione stato: VectorStoreFileBatchObjectStatus
valore | Descrizione |
---|---|
in_progress | |
completato | |
cancelled | |
failed |
createVectorStoreFileBatchRequest
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. |
Sì | |
chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto . |
No |
assistantStreamEvent
Rappresenta un evento generato durante lo streaming di un’esecuzione.
Ogni evento in uno streaming di eventi inviati dal server ha una proprietà event
e data
:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Vengono generati eventi ogni volta che viene creato un nuovo oggetto, passa a un nuovo stato o viene trasmesso in parti (delta). Ad esempio, viene generato thread.run.created
quando viene creata una nuova esecuzione, thread.run.completed
al termine di un'esecuzione e così via. Quando un Assistente sceglie di creare un messaggio durante un'esecuzione, viene generato un thread.message.created event
, un evento thread.message.in_progress
, molti eventi thread.message.delta
e infine un evento thread.message.completed
.
È possibile aggiungere altri eventi nel tempo, pertanto è consigliabile gestire correttamente gli eventi sconosciuti nel codice.
Questo componente può essere uno dei seguenti:
threadStreamEvent
Questo componente può essere uno dei seguenti:
thread.created
Viene generato quando viene creata un nuovo thread.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | threadObject | Rappresenta un thread che contiene messaggi. | Sì |
Dati: threadObject
Enumerazione evento: ThreadStreamEventEnum
valore | Descrizione |
---|---|
thread.created | Evento creato dal thread |
runStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.created
Viene generato quando viene creata una nuova esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventCreated
valore | Descrizione |
---|---|
thread.run.created |
thread.run.queued
Occorre quando un’esecuzione si sposta verso uno stato queued
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventQueued
valore | Descrizione |
---|---|
thread.run.queued |
thread.run.in_progress
Occorre quando un’esecuzione si sposta verso uno stato in_progress
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventInProgress
valore | Descrizione |
---|---|
thread.run.in_progress |
thread.run.requires_action
Occorre quando un’esecuzione si sposta verso uno stato requires_action
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventRequiresAction
valore | Descrizione |
---|---|
thread.run.requires_action |
thread.run.completed
Si verifica quando un’esecuzione è completata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventCompleted
valore | Descrizione |
---|---|
thread.run.completed |
thread.run.failed
Si verifica quando un'esecuzione non riesce.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventFailed
valore | Descrizione |
---|---|
thread.run.failed |
thread.run.cancelling
Occorre quando un’esecuzione si sposta verso uno stato cancelling
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventCancelling
valore | Descrizione |
---|---|
thread.run.cancelling |
thread.run.cancelled
Si verifica quando un’esecuzione è annullata.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventCancelled
valore | Descrizione |
---|---|
thread.run.cancelled |
thread.run.expired
Si verifica quando un'esecuzione scade.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runObject | Rappresenta un’esecuzione eseguita in un thread. | Sì |
Dati: runObject
Enumerazione evento: RunStreamEventExpired
valore | Descrizione |
---|---|
thread.run.expired |
runStepStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.step.created
Si verifica quando viene creato un passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventCreated
valore | Descrizione |
---|---|
thread.run.step.created |
thread.run.step.in_progress
Si verifica quando un’esecuzione si sposta verso uno stato in_progress
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventInProgress
valore | Descrizione |
---|---|
thread.run.step.in_progress |
thread.run.step.delta
Si verifica quando vengono trasmessi parti di un passaggio di esecuzione.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepDeltaObject | Rappresenta un delta del messaggio, ad esempio i campi modificati in un passaggio dell’esecuzione durante lo streaming. |
Sì |
Dati: runStepDeltaObject
Enumerazione evento: RunStepStreamEventDelta
valore | Descrizione |
---|---|
thread.run.step.delta |
thread.run.step.completed
Si verifica quando un passaggio dell’esecuzione è completato.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventCompleted
valore | Descrizione |
---|---|
thread.run.step.completed |
thread.run.step.failed
Si verifica quando un passaggio di esecuzione non riesce.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventFailed
valore | Descrizione |
---|---|
thread.run.step.failed |
thread.run.step.cancelled
Si verifica quando un passaggio di esecuzione viene annullato.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventCancelled
valore | Descrizione |
---|---|
thread.run.step.cancelled |
thread.run.step.expired
Si verifica quando un passaggio di esecuzione scade.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Sì |
Dati: runStepObject
Enumerazione evento: RunStepStreamEventExpired
valore | Descrizione |
---|---|
thread.run.step.expired |
messageStreamEvent
Questo componente può essere uno dei seguenti:
thread.message.created
Si verifica quando viene creato un messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | messageObject | Rappresenta un messaggio all'interno di un thread. | Sì |
Dati: messageObject
Enumerazione evento: MessageStreamEventCreated
valore | Descrizione |
---|---|
thread.message.created |
thread.message.in_progress
Si verifica quando un messaggio si sposta verso uno stato in_progress
.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | messageObject | Rappresenta un messaggio all'interno di un thread. | Sì |
Dati: messageObject
Enumerazione evento: MessageStreamEventInProgress
valore | Descrizione |
---|---|
thread.message.in_progress |
thread.message.delta
Si verifica quando vengono trasmessi parti di un messaggio.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | messageDeltaObject | Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming. |
Sì |
Dati: messageDeltaObject
Enumerazione evento: MessageStreamEventDelta
valore | Descrizione |
---|---|
thread.message.delta |
thread.message.completed
Si verifica quando un messaggio viene completato.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | messageObject | Rappresenta un messaggio all'interno di un thread. | Sì |
Dati: messageObject
Enumerazione evento: MessageStreamEventCompleted
valore | Descrizione |
---|---|
thread.message.completed |
thread.message.incomplete
Si verifica al termine di un messaggio prima del completamento.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | messageObject | Rappresenta un messaggio all'interno di un thread. | Sì |
Dati: messageObject
Enumerazione evento: MessageStreamEventIncomplete
valore | Descrizione |
---|---|
thread.message.incomplete |
errorEvent
Si verifica in caso di errore. Ciò può verificarsi a causa di un errore interno del server o di un timeout.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | error | Sì |
Enumerazione evento: ErrorEventEnum
valore | Descrizione |
---|---|
Errore |
doneEvent
Si verifica al termine di uno streaming.
Nome | Tipo | Descrizione | Richiesto | Valore predefinito |
---|---|---|---|---|
evento | string | Sì | ||
data | string | Sì |
Enumerazione evento: DoneEventEnum
valore | Descrizione |
---|---|
Operazione completata |
Enumerazione dati: DoneEventDataEnum
valore | Descrizione |
---|---|
[DONE] |
Passaggi successivi
Informazioni su Modelli e ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano OpenAI di Azure.