Modelli del Servizio OpenAI di Azure
Il servizio Azure OpenAI è basato su un set di modelli diversificato con funzionalità e punti di prezzo diversi. La disponibilità dei modelli varia in base all'area e al cloud. Per la disponibilità del modello di Azure per enti pubblici, fare riferimento al Servizio OpenAI di Azure per enti pubblici.
Modelli | Descrizione |
---|---|
o1 & o1-mini | Modelli di accesso limitato, appositamente progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e capacità. |
GPT-4o & GPT-4o mini & GPT-4 Turbo | I modelli OpenAI più recenti con supporto per Azure con versioni non crittografate, che possono accettare sia testo che immagini come input. |
GPT-4o-Realtime-Preview | Modello GPT-4o che supporta interazioni conversazionali a bassa latenza, "riconoscimento vocale, riconoscimento vocale". |
GPT-4 | Un set di modelli migliore rispetto a GPT-3.5 e in grado di comprendere e generare linguaggio naturale e codice. |
GPT-3.5 | Un set di modelli migliore rispetto a GPT-3 e in grado di comprendere e generare linguaggio naturale e codice. |
Incorporamenti | Un set di modelli in grado di convertire il testo in formato vettoriale numerico per facilitare la similarità del testo. |
DALL-E | Serie di modelli che possono generare immagini originali dal linguaggio naturale. |
Whisper | Serie di modelli in anteprima che possono trascrivere e tradurre la voce in testo. |
Sintesi vocale (anteprima) | Serie di modelli in anteprima in grado di sintetizzare il testo in voce. |
accesso limitato ai modelli o1 e o1
I modelli Azure OpenAI o1
e o1-mini
sono progettati nello specifico per gestire i compiti di problem-solving e ragionamento con attenzione e capacità migliorate. Questi modelli dedicano più tempo all'elaborazione e comprensione delle richieste degli utenti, rafforzando al contempo aree come scienze, codifica e matematica rispetto alle iterazioni precedenti.
Model ID | Descrizione | Richiesta max (token) | Dati di training (fino a) |
---|---|---|---|
o1 (2024-12-17) |
Il modello più idoneo nella serie o1, offrendo capacità di ragionamento avanzate. Richiedere l'accesso: applicazione modello di accesso limitato - Output strutturati - Elaborazione di testo e immagini - Funzioni/Strumenti |
Input: 200.000 Output: 100.000 |
|
o1-preview (2024-09-12) |
Versione di anteprima precedente | Input: 128.000 Output: 32.768 |
Ott. 2023 |
o1-mini (2024-09-12) |
Un'opzione più veloce e più conveniente nella serie o1, ideale per la codifica delle attività che richiedono velocità e un consumo di risorse inferiore. | Input: 128.000 Output: 65.536 |
Ott. 2023 |
Disponibilità
I o1
modelli e o1-mini
sono ora disponibili per l'accesso alle API e la distribuzione del modello. La registrazione è obbligatoria e l'accesso verrà concesso in base ai criteri di idoneità di Microsoft. I clienti che in precedenza hanno applicato e ricevuto l'accesso a o1-preview
, non devono riapplicare perché sono automaticamente presenti nell'elenco di attesa per il modello più recente.
Richiesta di accesso: domanda per il modello con accesso limitato
Dopo aver concesso l'accesso, sarà necessario creare una distribuzione per ogni modello. Se non è attualmente supportata una distribuzione esistente o1-preview
, sarà necessario creare una nuova distribuzione.
Per altre informazioni sui modelli di serie avanzati o1
, vedere Introduzione ai modelli di ragionamento delle serie o1.
Aree di disponibilità
Modello | Paese |
---|---|
o1 |
Stati Uniti orientali 2 (standard globale) Svezia centrale (standard globale) |
o1-preview |
Vedere la tabella dei modelli. |
o1-mini |
Vedere la tabella dei modelli. |
GPT-4o-Realtime-Preview
Il gpt-4o-realtime-preview
modello fa parte della famiglia di modelli GPT-4o e supporta interazioni conversazionali a bassa latenza, "riconoscimento vocale, riconoscimento vocale". L'audio GPT-4o è progettato per gestire interazioni conversazionali in tempo reale e a bassa latenza, rendendolo ideale per agenti di supporto, assistenti, traduttori e altri casi d'uso che necessitano di una risposta elevata con un utente.
L'audio GPT-4o è disponibile nelle aree Stati Uniti orientali 2 (eastus2
) e Svezia centrale (swedencentral
). Per usare l'audio GPT-4o, è necessario creare o usare una risorsa esistente in una delle aree supportate.
Dopo aver creato la risorsa, è possibile distribuire il modello audio GPT-4o. Se si esegue una distribuzione a livello di codice, il nome del modello è gpt-4o-realtime-preview
. Per altre informazioni su come usare l'audio GPT-4o, vedere la documentazione audio GPT-4o.
Nella tabella seguente sono disponibili informazioni dettagliate sui token di richiesta massimi e sui dati di training.
Model ID | Descrizione | Richiesta max (token) | Dati di training (fino a) |
---|---|---|---|
gpt-4o-realtime-preview (10-01-preview 2024) Audio GPT-4o |
Modello audio per l'elaborazione audio in tempo reale | Input: 128.000 Output: 4.096 |
Ott. 2023 |
GPT-4o e GPT-4 Turbo
GPT-4o integra testo e immagini in un singolo modello, consentendo di gestire più tipi di dati contemporaneamente. Questo approccio multidimensionale migliora l'accuratezza e la velocità di risposta nelle interazioni tra computer umani. GPT-4o ha le stesse prestazioni di GPT-4 Turbo in attività con testo e codice in inglese, ma offre prestazioni superiori nelle altre lingue e nelle attività di visione, impostando nuovi benchmark per le funzionalità di intelligenza artificiale.
Come si accede ai mini modelli GPT-4o e GPT-4o?
GPT-4o e GPT-4o mini sono disponibili per la distribuzione di modelli standard e standard-globali.
È necessario creare o usare una risorsa esistente in un standard supportato o l'area standard globale in cui è disponibile il modello.
Dopo aver creato la risorsa, è possibile distribuire i modelli GPT-4o. Se si esegue una distribuzione a livello di codice, i nomi dei modelli sono:
gpt-4o
Versione2024-11-20
gpt-4o
Versione2024-08-06
gpt-4o
Versione2024-05-13
gpt-4o-mini
Versione2024-07-18
GPT-4 Turbo
GPT-4 Turbo è un modello bidirezionale di grandi dimensioni (accetta cioè input di testo o immagine e genera testo) in grado di risolvere problemi difficili con maggiore accuratezza rispetto ai modelli precedenti di OpenAI. Come GPT-3.5 Turbo e i modelli GPT-4 precedenti, GPT-4 Turbo è ottimizzato per la chat e funziona bene per le attività di completamento tradizionali.
La versione con disponibilità generale più recente di GPT-4 Turbo è:
gpt-4
Versione:turbo-2024-04-09
Questa è la sostituzione per i modelli di anteprima seguenti:
gpt-4
Versione:1106-Preview
gpt-4
Versione:0125-Preview
gpt-4
Versione:vision-preview
Differenze tra i modelli OpenAI e Azure OpenAI GPT-4 Turbo GA
- La versione di OpenAI del modello turbo
0409
più recente supporta la modalità JSON e la chiamata di funzione per tutte le richieste di inferenza. - La versione di OpenAI di Azure dell'ultima
turbo-2024-04-09
attualmente non supporta l'uso della modalità JSON e della chiamata di funzione quando si effettuano richieste di inferenza con input di immagine (visione). Le richieste di input basate su testo (richieste senzaimage_url
e immagini inline) supportano la modalità JSON e le chiamate di funzione.
Differenze rispetto a gpt-4 vision-preview
- L'integrazione dei miglioramenti specifici di Visione di Azure per intelligenza artificiale con GPT-4 Turbo con Visione non è supportata per la
gpt-4
Versione:turbo-2024-04-09
. Sono inclusi il riconoscimento ottico dei caratteri (OCR), il grounding degli oggetti, le richieste video e una migliore gestione dei dati con le immagini.
Importante
Le funzionalità di anteprima dei miglioramenti della visione, tra cui riconoscimento ottico dei caratteri (OCR), grounding di oggetti e le richieste video, verranno ritirate e non saranno più disponibili dopo l'aggiornamento di gpt-4
Versione: vision-preview
a turbo-2024-04-09
. Se attualmente si fa affidamento su una di queste funzionalità di anteprima, questo aggiornamento automatico del modello sarà una modifica che causa un'interruzione.
Disponibilità gestita con provisioning di GPT-4 Turbo
gpt-4
Versione:turbo-2024-04-09
è disponibile sia per le distribuzioni standard che per le distribuzioni con provisioning. Attualmente la versione con provisioning di questo modello non supporta le richieste di inferenza di immagini/visione. Le distribuzioni con provisioning di questo modello accettano solo input di testo. Le distribuzioni di modelli standard accettano richieste di inferenza di testo e immagine/visione.
Distribuzione della disponibilità generale di GPT-4 Turbo con Visione
Per distribuire il modello di disponibilità generale dal portale di Azure AI Foundry, selezionare GPT-4
e quindi scegliere la turbo-2024-04-09
versione dal menu a discesa. La quota predefinita per il modello di gpt-4-turbo-2024-04-09
corrisponderà alla quota corrente per GPT-4-Turbo. Vedere i limiti di quota a livello di area.
GPT-4
GPT-4 è il predecessore di GPT-4 Turbo. Entrambi i modelli GPT-4 e GPT-4 Turbo hanno un nome di modello di base gpt-4
. È possibile distinguere tra i modelli GPT-4 e Turbo esaminando la versione del modello.
gpt-4
Versione0314
gpt-4
Versione0613
gpt-4-32k
Versione0613
È possibile visualizzare la lunghezza del contesto del token supportata da ogni modello nella tabella di riepilogo del modello.
Modelli GPT-4 e GPT-4 Turbo
- Questi modelli possono essere usati solo con l'API Chat Completion.
Vedere Versioni del modello per informazioni su come il Servizio OpenAI di Azure gestisce gli aggiornamenti delle versioni del modello e Uso dei modelli per informazioni su come visualizzare e configurare le impostazioni della versione del modello delle distribuzioni GPT-4.
Model ID | Descrizione | Richiesta max (token) | Dati di training (fino a) |
---|---|---|---|
gpt-4o (2024-11-20) GPT-4o (Omni) |
Modello GA di grandi dimensioni più recente - Output strutturati - Elaborazione di testo e immagini - Modalità JSON - chiamata di funzioni parallele - Maggiore precisione e velocità di risposta - Parità con il testo inglese e le attività di codifica rispetto a GPT-4 Turbo con Visione - Prestazioni superiori nelle lingue non inglesi e nelle attività di visione. - Miglioramento della capacità di scrittura creativa |
Input: 128.000 Output: 16,384 |
Ott. 2023 |
gpt-4o (2024-08-06) GPT-4o (Omni) |
- Output strutturati - Elaborazione di testo e immagini - Modalità JSON - chiamata di funzioni parallele - Maggiore precisione e velocità di risposta - Parità con il testo inglese e le attività di codifica rispetto a GPT-4 Turbo con Visione - Prestazioni superiori nelle lingue diverse dall'inglese e nelle attività di visione |
Input: 128.000 Output: 16,384 |
Ott. 2023 |
gpt-4o-mini (2024-07-18) GPT-4o mini |
Modello GA di piccole dimensioni più recente - Modello veloce, economico e in grado di supportare la sostituzione dei modelli della serie GPT-3.5 Turbo. - Elaborazione di testo e immagini - Modalità JSON - chiamata di funzioni parallele |
Input: 128.000 Output: 16,384 |
Ott. 2023 |
gpt-4o (2024-05-13) GPT-4o (Omni) |
Testo, elaborazione di immagini - Modalità JSON - chiamata di funzioni parallele - Maggiore precisione e velocità di risposta - Parità con il testo inglese e le attività di codifica rispetto a GPT-4 Turbo con Visione - Prestazioni superiori nelle lingue diverse dall'inglese e nelle attività di visione |
Input: 128.000 Output: 4.096 |
Ott. 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo con Visione |
Nuovo modello di disponibilità generale - Sostituzione di tutti i modelli di anteprima GPT-4 precedenti ( vision-preview , 1106-Preview , 0125-Preview ). - La disponibilità delle funzionalità è attualmente diversa a seconda del metodo di input e del tipo di distribuzione. |
Input: 128.000 Output: 4.096 |
Dic. 2023 |
gpt-4 (0125-Anteprima)*Anteprima di GPT-4 Turbo |
Modello di anteprima -Sostituisce 1106-Anteprima - Prestazioni migliori per la generazione di codice - Riduce i casi in cui il modello non completa un'attività - Modalità JSON - chiamata di funzioni parallele - output riproducibile (anteprima) |
Input: 128.000 Output: 4.096 |
Dic. 2023 |
gpt-4 (vision-preview)Anteprima di GPT-4 Turbo con Visione |
Modello di anteprima - Accetta input di testo e immagine. - Supporta i miglioramenti - Modalità JSON - chiamata di funzioni parallele - output riproducibile (anteprima) |
Input: 128.000 Output: 4.096 |
Apr. 2023 |
gpt-4 (1106-Preview)Anteprima di GPT-4 Turbo |
Modello di anteprima - Modalità JSON - chiamata di funzioni parallele - output riproducibile (anteprima) |
Input: 128.000 Output: 4.096 |
Apr. 2023 |
gpt-4-32k (0613) |
Modello di disponibilità generale meno recente - Chiamata di funzioni di base con strumenti |
32.768 | Settembre 2021 |
gpt-4 (0613) |
Modello di disponibilità generale meno recente - Chiamata di funzioni di base con strumenti |
8,192 | Settembre 2021 |
gpt-4-32k (0314) |
Modello di disponibilità generale meno recente - Informazioni sul ritiro |
32.768 | Settembre 2021 |
gpt-4 (0314) |
Modello di disponibilità generale meno recente - Informazioni sul ritiro |
8,192 | Settembre 2021 |
Attenzione
Non è consigliabile usare modelli in anteprima nell'ambiente di produzione. Tutte le distribuzioni dei modelli di anteprima verranno aggiornate a versioni di anteprima future o alla versione disponibile a livello generale stabile più recente. I modelli designati in anteprima non seguono il ciclo di vita standard del modello OpenAI di Azure.
- GPT-4 versione 0125-preview è una versione aggiornata dell'anteprima GPT-4 Turbo rilasciata in precedenza come versione 1106-preview.
- GPT-4 versione 0125-preview completa attività come la generazione di codice in modo più completo rispetto a gpt-4-1106-preview. Per questo motivo, a seconda dell'attività, i clienti potrebbero scoprire che GPT-4-0125-preview genera più output rispetto a gpt-4-1106-preview. È consigliabile che i clienti confrontino gli output del nuovo modello. GPT-4-0125-preview risolve anche dei bug in gpt-4-1106-preview con la gestione UTF-8 per lingue non inglesi.
- La versione GPT-4
turbo-2024-04-09
è la versione con disponibilità generale più recente e sostituisce0125-Preview
,1106-preview
evision-preview
.
Importante
Le versioni 1106-Preview
GPT-4 (gpt-4
) , 0125-Preview
e vision-preview
verranno aggiornate con una versione stabile di gpt-4
in futuro.
- Le distribuzioni di
gpt-4
versioni1106-Preview
,0125-Preview
evision-preview
impostate su "Aggiornamento automatico per impostazione predefinita" e "Aggiorna alla scadenza" inizieranno a essere aggiornate dopo il rilascio della versione stabile. Per ogni distribuzione, viene eseguito un aggiornamento della versione del modello senza interruzioni nel servizio per le chiamate API. Gli aggiornamenti vengono gestiti in base all'area e il processo di aggiornamento completo richiederà 2 settimane. - Le distribuzioni di
gpt-4
versioni1106-Preview
,0125-Preview
evision-preview
impostate su "Nessun aggiornamento automatico" non verranno aggiornate e smetteranno di funzionare quando la versione di anteprima viene aggiornata nell'area. Per altre informazioni sulla tempistica dell'aggiornamento, vedere Ritiri e deprecazione del modello OpenAI di Azure .
GPT-3.5
I modelli GPT-3.5 possono comprendere e generare codice o linguaggio naturale. Il modello più efficiente e conveniente in termini di costi della famiglia GPT-3.5 è GPT-3.5 Turbo, ottimizzato per la chat e in grado di funzionare bene anche per le attività di completamento tradizionali. GPT-3.5 Turbo è disponibile per l'uso con l'API Completamento chat. GPT-3.5 Turbo Instruct offre funzionalità simili a text-davinci-003
usando l'API Completamenti anziché l'API Completamento chat. È consigliabile usare i modelli GPT-3.5 Turbo e GPT-3.5 Turbo Instruct rispetto ai modelli GPT-3.5 e GPT-3.5 legacy.
Model ID | Descrizione | Richiesta max (token) | Dati di training (fino a) |
---|---|---|---|
gpt-35-turbo (0125) NEW |
Modello di disponibilità generale più recente - Modalità JSON - chiamata di funzioni parallele - output riproducibile (anteprima) - Maggiore accuratezza nella risposta nei formati richiesti. - Correzione di un bug che causava un problema di codifica del testo per le chiamate di funzione non in lingua inglese. |
Input: 16.385 Output: 4.096 |
Settembre 2021 |
gpt-35-turbo (1106) |
Modello di disponibilità generale meno recente - Modalità JSON - chiamata di funzioni parallele - output riproducibile (anteprima) |
Input: 16.385 Output: 4.096 |
Settembre 2021 |
gpt-35-turbo-instruct (0914) |
Solo endpoint di completamenti - Sostituzione dei modelli di completamenti legacy |
4.097 | Settembre 2021 |
gpt-35-turbo-16k (0613) |
Modello di disponibilità generale meno recente - Chiamata di funzioni di base con strumenti |
16,384 | Settembre 2021 |
gpt-35-turbo (0613) |
Modello di disponibilità generale meno recente - Chiamata di funzioni di base con strumenti |
4.096 | Settembre 2021 |
gpt-35-turbo 1 (0301) |
Modello di disponibilità generale meno recente - Informazioni sul ritiro |
4.096 | Settembre 2021 |
Per altre informazioni su come interagire con GPT-3.5 Turbo e l'API Chat Completions, vedere le procedure dettagliate.
1 Questo modello accetterà richieste > 4.096 token. Non è consigliabile superare il limite di 4.096 token di input perché la versione più recente del modello è limitata a 4.096 token. Se si verificano problemi quando si superano 4.096 token di input con questo modello, questa configurazione non è ufficialmente supportata.
Incorporamenti
text-embedding-3-large
è il modello di incorporamento più recente e più idoneo. L'aggiornamento tra modelli di incorporamento non è possibile. Per passare dall'uso di text-embedding-ada-002
a text-embedding-3-large
è necessario generare nuovi incorporamenti.
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002
Nei test, OpenAI segnala che sia i modelli di incorporamenti di terze dimensioni che quelli di terza generazione offrono prestazioni migliori per il recupero in più lingue con il benchmark MIRACL, mantenendo al tempo stesso prestazioni ottime per le attività in inglese con il benchmark MTEB.
Benchmark di valutazione | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
---|---|---|---|
Media MIRACL | 31.4 | 44.0 | 54.9 |
Media MTEB | 61.0 | 62,3 | 64.6 |
I modelli di incorporamento di terza generazione supportano la riduzione delle dimensioni dell'incorporamento tramite un nuovo parametro dimensions
. In genere, gli incorporamenti di dimensioni maggiori sono più costosi dal punto di vista di calcolo, memoria e archiviazione. La possibilità di regolare il numero di dimensioni consente un maggiore controllo sui costi e sulle prestazioni complessivi. Il parametro dimensions
non è supportato in tutte le versioni della libreria Python OpenAI 1.x, per sfruttare questo parametro, è consigliabile eseguire l'aggiornamento alla versione più recente: pip install openai --upgrade
.
Il test di benchmark MTEB di OpenAI ha rilevato che anche quando le dimensioni del modello di terza generazione sono ridotte a meno di text-embeddings-ada-002
1.536 dimensioni le prestazioni rimangono leggermente migliori.
DALL-E
I modelli DALL-E generano immagini dai prompt di testo forniti dall'utente. DALL-E 3 è disponibile a livello generale per l'uso con le API REST. DALL-E 2 e DALL-E 3 con SDK client sono in anteprima.
Whisper
I modelli Whisper possono essere usati per il riconoscimento vocale.
È anche possibile usare il modello Whisper tramite l'API trascrizione batch di Voce di Azure AI. Per altre informazioni sull'uso di Riconoscimento vocale per Voce di Azure AI, vedere Che cos'è il modello Whisper? Servizio OpenAI di Azure.
Sintesi vocale (anteprima)
I modelli OpenAI di sintesi vocale, attualmente in anteprima, possono essere usati per sintetizzare il testo in voce.
È anche possibile usare il testo OpenAI per le voci della sintesi vocale tramite Voce di Azure AI. Per altre informazioni, vedere la guida Voci di sintesi vocale di OpenAI via Servizio OpenAI di Azure o via Voce di Azure AI.
Tabella di riepilogo dei modelli e disponibilità dell'area
Modelli per tipo di distribuzione
OpenAI di Azure offre ai clienti opzioni per la struttura di hosting che si adattano ai criteri di business e di utilizzo. Il servizio offre due tipi principali di distribuzione:
- Standard è disponibile con un'opzione di distribuzione globale, instradando il traffico a livello globale per offrire una velocità effettiva più elevata.
- Il provisioning è disponibile anche con un'opzione di distribuzione globale che consente ai clienti di acquistare e distribuire unità elaborate con provisioning nell'infrastruttura globale di Azure.
Tutte le distribuzioni possono eseguire esattamente le stesse operazioni di inferenza, ma la fatturazione, la scalabilità e le prestazioni sono sostanzialmente diverse. Per altre informazioni sui tipi di distribuzione OpenAI di Azure, vedere la guida ai tipi di distribuzione.
- Standard globale
- Gestito con provisioning globale
- Batch globale
- Data Zone Standard
- Area dati con provisioning gestito
- Standard
- Provisioning gestito
Disponibilità del modello standard globale
Area | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o, 2024-11-20 | gpt-4o-mini, 2024-07-18 | gpt-4o-realtime-preview, 2024-10-01 | gpt-4, turbo-2024-04-09 |
---|---|---|---|---|---|---|---|---|
australiaeast | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
brazilsouth | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
canadaeast | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
francecentral | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
germanywestcentral | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
japaneast | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
koreacentral | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
norwayeast | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
polandcentral | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
southafricanorth | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
Stati Uniti centro-meridionali | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
southindia | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
spaincentral | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
Svezia centrale | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
Svizzera settentrionale | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
uaenorth | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
uksouth | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
westeurope | - | - | ✅ | ✅ | - | ✅ | - | ✅ |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
Questa tabella non include informazioni sulla disponibilità a livello di area. Per queste informazioni, vedere la sezione relativa all'ottimizzazione.
Modelli standard per endpoint
Completamenti della chat
Area | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Preview | gpt-4, 0125-Preview | gpt-4, vision-preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0301 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | - | - | - | - | - | ✅ | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
canadaeast | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
francecentral | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | - | ✅ |
japaneast | - | - | - | - | - | - | - | - | ✅ | - | - | - | ✅ | - | ✅ | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
norwayeast | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | - | - | - |
Stati Uniti centro-meridionali | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ | - |
southindia | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | ✅ | ✅ | - |
Svezia centrale | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
Svizzera settentrionale | - | - | - | - | - | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ |
uksouth | - | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | ✅ |
westeurope | - | - | - | - | - | - | - | - | - | - | - | ✅ | - | - | - | - |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | ✅ | ✅ | - | - | - | ✅ | ✅ | - |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | - | - | ✅ | - |
Disponibilità dei modelli GPT-4 e GPT-4 Turbo
Selezionare l'accesso al cliente
Oltre alle aree precedenti, disponibili per tutti i clienti OpenAI di Azure, è stato concesso ad alcuni clienti preesistenti l'accesso alle versioni di GPT-4 in aree aggiuntive:
Modello | Paese |
---|---|
gpt-4 (0314) gpt-4-32k (0314) |
Stati Uniti orientali Francia centrale Stati Uniti centro-meridionali Regno Unito meridionale |
gpt-4 (0613) gpt-4-32k (0613) |
Stati Uniti orientali Stati Uniti orientali 2 Giappone orientale Regno Unito meridionale |
Modelli GPT-3.5
Vedere Versioni del modello per informazioni su come il Servizio OpenAI di Azure gestisce gli aggiornamenti delle versioni del modello e Uso dei modelli per informazioni su come visualizzare e configurare le impostazioni della versione del modello delle distribuzioni GPT-3.5.
Ottimizzazione dei modelli
Nota
gpt-35-turbo
- L'ottimizzazione di questo modello è limitata a un subset di aree e non è disponibile in ogni area in cui è disponibile il modello di base.
Le aree supportate per l'ottimizzazione possono variare se si usano modelli OpenAI di Azure in un progetto di Azure AI Foundry rispetto all'esterno di un progetto.
Model ID | Fine-tuning delle aree | Richiesta max (token) | Dati di training (fino a) |
---|---|---|---|
babbage-002 |
Stati Uniti centro-settentrionali Svezia centrale Svizzera occidentale |
16,384 | Settembre 2021 |
davinci-002 |
Stati Uniti centro-settentrionali Svezia centrale Svizzera occidentale |
16,384 | Settembre 2021 |
gpt-35-turbo (0613) |
Stati Uniti Orientali 2 Stati Uniti centro-settentrionali Svezia centrale Svizzera occidentale |
4.096 | Settembre 2021 |
gpt-35-turbo (1106) |
Stati Uniti Orientali 2 Stati Uniti centro-settentrionali Svezia centrale Svizzera occidentale |
Input: 16.385 Output: 4.096 |
Settembre 2021 |
gpt-35-turbo (0125) |
Stati Uniti Orientali 2 Stati Uniti centro-settentrionali Svezia centrale Svizzera occidentale |
16.385 | Settembre 2021 |
gpt-4 (0613) 1 |
Stati Uniti centro-settentrionali Svezia centrale |
8192 | Settembre 2021 |
gpt-4o-mini (2024-07-18) |
Stati Uniti centro-settentrionali Svezia centrale |
Input: 128.000 Output: 16,384 Lunghezza del contesto di esempio di training: 64.536 |
Ott. 2023 |
gpt-4o (2024-08-06) |
Stati Uniti Orientali 2 Stati Uniti centro-settentrionali Svezia centrale |
Input: 128.000 Output: 16,384 Lunghezza del contesto di esempio di training: 64.536 |
Ott. 2023 |
1 GPT-4 è attualmente disponibile in anteprima pubblica.
Assistenti (anteprima)
Per gli assistenti è necessaria la combinazione di un modello supportato e di un'area supportata. Alcuni strumenti e funzionalità richiedono i modelli più recenti. I modelli seguenti sono disponibili nell'API Assistants, nell'SDK e in Azure AI Foundry. La tabella seguente è relativa al pagamento in base al consumo. Per informazioni sulla disponibilità di unità elaborate con provisioning (PTU), vedere Velocità effettiva con provisioning. I modelli e le aree elencati possono essere usati con Assistenti v1 e v2. È possibile usare i modelli standard globali se sono supportati nelle aree elencate di seguito.
Paese | gpt-35-turbo (0613) |
gpt-35-turbo (1106) |
fine tuned gpt-3.5-turbo-0125 |
gpt-4 (0613) |
gpt-4 (1106) |
gpt-4 (0125) |
gpt-4o (2024-05-13) |
gpt-4o-mini (2024-07-18) |
---|---|---|---|---|---|---|---|---|
Australia orientale | ✅ | ✅ | ✅ | ✅ | ||||
Stati Uniti orientali | ✅ | ✅ | ✅ | ✅ | ||||
Stati Uniti orientali 2 | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Francia centrale | ✅ | ✅ | ✅ | ✅ | ||||
Giappone orientale | ✅ | |||||||
Norvegia orientale | ✅ | |||||||
Svezia centrale | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Regno Unito meridionale | ✅ | ✅ | ✅ | ✅ | ||||
Stati Uniti occidentali | ✅ | ✅ | ✅ | |||||
Stati Uniti occidentali 3 | ✅ | ✅ |
Ritiro del modello
Per le informazioni più recenti sui ritiri dei modelli, vedere la guida al ritiro del modello.