Condividi tramite


Che cos'è il Servizio OpenAI di Azure?

Il servizio OpenAI di Azure fornisce l'accesso all'API REST ai potenti modelli linguistici di OpenAI, tra cui o1, o1-mini, GPT-4o mini, GPT-4 Turbo con Vision, GPT-4, GPT-3.5-Turbo e serie di modelli di incorporamento. Questi modelli possono essere facilmente adattati alle attività specifiche, tra cui, a titolo esemplificativo, la generazione di contenuti, il riepilogo, la comprensione delle immagini, la ricerca semantica e la traduzione dal linguaggio naturale al codice. Gli utenti possono accedere al servizio tramite API REST, Python SDK o in Azure AI Foundry.

Panoramica delle funzionalità

Funzionalità OpenAI di Azure
Modelli disponibili o1 & o1-mini - (Accesso limitato - Richiesta di accesso)
GPT-4o & GPT-4o mini
Serie GPT-4 (incluso GPT-4 Turbo con Visione)
Serie GPT-3.5-Turbo
Serie Embeddings
Per altre informazioni, vedere la pagina Modelli.
Ottimizzazione GPT-4o-mini (anteprima)
GPT-4 (anteprima)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Price Disponibili qui
Per informazioni dettagliate sui modelli di chat abilitati per la visione, vedere le informazioni speciali sui prezzi.
Supporto rete virtuale e supporto collegamento privato Sì.
Identità gestita Sì, tramite Microsoft Entra ID
Esperienza dell'interfaccia utente Portale di Azure per la gestione delle risorse e dell'account,
Azure AI Foundry per l'esplorazione e l'ottimizzazione dei modelli
Disponibilità dei modelli a livello di area Disponibilità dei modelli
Filtri dei contenuti Le richieste e i completamenti vengono valutati in base ai criteri di contenuto con sistemi automatizzati. Il contenuto con gravità elevata viene filtrato.

Intelligenza artificiale responsabile

Microsoft si impegna costantemente a migliorare l'IA basandosi su principi che pongano al primo posto le persone. I modelli generativi come quelli disponibili in Azure OpenAI hanno notevoli vantaggi potenziali, ma senza un'attenta progettazione e una ponderata mitigazione, tali modelli rischiano di generare contenuti errati o addirittura dannosi. Microsoft ha effettuato investimenti significativi per evitare abusi e danni imprevisti, che includono l'incorporamento dei principi per l'uso dell'intelligenza artificiale responsabile di Microsoft, l'adozione di un codice di comportamento per l'uso del servizio, la creazione di filtri del contenuto per supportare i clienti e la fornitura di informazioni e materiale sussidiario per l’intelligenza artificiale responsabile che i clienti devono prendere in considerazione quando usano Azure OpenAI.

Introduzione al Servizio OpenAI di Azure

Per iniziare a usare il servizio Azure OpenAI, è necessario creare una risorsa del servizio Azure OpenAI nella sottoscrizione di Azure.

Iniziare con la guida Creare e distribuire una risorsa del servizio OpenAI di Azure.

  1. È possibile creare una risorsa tramite portale di Azure, interfaccia della riga di comando di Azure o Azure PowerShell.

  2. Quando si dispone di una risorsa del servizio OpenAI di Azure, è possibile distribuire un modello come GPT-4o.

  3. Dopo aver distribuito un modello, è possibile:

    • Provare i playground del portale di Azure AI Foundry per esplorare le funzionalità dei modelli.
    • È anche possibile iniziare a effettuare chiamate API al servizio usando l'API REST o gli SDK.

    Ad esempio, è possibile provare audio e assistenti in tempo reale nei playground o tramite codice.

Nota

Per accedere ad alcuni modelli o funzionalità del servizio Azure OpenAI, è necessario un modulo di registrazione con accesso limitato. Per altre informazioni, vedere la pagina accesso limitato di Azure OpenAI.

Confronto tra OpenAI di Azure e OpenAI

Il Servizio OpenAI di Azure offre ai clienti un'intelligenza artificiale linguistica avanzata con i modelli OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e i modelli di sintesi vocale con la sicurezza e l'impegno aziendale di Azure. Azure OpenAI sviluppa le API con OpenAI, garantendo la compatibilità e una transizione uniforme dall'uno all'altro.

Con OpenAI di Azure i clienti accedono alle funzionalità di sicurezza di Microsoft Azure eseguendo gli stessi modelli di OpenAI. Azure OpenAI offre funzionalità di rete privata, disponibilità a livello di area e filtro dei contenuti di intelligenza artificiale responsabile.

Concetti chiave

Prompt e completamento

L'endpoint di completamento è il componente principale del servizio API. Questa API fornisce l'accesso all'interfaccia "testo in ingresso e testo in uscita" del modello. Gli utenti devono semplicemente fornire un prompt di input contenente il comando di testo inglese e il modello genererà un completamento del testo.

Di seguito è riportato l’esempio di un semplice prompt con completamento:

Prompt: """ count to 5 in a for loop """

Completamento: for i in range(1, 6): print(i)

OAuth

Token di testo

Azure OpenAI elabora il testo suddividendolo in token. I token possono essere parole o blocchi di caratteri. Ad esempio, la parola "hamburger" viene suddivisa nei token "ham", "bur" e "ger", mentre una parola breve e comune come "pear" è un singolo token. Molti token iniziano con uno spazio vuoto, ad esempio " hello" e " bye".

Il numero totale di token elaborati in una determinata richiesta dipende dalla lunghezza dei parametri di input, output e richiesta. La quantità di token elaborati influirà anche sulla latenza della risposta e sulla velocità effettiva per i modelli.

Token di immagine

Le funzionalità di elaborazione delle immagini di Azure OpenAI con GPT-4o, GPT-4o mini e GPT-4 Turbo con Vision usano la tokenizzazione delle immagini per determinare il numero totale di token utilizzati dagli input dell'immagine. Il numero di token utilizzati viene calcolato in base a due fattori principali: il livello di dettaglio dell'immagine (basso o alto) e le dimensioni dell'immagine. Ecco come vengono calcolati i costi dei token:

  • Modalità a bassa risoluzione
    • Dettagli ridotti consente all'API di restituire risposte più veloci per scenari che non richiedono un'analisi ad alta risoluzione delle immagini. I token utilizzati per le immagini con dettaglio ridotto sono:
      • GPT-4o e GPT-4 Turbo con Vision: frequenza flat di 85 token per immagine, indipendentemente dalle dimensioni.
      • GPT-4o mini: tariffa fissa di 2833 token per immagine, indipendentemente dalle dimensioni.
    • Esempio: immagine 4096 x 8192 (dettaglio basso): il costo è un token fisso di 85 token con GPT-4o, perché si tratta di un'immagine di dettaglio bassa e le dimensioni non influiscono sul costo in questa modalità.
  • Modalità ad alta risoluzione
    • Dettagli elevati consente all'API di analizzare le immagini in modo più dettagliato. I token di immagine vengono calcolati in base alle dimensioni dell'immagine. Il calcolo prevede i passaggi seguenti:
      1. Ridimensionamento dell'immagine: l'immagine viene ridimensionata per adattarsi a un quadrato di 2048 x 2048 pixel. Se il lato più breve è maggiore di 768 pixel, l'immagine viene ridimensionata ulteriormente in modo che il lato più breve sia lungo 768 pixel. Le proporzioni sono mantenute durante il ridimensionamento.
      2. Calcolo dei riquadri: una volta ridimensionata, l'immagine è suddivisa in riquadri da 512 x 512 pixel. Tutti i riquadri parziali vengono arrotondati a un riquadro completo. Il numero di riquadri determina il costo totale del token.
      3. Calcolo del token:
        • GPT-4o e GPT-4 Turbo con Visione: ogni riquadro da 512 x 512 pixel costa 170 token. Al totale vengono aggiunti altri 85 token di base.
        • GPT-4o mini: ogni riquadro da 512 x 512 pixel costa 5667 token. Al totale vengono aggiunti altri 2833 token di base.
    • Esempio: 2048 x 4096 immagine (dettaglio elevato):
      1. L'immagine viene inizialmente ridimensionata a 1024 x 2048 pixel per adattarla al quadrato 2048 x 2048 pixel.
      2. L'immagine viene ridimensionata ulteriormente a 768 x 1536 pixel per garantire che il lato più breve sia un massimo di 768 pixel di lunghezza.
      3. L'immagine è divisa in 2 x 3 riquadri, ogni 512 x 512 pixel.
      4. Calcolo finale:
        • Per GPT-4o e GPT-4 Turbo con Vision, il costo totale dei token è di 6 riquadri x 170 token per riquadro + 85 token di base = 1105 token.
        • Per GPT-4o mini, il costo totale del token è di 6 riquadri x 5667 token per riquadro + 2833 token di base = 36835 token.

Risorse

Azure OpenAI è una nuova offerta di prodotti in Azure. È possibile iniziare a usare Azure OpenAI così come si inizia a usare qualsiasi altro prodotto Azure per cui si crea una risorsa o un'istanza del servizio nella sottoscrizione di Azure. Sono disponibili altre informazioni sulla progettazione della gestione delle risorse di Azure.

Deployments

Dopo aver creato una risorsa OpenAI di Azure, è necessario distribuire un modello prima di iniziare a effettuare chiamate API e generare testo. Questa azione può essere eseguita usando le API di distribuzione. Queste API consentono di specificare il modello che si vuole usare.

Progettazione dei prompt

I modelli GPT-3, GPT-3.5 e GPT-4 di OpenAI sono basati su prompt. Con tali modelli basati su prompt, l'utente interagisce con il modello immettendo una richiesta di testo, a cui il modello risponde con un completamento del testo. Questo completamento è la continuazione del modello del testo di input.

Anche se questi modelli sono potenti, il loro comportamento è anche sensibile alla richiesta. Ciò rende la progettazione dei prompt un'importante competenza da sviluppare.

La costruzione di richieste può essere difficile. In pratica, il prompt agisce per configurare i pesi del modello per completare l'attività desiderata, ma è più un'arte che una scienza, dato che spesso richiede esperienza e intuizione per creare una richiesta di successo.

Modelli

Il servizio fornisce agli utenti l'accesso a diversi modelli. Ogni modello offre una funzionalità e un prezzo diversi.

I modelli DALL-E (alcuni disponibili in anteprima; vedere modelli), generano immagini dai prompt di testo forniti dall'utente.

I modelli Whisper possono essere usati per trascrivere e tradurre il parlato in testo.

I modelli di sintesi vocale, attualmente in anteprima, possono essere usati per sintetizzare il testo in voce.

Altre informazioni su ogni modello sono disponibili nella pagina concettuale sui modelli.

Passaggi successivi

Altre informazioni sui modelli sottostanti che alimentano OpenAI di Azure.