Partager via


Qu’est-ce qu’Azure OpenAI Service ?

Azure OpenAI Service fournit un accès à l’API REST aux modèles de langage puissants d’OpenAI, notamment o1, o1-mini, GPT-4o mini, GPT-4 Turbo avec Vision, GPT-4, GPT-4, GPT-3.5-Turbo et les séries de modèles Embeddings. Ces modèles peuvent être facilement adaptés à des tâches spécifiques, comme la génération de contenu, le résumé, la compréhension d’images, la recherche sémantique, le langage naturel et la traduction de code, entre autres. Les utilisateurs peuvent accéder au service via des API REST, du Kit de développement logiciel (SDK) Python ou d’Azure AI Foundry.

Présentation des fonctionnalités

Fonctionnalité Azure OpenAI
Modèles disponibles o1 & o1-mini - (Accès limité - Demander l’accès)
GPT-4o et GPT-4o mini
Série GPT-4 (y compris GPT-4 Turbo avec Vision)
Série GPT-3.5-Turbo
Série d’incorporations
Pour en savoir plus, consultez notre page Modèles.
Optimisation GPT-4o-mini (préversion)
GPT-4 (préversion)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Price Disponible ici
Pour plus d’informations sur les modèles de conversation compatibles avec la vision, consultez les informations de tarification spéciales.
Prise en charge des réseaux virtuels et prise en charge des liaisons privées Oui.
Identité managée Oui, par le biais de Microsoft Entra ID
Expérience d’interface utilisateur Portail Azure pour la gestion des comptes et des ressources,
Azure AI Foundry pour l’exploration et l’ajustement des modèles
Disponibilité régionale du modèle Disponibilité du modèle
Filtrage du contenu Les invites et les complétions sont évaluées par rapport à notre stratégie de contenu avec des systèmes automatisés. Le contenu de gravité élevée est filtré.

IA responsable

Chez Microsoft, nous avons engagé une démarche d’amélioration de l’intelligence artificielle (l’IA) basée sur des principes qui placent les utilisateurs au centre de nos préoccupations. Les modèles générateurs tels que ceux disponibles dans Azure OpenAI Service présentent des avantages potentiels significatifs, mais sans une conception minutieuse et des atténuations réfléchies, ces modèles peuvent aussi générer du contenu incorrect voire dangereux. Microsoft a fait de gros efforts pour renforcer la protection contre les abus et les préjudices non intentionnels, ce qui inclut l’intégration des principes de Microsoft pour une utilisation responsable de l’IA, l’adoption d’un code de conduite pour l’utilisation du service, la création de filtres de contenu pour aider les clients, et la fourniture d’informations et de conseils que les clients doivent prendre en compte lors de l’utilisation d’Azure OpenAI.

Démarrer avec Azure OpenAI Service

Pour commencer à utiliser Azure OpenAI Service, vous devez créer une ressource Azure OpenAI Service dans votre abonnement Azure.

Commencez par consulter le guide de ressources Créer et déployer un service Azure OpenAI.

  1. Vous pouvez créer une ressource via le portail Azure, Azure CLI ou Azure PowerShell.

  2. Lorsque vous disposez d’une ressource Azure OpenAI Service, vous pouvez déployer un modèle tel que GPT-4o.

  3. Lorsque vous avez un modèle déployé, vous pouvez :

    • Essayez les terrains de jeux du portail Azure AI Foundry pour explorer les fonctionnalités des modèles.
    • Vous pouvez également commencer à effectuer des appels d’API au service à l’aide de l’API REST ou des kits SDK.

    Par exemple, vous pouvez essayer audio en temps réel et assistants dans les terrains de jeux ou via du code.

Remarque

Un formulaire d'enregistrement d'accès limité est nécessaire pour accéder à certains modèles ou fonctionnalités d'Azure OpenAI Service. En savoir plus sur la page d’accès limité Azure OpenAI.

Comparaison d’Azure OpenAI et OpenAI

Azure OpenAI Service offre aux clients une IA de langage avancée avec les modèles OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper, et les modèles de synthèse vocale avec la promesse de sécurité et d’entreprise d’Azure. Azure OpenAI co-développe les API avec OpenAI, garantissant la compatibilité et une transition en douceur de l’une à l’autre.

Avec Azure OpenAI, les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles qu’OpenAI. Azure OpenAI offre une mise en réseau privé, une disponibilité régionale et un filtrage de contenu d’IA responsable.

Concepts clés

Invites et complétions

Le point de terminaison de saisie semi-automatique est le composant principal du service API. Cette API fournit l’accès à l’interface d’entrée et de sortie de texte du modèle. Les utilisateurs doivent simplement fournir une invite d'entrée contenant la commande de texte en anglais, et le modèle génère une saisie semi-automatique.

Voici un exemple d’invite et de saisie semi-automatique simples :

Invite : """ count to 5 in a for loop """

Saisie semi-automatique : for i in range(1, 6): print(i)

Jetons

Jetons de texte

OpenAI Enterprise traite le texte en le décomposant en jetons. Les jetons peuvent être des mots ou simplement des blocs de caractères. Par exemple, le mot « hamburger » se divise en jetons « ham », « bur » et « ger », tandis qu’un mot court et commun comme « poire » est un seul jeton. De nombreux jetons commencent par un espace, par exemple « hello » et « bye ».

Le nombre total de jetons traités dans une requête donnée dépend de la longueur de vos paramètres d’entrée, de sortie et de requête. La quantité de jetons en cours de traitement affecte également la latence et le débit de votre réponse pour les modèles.

Jetons d’image

Les fonctionnalités de traitement d’images d’Azure OpenAI avec les modèles GPT-4o, GPT-4o mini et GPT-4 Turbo avec Vision utilisent la génération de jetons à partir d’images pour déterminer le nombre total de jetons consommés par les entrées d’image. Le nombre de jetons consommés est calculé en fonction de deux facteurs principaux : le niveau de détail de l’image (faible ou élevé) et les dimensions de l’image. Voici comment les coûts des jetons sont calculés :

  • Mode basse résolution
    • Un faible niveau de détail permet à l’API de retourner des réponses plus rapides pour les scénarios qui ne nécessitent pas une analyse d’images haute résolution. Les jetons consommés pour les images à faible niveau de détail sont les suivants :
      • GPT-4o et GPT-4 Turbo avec Vision : taux fixe de 85 jetons par image, quelle que soit la taille.
      • GPT-4o mini : taux fixe de 2 833 jetons par image, quelle que soit la taille.
    • Exemple : Image 4096 x 8192 (peu détaillée) : Le coût est fixe à 85 jetons avec GPT-4o, car il s'agit d'une image peu détaillée, et la taille n'affecte pas le coût dans ce mode.
  • Mode haute résolution
    • Un niveau élevé de détail permet à l’API d’analyser les images plus en détail. Les jetons d’image sont calculés en fonction des dimensions de l’image. Le calcul implique les étapes suivantes :
      1. Redimensionnement de l’image : l’image est redimensionnée pour tenir dans un carré de 2 048 x 2 048 pixels. Si le côté le plus court est supérieur à 768 pixels, l’image est redimensionnée de façon à ce que le côté le plus court mesure 768 pixels de long. L’aspect est conservé pendant le redimensionnement.
      2. Calcul de mosaïque : une fois l’image redimensionnée, celle-ci est divisée en mosaïques de 512 x 512 pixels. Toutes les mosaïques partielles sont arrondies à une mosaïque complète. Le nombre de mosaïques détermine le coût total du jeton.
      3. Calcul des jetons :
        • GPT-4o et GPT-4 Turbo avec Vision: chaque mosaïque de 512 x 512 pixels coûte 170 jetons. 85 jetons de base supplémentaires sont ajoutés au total.
        • GPT-4o mini : chaque mosaïque de 512 x 512 pixels coûte 5 667 jetons. 2 833 jetons de base supplémentaires sont ajoutés au total.
    • Exemple : image de 2 048 x 4 096 (haut niveau de détail) :
      1. L’image est initialement redimensionnée à 1 024 x 2 048 pixels pour tenir dans un carré de 2 048 x 2 048 pixels.
      2. L’image est ensuite redimensionnée à 768 x 1 536 pixels pour garantir que le côté le plus court mesure au maximum 768 pixels de long.
      3. L’image est divisée en 2 x 3 mosaïques, chacune mesurant 512 x 512 pixels.
      4. Calcul final :
        • Pour GPT-4o et GPT-4 Turbo avec Vision, le coût total en jetons est de 6 mosaïques x 170 jetons par mosaïque + 85 jetons de base = 1 105 jetons.
        • Pour GPT-4o mini, le coût total en jetons est de 6 mosaïques x 5 667 jetons par mosaïque + 2 833 jetons de base = 36 835 jetons.

Ressources

Azure OpenAI est une nouvelle offre de produit sur Azure. Vous pouvez commencer à utiliser Azure OpenAI comme n’importe quel autre produit Azure où vous créez une ressource, ou une instance du service, dans votre abonnement Azure. Vous pouvez en savoir plus sur la conception de gestion des ressources Azure.

Déploiements

Une fois que vous avez créé une ressource Azure OpenAI, vous devez déployer un modèle avant de commencer à effectuer des appels d’API et à générer du texte. Cette action peut être effectuée à l’aide d’API de déploiement. Ces API vous permettent de spécifier le modèle que vous souhaitez utiliser.

Demander à l’ingénierie

Les modèles GPT-3, GPT-3.5 et GPT-4 d’OpenAI sont basés sur des invites. Dans le cas d’un modèle basé sur des invites, l’utilisateur interagit avec le modèle en entrant une invite de texte, à laquelle le modèle répond par une saisie semi-automatique. Cette saisie semi-automatique est la continuation du texte d’entrée par le modèle.

Bien que ces modèles soient puissants, leur comportement est également sensible à l’invite. La demander à l’ingénierie est dès lors une compétence importante à développer.

La construction de l’invite peut être difficile. Dans la pratique, l’invite agit pour configurer les pondérations du modèle pour accomplir la tâche souhaitée. Il s’agit toutefois plus d’un art que d’une science, qui nécessite souvent de l’expérience et de l’intuition pour créer une invite réussie.

Modèles

Le service permet aux utilisateurs d’accéder à plusieurs modèles différents. Chaque modèle fournit une fonctionnalité et un prix différents.

Les modèles DALL-E (certains en préversion ; consultez modèles) génèrent des images à partir d’invites de texte que l’utilisateur fournit.

Les modèles Whisper peuvent être utilisés pour transcrire et traduire la reconnaissance vocale.

Les modèles de synthèse vocale, actuellement en préversion, peuvent être utilisés pour convertir du texte par synthèse vocale.

En savoir plus sur chaque modèle sur notre page de concept de modèles.

Étapes suivantes

Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.