Démarrage rapide : Prise en main de GPT-35-Turbo et GPT-4 avec le service Azure OpenAI dans IntelliJ
Cet article explique comment bien démarrer avec Azure OpenAI Service dans IntelliJ IDEA. Il vous montre comment utiliser des modèles de conversation tels que GPT-3.5-Turbo et GPT-4 pour tester et tester différents paramètres et sources de données.
Prérequis
Un kit de développement Java (JDK) pris en charge. Pour plus d’informations sur les JDK disponibles pour le développement sur Azure, consultez Prise en charge de Java sur Azure et Azure Stack.
IntelliJ IDEA, Ultimate ou Community Edition.
Le kit de ressources Azure pour IntelliJ. Pour plus d’informations, consultez Install the Azure Toolkit for IntelliJ(Installer le Kit de ressources Azure pour IntelliJ). Vous devez également vous connecter à votre compte Azure pour l’Shared Computer Toolkit Azure pour IntelliJ. Pour plus d’informations, consultez les instructions de connexion pour azure Shared Computer Toolkit pour IntelliJ.
Un abonnement Azure : créez-en un gratuitement.
Accès accordé à Azure OpenAI dans l’abonnement Azure souhaité.
L’accès à ce service n’est accordé qu’à l’application. Vous pouvez demander l’accès à Azure OpenAI en remplissant le formulaire à l’adresse Demander l’accès au service Azure OpenAI.
Une ressource Azure OpenAI Service avec les modèles
gpt-35-turbo
ougpt-4
déployés. Pour plus d’informations sur le modèle de déploiement, consultez Créer et déployer une ressource Azure OpenAI Service.
Installer et se connecter
Les étapes suivantes vous guident tout au long du processus de connexion Azure dans votre environnement de développement IntelliJ :
Si le plug-in n’est pas installé, consultez Azure Shared Computer Toolkit pour IntelliJ.
Pour vous connecter à votre compte Azure, accédez à la barre latérale gauche d’Azure Explorer , puis sélectionnez l’icône de connexion Azure. Vous pouvez également accéder à Outils, développer Azure, puis sélectionner Connexion Azure.
Dans la fenêtre de connexion Azure, sélectionnez OAuth 2.0, puis connectez-vous. Pour d’autres options de connexion, consultez Instructions de connexion pour Azure Toolkit for IntelliJ.
Dans le navigateur, connectez-vous avec votre compte qui a accès à votre ressource OpenAI, puis revenez à IntelliJ. Dans la boîte de dialogue Sélectionner des abonnements , sélectionnez l’abonnement que vous souhaitez utiliser, puis sélectionnez Sélectionner.
Créer et déployer une ressource Azure OpenAI Service
Après le flux de travail de connexion, cliquez avec le bouton droit sur l’élément Azure OpenAI dans Azure Explorer, puis sélectionnez Créer un service Azure OpenAI.
Dans la boîte de dialogue Créer un service Azure OpenAI, spécifiez les informations suivantes, puis sélectionnez OK :
- Nom : nom descriptif de votre ressource Azure OpenAI Service, telle que MyOpenAIResource. Ce nom est également votre nom de domaine personnalisé dans votre point de terminaison. Votre nom de ressource ne peut inclure que des caractères alphanumériques et des traits d’union, et ne peut pas commencer ou se terminer par un trait d’union.
- Région : emplacement de votre instance. Certains modèles sont disponibles uniquement dans des régions spécifiques. Pour plus d’informations, consultez Gérer les Modèles Azure OpenAI Service.
- Référence SKU : Les ressources Azure OpenAI standard sont facturées en fonction de l’utilisation des jetons. Pour plus d’informations, consultez la tarification du service Azure OpenAI.
Avant de pouvoir utiliser les achèvements de conversation, vous devez déployer un modèle. Cliquez avec le bouton droit sur votre instance Azure OpenAI, puis sélectionnez Créer un nouveau déploiement. Dans la boîte de dialogue Créer un déploiement Azure OpenAI, spécifiez les informations suivantes, puis sélectionnez OK :
- Nom du déploiement : choisissez un nom soigneusement. Le nom du déploiement est utilisé dans votre code pour appeler le modèle à l’aide des bibliothèques clientes et les API REST.
- Modèle : sélectionnez un modèle. La disponibilité des modèles varie selon les régions. Pour obtenir la liste des modèles disponibles par région, consultez la section Récapitulative du modèle et de la disponibilité des régions des modèles azure OpenAI Service.
Le kit de ressources affiche un message d’état lorsque le déploiement est terminé et prêt à être utilisé.
Interagir avec Azure OpenAI à l’aide d’invites et de paramètres
Cliquez avec le bouton droit sur votre ressource Azure OpenAI, puis sélectionnez Ouvrir dans AI Playground.
Vous pouvez commencer à explorer les fonctionnalités OpenAI via le terrain de jeu Azure OpenAI Studio Chat dans IntelliJ IDEA.
Pour déclencher la saisie semi-automatique, vous pouvez entrer du texte en tant qu’invite. Le modèle génère la saisie semi-automatique et tente de compléter votre contexte ou modèle.
Pour démarrer une session de conversation, procédez comme suit :
Dans le volet de session de conversation, vous pouvez commencer par une simple invite comme celle-ci : « Je suis intéressé par l’achat d’une nouvelle Surface ». Après avoir tapé l’invite, sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :
Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
Entrez une question de suivi, par exemple : « Quels modèles prennent en charge LE GPU », puis sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :
Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
Maintenant que vous avez une conversation de base, sélectionnez Afficher le code dans le volet et vous avez une relecture du code derrière la conversation entière jusqu’à présent. Vous pouvez voir les exemples de code basés sur le Kit de développement logiciel (SDK) Java, curl et JSON correspondant à votre session de conversation et paramètres, comme illustré dans la capture d’écran suivante :
Vous pouvez ensuite sélectionner Copier pour prendre ce code et écrire une application pour effectuer la même tâche que celle que vous effectuez actuellement avec le terrain de jeu.
Paramètres
Vous pouvez sélectionner l’onglet Configuration pour définir les paramètres suivants :
Nom | Description |
---|---|
Réponse maximale | Définit une limite sur le nombre de jetons par réponse de modèle. L’API prend en charge un maximum de 4 096 jetons partagés entre l’invite (y compris le message système, les exemples, l’historique des messages et la requête utilisateur) et la réponse du modèle. Un jeton correspond à environ quatre caractères pour un texte typique en anglais. |
Température | Contrôle le caractère aléatoire. La réduction de la température signifie que le modèle produit des réponses plus répétitives et déterministes. L’augmentation de la température entraîne des réponses plus inattendues ou créatives. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux. |
Probabilités principales | Similaire à la température, contrôle l’aléatoire mais utilise une autre méthode. L’abaissement de la valeur de probabilité supérieure réduit la sélection de jetons du modèle à des jetons similaires. L’augmentation de la valeur permet au modèle de choisir parmi les jetons avec une probabilité élevée et faible. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux. |
Séquences d’arrêt | Met fin à la réponse du modèle à un point souhaité. La réponse du modèle se termine avant la séquence spécifiée, de sorte qu’elle ne contient pas le texte de séquence d’arrêt. Pour GPT-35-Turbo, l’utilisation de <|im_end|> garantit que la réponse du modèle ne génère pas de requête utilisateur de suivi. Vous pouvez inclure jusqu’à quatre séquences d’arrêt. |
Pénalité de fréquence | Réduit le risque de répéter un jeton proportionnellement en fonction de la fréquence à laquelle il apparaît dans le texte jusqu’à présent. Cette action réduit la probabilité de répéter exactement le même texte dans une réponse. |
Pénalité de présence | Réduit le risque de répétition d’un jeton qui apparaît dans le texte jusqu’à présent. Cela augmente la probabilité d’introduire de nouvelles rubriques dans une réponse. |
Nettoyer les ressources
Une fois que vous avez terminé de tester le terrain de jeu de conversation, si vous souhaitez propre et supprimer une ressource OpenAI, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées. Procédez comme suit pour propre ressources :
Pour supprimer vos ressources Azure OpenAI, accédez à la barre latérale d’Azure Explorer de gauche et recherchez l’élément Azure OpenAI.
Cliquez avec le bouton droit sur le service Azure OpenAI que vous souhaitez supprimer, puis sélectionnez Supprimer.
Pour supprimer votre groupe de ressources, visitez le Portail Azure et supprimez manuellement les ressources sous votre abonnement.
Étapes suivantes
Pour plus d’informations, consultez Découvrez comment utiliser les modèles GPT-35-Turbo et GPT-4.
Pour plus d’exemples, case activée le dépôt GitHub d’exemples Azure OpenAI.