Outil LLM pour les flux dans Azure AI Studio
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Pour avoir recours aux grands modèles de langage (LLM) pour le traitement du langage naturel, vous utilisez l’outil LLM de flux d’invite.
Remarque
Pour les incorporations de conversion de texte en représentations vectorielles denses pour diverses tâches de traitement du langage naturel, voir Outil d’incorporation.
Prérequis
Préparer une invite comme décrit dans la documentation de l’Outil d’invite. L’outil LLM et l’outil d’invite prennent en charge les modèles Jinja. Pour plus d’informations et de meilleures pratiques, consultez Techniques d’ingénierie des invites.
Générer avec l’outil LLM
Créez ou ouvrez un flux dans Azure AI Studio. Pour obtenir plus d’informations, consultez Créer un flux.
Sélectionnez + LLM pour ajouter l’outil LLM à votre flux.
Sélectionnez la connexion sur l’une de vos ressources approvisionnées. Par exemple, sélectionnez Default_AzureOpenAI.
Dans la liste déroulante API, sélectionnez conversation ou saisie semi-automatique.
Entrez des valeurs pour les paramètres d’entrée de l’outil LLM décrits dans le tableau Entrées de saisie semi-automatique de texte. Si vous sélectionnez l’API conversation, consultez le tableau Entrées de conversation. Si vous avez sélectionné l’API saisie semi-automatique, consultez le tableau Entrées de saisie semi-automatique de texte. Pour obtenir des informations sur la préparation des entrées d’invite, consultez les Conditions préalables.
Ajoutez d’autres outils à votre flux, selon vos besoins. Ou sélectionnez Exécuter pour exécuter le flux.
Les sorties sont décrites dans la table Sorties.
Entrées
Les paramètres d’entrée suivants sont disponibles.
Entrées de saisie semi-automatique de texte
Nom | Type | Description | Obligatoire |
---|---|---|---|
prompt | string | Invite de texte pour le modèle de langage. | Oui |
modèle, deployment_name | string | Modèle de langage à utiliser. | Oui |
max_tokens | entier | Nombre maximal de jetons à générer dans la saisie semi-automatique. Valeur par défaut : 16. | Non |
température | float | Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. | Non |
stop | list | Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. | Non |
suffix | string | Texte ajouté à la fin de la saisie semi-automatique. | Non |
top_p | float | Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. | Non |
logprobs | entier | Nombre de probabilités de journalisation à générer. La valeur par défaut est Null. | Non |
echo | booléen | Valeur indiquant si l’invite doit être renvoyée dans la réponse. La valeur par défaut est false. | Non |
presence_penalty | virgule flottante | Valeur qui contrôle le comportement du modèle en matière de répétition d’expressions. La valeur par défaut est 0. | Non |
frequency_penalty | virgule flottante | Valeur qui contrôle le comportement du modèle en matière de génération d’expressions rares. La valeur par défaut est 0. | Non |
best_of | entier | Nombre de meilleures saisies semi-automatiques à générer. 1 constitue la valeur par défaut. | Non |
logit_bias | dictionnaire | Biais logit du modèle de langage. La valeur par défaut est un dictionnaire vide. | Non |
Entrées de conversation
Nom | Type | Description | Obligatoire |
---|---|---|---|
prompt | string | Invite de texte à laquelle le modèle de langage doit répondre. | Oui |
modèle, deployment_name | string | Modèle de langage à utiliser. | Oui |
max_tokens | entier | Nombre maximal de jetons à générer dans la réponse. La valeur par défaut est inf. | Non |
température | float | Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. | Non |
stop | list | Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. | Non |
top_p | float | Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. | Non |
presence_penalty | virgule flottante | Valeur qui contrôle le comportement du modèle en matière de répétition d’expressions. La valeur par défaut est 0. | Non |
frequency_penalty | virgule flottante | Valeur qui contrôle le comportement du modèle en matière de génération d’expressions rares. La valeur par défaut est 0. | Non |
logit_bias | dictionnaire | Biais logit du modèle de langage. La valeur par défaut est un dictionnaire vide. | Non |
Sorties
La sortie varie en fonction de l’API sélectionnée pour les entrées.
API | Type renvoyé | Description |
---|---|---|
Completion | string | Texte d’une saisie semi-automatique prédite. |
Converser | string | Texte d’une réponse de conversation. |