Partager via


Outil LLM pour les flux dans Azure AI Studio

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Pour avoir recours aux grands modèles de langage (LLM) pour le traitement du langage naturel, vous utilisez l’outil LLM de flux d’invite.

Remarque

Pour les incorporations de conversion de texte en représentations vectorielles denses pour diverses tâches de traitement du langage naturel, voir Outil d’incorporation.

Prérequis

Préparer une invite comme décrit dans la documentation de l’Outil d’invite. L’outil LLM et l’outil d’invite prennent en charge les modèles Jinja. Pour plus d’informations et de meilleures pratiques, consultez Techniques d’ingénierie des invites.

Générer avec l’outil LLM

  1. Créez ou ouvrez un flux dans Azure AI Studio. Pour obtenir plus d’informations, consultez Créer un flux.

  2. Sélectionnez + LLM pour ajouter l’outil LLM à votre flux.

    Capture d’écran montrant l’outil LLM ajouté à un flux dans Azure AI Studio.

  3. Sélectionnez la connexion sur l’une de vos ressources approvisionnées. Par exemple, sélectionnez Default_AzureOpenAI.

  4. Dans la liste déroulante API, sélectionnez conversation ou saisie semi-automatique.

  5. Entrez des valeurs pour les paramètres d’entrée de l’outil LLM décrits dans le tableau Entrées de saisie semi-automatique de texte. Si vous sélectionnez l’API conversation, consultez le tableau Entrées de conversation. Si vous avez sélectionné l’API saisie semi-automatique, consultez le tableau Entrées de saisie semi-automatique de texte. Pour obtenir des informations sur la préparation des entrées d’invite, consultez les Conditions préalables.

  6. Ajoutez d’autres outils à votre flux, selon vos besoins. Ou sélectionnez Exécuter pour exécuter le flux.

  7. Les sorties sont décrites dans la table Sorties.

Entrées

Les paramètres d’entrée suivants sont disponibles.

Entrées de saisie semi-automatique de texte

Nom Type Description Obligatoire
prompt string Invite de texte pour le modèle de langage. Oui
modèle, deployment_name string Modèle de langage à utiliser. Oui
max_tokens entier Nombre maximal de jetons à générer dans la saisie semi-automatique. Valeur par défaut : 16. Non
température float Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. Non
stop list Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. Non
suffix string Texte ajouté à la fin de la saisie semi-automatique. Non
top_p float Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. Non
logprobs entier Nombre de probabilités de journalisation à générer. La valeur par défaut est Null. Non
echo booléen Valeur indiquant si l’invite doit être renvoyée dans la réponse. La valeur par défaut est false. Non
presence_penalty virgule flottante Valeur qui contrôle le comportement du modèle en matière de répétition d’expressions. La valeur par défaut est 0. Non
frequency_penalty virgule flottante Valeur qui contrôle le comportement du modèle en matière de génération d’expressions rares. La valeur par défaut est 0. Non
best_of entier Nombre de meilleures saisies semi-automatiques à générer. 1 constitue la valeur par défaut. Non
logit_bias dictionnaire Biais logit du modèle de langage. La valeur par défaut est un dictionnaire vide. Non

Entrées de conversation

Nom Type Description Obligatoire
prompt string Invite de texte à laquelle le modèle de langage doit répondre. Oui
modèle, deployment_name string Modèle de langage à utiliser. Oui
max_tokens entier Nombre maximal de jetons à générer dans la réponse. La valeur par défaut est inf. Non
température float Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. Non
stop list Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. Non
top_p float Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. Non
presence_penalty virgule flottante Valeur qui contrôle le comportement du modèle en matière de répétition d’expressions. La valeur par défaut est 0. Non
frequency_penalty virgule flottante Valeur qui contrôle le comportement du modèle en matière de génération d’expressions rares. La valeur par défaut est 0. Non
logit_bias dictionnaire Biais logit du modèle de langage. La valeur par défaut est un dictionnaire vide. Non

Sorties

La sortie varie en fonction de l’API sélectionnée pour les entrées.

API Type renvoyé Description
Completion string Texte d’une saisie semi-automatique prédite.
Converser string Texte d’une réponse de conversation.

Étapes suivantes