Partager via


Guide pratique pour utiliser la famille de modèles Meta Llama

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Dans cet article, vous allez découvrir la famille de modèles Meta Llama, et comment les utiliser. Les modèles et outils Meta Llama font partie d’une collection de modèles d’IA générative préentraînés et optimisés pour le raisonnement textuel et visuel. Ces modèles vont des petits modèles de langage (SLM) tels que les modèles 1B et 3B Base et Instruct, pour l’inférence sur appareil et en périphérie, aux grands modèles de langage (LLM) de taille moyenne tels que les modèles 7B, 8B et 70B Base et Instruct. Les modèles hautes performances tels que le Meta Llama 3.1 405B Instruct sont conçus pour des cas d’usage tels que la génération de données synthétiques et la distillation de modèles.

Consultez nos annonces relatives aux modèles de la famille Meta Llama 3.2 disponibles dans le catalogue de modèles Azure AI via le blog de Meta et le blog de Microsoft Tech Community.

Important

Les modèles en préversion comportent la mention préversion sur leur carte de modèle dans le catalogue de modèles.

Famille de modèles Meta Llama

La famille de modèles Meta Llama comprend les modèles suivants :

La collection Llama 3.2 de SLM et de modèles de raisonnement basé sur un contenu visuel est désormais disponible. Llama 3.2 11B Vision Instruct et Llama 3.2 90B Vision Instruct seront bientôt disponibles en tant que points de terminaison d’API serverless via l’offre MaaS (modèles en tant que service). À partir d’aujourd’hui, les modèles suivants sont disponibles pour un déploiement via une infrastructure de calcul managé :

  • Llama 3.2 1B
  • Llama 3.2 3B
  • Llama 3.2 1B Instruct
  • Llama 3.2 3B Instruct
  • Llama Guard 3 1B
  • Llama Guard 11B Vision
  • Llama 3.2 11B Vision Instruct
  • Llama 3.2 90B Vision Instruct sont disponibles pour un déploiement via une infrastructure de calcul managé.

Prérequis

Pour utiliser des modèles Meta Llama avec Azure AI Studio, vous devez respecter les prérequis suivants :

Un modèle de déploiement

Déploiement sur des API sans serveur

Les modèles Meta Llama peuvent être déployés sur des points de terminaison d’API serverless dans le cadre de la facturation avec paiement à l’utilisation. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin.

Le déploiement vers un point de terminaison API serverless ne nécessite pas de quota de votre abonnement. Si votre modèle n’est pas déjà déployé, utilisez Azure AI Studio, le kit de développement logiciel (SDK) Azure Machine Learning pour Python, l’interface de ligne de commande Azure ou les modèles ARM pour déployer le modèle en tant qu’API serverless.

Déploiement sur un calcul managé auto-hébergé

Les modèles Meta Llama peuvent être déployés sur notre solution d’inférence managée autohébergée, ce qui vous permet de personnaliser et de contrôler tous les détails relatifs à la mise à disposition du modèle.

Pour un déploiement sur un calcul managé auto-hébergé, vous devez disposer d’un quota suffisant dans votre abonnement. Si vous n’avez pas suffisamment de quota disponible, vous pouvez utiliser notre accès temporaire au quota en sélectionnant l’option Je souhaite utiliser le quota partagé et je reconnais que ce point de terminaison sera supprimé dans 168 heures.

Package d’inférence installé

Vous pouvez utiliser des prédictions à partir de ce modèle à l’aide du package azure-ai-inference avec Python. Pour installer ce package, vous avez besoin des prérequis suivants :

  • Python 3.8 ou version ultérieure installée, y compris pip.
  • L’URL du point de terminaison. Pour construire la bibliothèque cliente, vous devez passer l’URL du point de terminaison. L’URL du point de terminaison est sous la forme https://your-host-name.your-azure-region.inference.ai.azure.com, où your-host-name est le nom d’hôte unique de votre modèle de déploiement et your-azure-region est la région Azure où le modèle est déployé (par exemple, eastus2).
  • En fonction de vos préférences de modèle de déploiement et d’authentification, vous aurez besoin d’une clé pour vous authentifier auprès du service ou des informations d’identification Microsoft Entra ID. La clé est une chaîne de 32 caractères.

Une fois ces conditions préalables remplies, installez le package d’inférence Azure AI avec la commande suivante :

pip install azure-ai-inference

En savoir plus sur le Package d’inférence et les informations de référence Azure AI.

Travailler avec des complétions de conversation

Dans cette section, vous utilisez l’API d’inférence de modèle Azure AI avec un modèle de complétion de conversation pour les conversations.

Conseil

L’API d’inférence de modèle Azure AI vous permet de dialoguer avec la plupart des modèles déployés dans Azure AI Studio en utilisant le même code et la même structure, notamment les modèles Meta Llama Instruct, c’est-à-dire les modèles de raisonnement axés sur le texte uniquement ou les images.

Créer un client pour consommer le modèle

Tout d’abord, créez le client pour consommer le modèle. Le code suivant utilise une URL de point de terminaison et une clé qui sont stockées dans les variables d’environnement.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint=os.environ["AZURE_INFERENCE_ENDPOINT"],
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

Lorsque vous déployez le modèle sur un point de terminaison en ligne auto-hébergé avec prise en charge de Microsoft Entra ID, vous pouvez utiliser l’extrait de code suivant pour créer un client.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.identity import DefaultAzureCredential

client = ChatCompletionsClient(
    endpoint=os.environ["AZURE_INFERENCE_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

Remarque

Actuellement, les points de terminaison d’API serverless ne prennent pas en charge l’utilisation de Microsoft Entra ID pour l’authentification.

Obtenir les fonctionnalités du modèle

L’itinéraire /info retourne des informations sur le modèle déployé sur le point de terminaison. Renvoyez les informations du modèle en appelant la méthode suivante :

model_info = client.get_model_info()

La réponse est comme suit :

print("Model name:", model_info.model_name)
print("Model type:", model_info.model_type)
print("Model provider name:", model_info.model_provider_name)
Model name: Meta-Llama-3.1-405B-Instruct
Model type: chat-completions
Model provider name: Meta

Créer une requête de complétion de conversation

L’exemple suivant vous montre comment créer une requête de complétions de conversation de base sur le modèle.

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="How many languages are in the world?"),
    ],
)

La réponse est la suivante, où vous pouvez voir les statistiques d’utilisation du modèle :

print("Response:", response.choices[0].message.content)
print("Model:", response.model)
print("Usage:")
print("\tPrompt tokens:", response.usage.prompt_tokens)
print("\tTotal tokens:", response.usage.total_tokens)
print("\tCompletion tokens:", response.usage.completion_tokens)
Response: As of now, it's estimated that there are about 7,000 languages spoken around the world. However, this number can vary as some languages become extinct and new ones develop. It's also important to note that the number of speakers can greatly vary between languages, with some having millions of speakers and others only a few hundred.
Model: Meta-Llama-3.1-405B-Instruct
Usage: 
  Prompt tokens: 19
  Total tokens: 91
  Completion tokens: 72

Examinez la section usage dans la réponse pour voir le nombre de jetons utilisés pour l’invite, le nombre total de jetons générés et le nombre de jetons utilisés pour la complétion.

Diffuser du contenu

Par défaut, l’API de complétion retourne l’intégralité du contenu généré dans une réponse unique. Si vous générez des complétions longues, l’attente de la réponse peut durer plusieurs secondes.

Vous pouvez diffuser en continu le contenu pour l’obtenir à mesure qu’il est généré. Diffuser le contenu en continu vous permet de commencer à traiter la complétion à mesure que le contenu devient disponible. Ce mode renvoie un objet qui diffuse la réponse en tant qu’événements envoyés par le serveur contenant uniquement des données. Extrayez les blocs du champ delta, plutôt que le champ de message.

result = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="How many languages are in the world?"),
    ],
    temperature=0,
    top_p=1,
    max_tokens=2048,
    stream=True,
)

Pour diffuser en continu des complétions, définissez stream=True lorsque vous appelez le modèle.

Pour visualiser la sortie, définissez une fonction d’assistance pour imprimer le flux.

def print_stream(result):
    """
    Prints the chat completion with streaming.
    """
    import time
    for update in result:
        if update.choices:
            print(update.choices[0].delta.content, end="")

Vous pouvez visualiser la façon dont la diffusion en continu génère du contenu :

print_stream(result)

Découvrir d’autres paramètres pris en charge par le client d’inférence

Explorez d’autres paramètres que vous pouvez spécifier dans le client d’inférence. Pour obtenir la liste complète de tous les paramètres pris en charge et leur documentation correspondante, consultez Référence de l’API Inférence de modèle Azure AI.

from azure.ai.inference.models import ChatCompletionsResponseFormatText

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="How many languages are in the world?"),
    ],
    presence_penalty=0.1,
    frequency_penalty=0.8,
    max_tokens=2048,
    stop=["<|endoftext|>"],
    temperature=0,
    top_p=1,
    response_format={ "type": ChatCompletionsResponseFormatText() },
)

Avertissement

Les modèles Meta Llama ne prennent pas en charge la mise en forme de sortie JSON (response_format = { "type": "json_object" }). Vous pouvez toujours demander au modèle de générer des sorties JSON. Cependant, il n’est pas garanti que de telles sorties soient en JSON valide.

Si vous souhaitez transmettre un paramètre qui ne figure pas dans la liste des paramètres pris en charge, vous pouvez le transmettre au modèle sous-jacent en utilisant des paramètres supplémentaires. Consulter Transmettre des paramètres supplémentaires au modèle.

Transmettre des paramètres supplémentaires au modèle

L'API d'inférence du modèle Azure AI vous permet de transmettre des paramètres supplémentaires au modèle. L’exemple de code suivant montre comment transmettre le paramètre supplémentaire logprobs au modèle.

Avant de transmettre des paramètres supplémentaires à l’API Inférence de modèle Azure AI, assurez-vous que votre modèle prend en charge ces paramètres supplémentaires. Lorsque la requête est adressée au modèle sous-jacent, l’en-tête extra-parameters est transmis au modèle avec la valeur pass-through. Cette valeur indique au point de terminaison de transmettre les paramètres supplémentaires au modèle. L’utilisation de paramètres supplémentaires avec le modèle ne garantit pas que le modèle peut réellement les gérer. Lisez la documentation du modèle pour comprendre quels paramètres supplémentaires sont pris en charge.

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="How many languages are in the world?"),
    ],
    model_extras={
        "logprobs": True
    }
)

Les paramètres supplémentaires suivants peuvent être passés aux modèles Meta Llama :

Nom Description Type
n Nombre d’achèvements à générer pour chaque invite. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
best_of Génère des complétions best_of côté serveur et retourne la meilleure d’entre elles (celle avec la probabilité logarithmique la plus faible par jeton). Les résultats ne peuvent pas être diffusés en continu. Utilisé avec n, best_of contrôle le nombre de complétions candidates et n spécifie le nombre de retours. best_of doit être supérieur à n. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
logprobs Un nombre indiquant d’inclure les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 10, l’API retourne une liste des 10 jetons les plus probables. l’API retourne toujours le logprob du jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse. integer
ignore_eos Indique s’il faut ignorer le jeton EOS et continuer à générer des jetons après la génération du jeton EOS. boolean
use_beam_search Indique s’il faut utiliser la recherche par faisceau au lieu de l’échantillonnage. Dans ce cas, best_of doit être supérieur à 1 et la température doit être 0. boolean
stop_token_ids Liste des ID pour les jetons qui, lorsqu’ils sont générés, arrêtent la génération de jetons supplémentaires. La sortie retournée contient les jetons d’arrêt, sauf si les jetons d’arrêt sont des jetons spéciaux. array
skip_special_tokens Indique s’il faut ignorer des jetons spéciaux dans la sortie. boolean

Appliquer la sécurité du contenu

L’API Inférence de modèle Azure AI prend en charge Azure AI Sécurité du Contenu. Lorsque vous utilisez des déploiements avec la sécurité du contenu Azure AI activée, les entrées et les sorties passent par un ensemble de modèles de classification visant à détecter et à empêcher la sortie de contenu dangereux. Le système de filtrage de contenu (préversion) détecte des catégories spécifiques de contenu potentiellement nuisible dans les requêtes d’entrée et les saisies semi-automatiques de sortie, et prend les mesures correspondantes.

L’exemple suivant montre comment gérer les évènements lorsque le modèle détecte du contenu dangereux dans l’invite d’entrée et que la sécurité du contenu est activée.

from azure.ai.inference.models import AssistantMessage, UserMessage, SystemMessage

try:
    response = client.complete(
        messages=[
            SystemMessage(content="You are an AI assistant that helps people find information."),
            UserMessage(content="Chopping tomatoes and cutting them into cubes or wedges are great ways to practice your knife skills."),
        ]
    )

    print(response.choices[0].message.content)

except HttpResponseError as ex:
    if ex.status_code == 400:
        response = ex.response.json()
        if isinstance(response, dict) and "error" in response:
            print(f"Your request triggered an {response['error']['code']} error:\n\t {response['error']['message']}")
        else:
            raise
    raise

Conseil

Pour en savoir plus sur la façon dont vous pouvez configurer et contrôler les paramètres de sécurité du contenu Azure AI, consultez la documentation Azure AI Sécurité du Contenu.

Remarque

La sécurité du contenu Azure AI n’est disponible que pour les modèles déployés en tant que points de terminaison d’API serverless.

Modèles Meta Llama

Les modèles Meta Llama incluent les modèles suivants :

La collection Meta Llama 3.1 de grands modèles de langage (LLM) multilingues est une collection de modèles génératifs pré-entraînés et affinés par des instructions, disponibles en tailles 8M, 70M et 405M (texte entrant/texte sortant). Les modèles texte-uniquement affinés par instruction Llama 3.1 (8B, 70B, 405B) sont optimisés pour les cas d’usage de dialogue multilingue, et surpassent la plupart des modèles de conversation open source et fermés disponibles sur les benchmarks courants du secteur.

Les modèles suivants sont disponibles :

Prérequis

Pour utiliser des modèles Meta Llama avec Azure AI Studio, vous devez respecter les prérequis suivants :

Un modèle de déploiement

Déploiement sur des API sans serveur

Les modèles Meta Llama peuvent être déployés sur des points de terminaison d’API serverless dans le cadre de la facturation avec paiement à l’utilisation. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin.

Le déploiement vers un point de terminaison API serverless ne nécessite pas de quota de votre abonnement. Si votre modèle n’est pas déjà déployé, utilisez Azure AI Studio, le kit de développement logiciel (SDK) Azure Machine Learning pour Python, l’interface de ligne de commande Azure ou les modèles ARM pour déployer le modèle en tant qu’API serverless.

Déploiement sur un calcul managé auto-hébergé

Les modèles Meta Llama peuvent être déployés sur notre solution d’inférence managée autohébergée, ce qui vous permet de personnaliser et de contrôler tous les détails relatifs à la mise à disposition du modèle.

Pour un déploiement sur un calcul managé auto-hébergé, vous devez disposer d’un quota suffisant dans votre abonnement. Si vous n’avez pas suffisamment de quota disponible, vous pouvez utiliser notre accès temporaire au quota en sélectionnant l’option Je souhaite utiliser le quota partagé et je reconnais que ce point de terminaison sera supprimé dans 168 heures.

Package d’inférence installé

Vous pouvez consommer des prédictions depuis ce modèle en utilisant le package @azure-rest/ai-inference de npm. Pour installer ce package, vous avez besoin des prérequis suivants :

  • Versions LTS de Node.js avec npm.
  • L’URL du point de terminaison. Pour construire la bibliothèque cliente, vous devez passer l’URL du point de terminaison. L’URL du point de terminaison est sous la forme https://your-host-name.your-azure-region.inference.ai.azure.com, où your-host-name est le nom d’hôte unique de votre modèle de déploiement et your-azure-region est la région Azure où le modèle est déployé (par exemple, eastus2).
  • En fonction de vos préférences de modèle de déploiement et d’authentification, vous aurez besoin d’une clé pour vous authentifier auprès du service ou des informations d’identification Microsoft Entra ID. La clé est une chaîne de 32 caractères.

Une fois ces prérequis remplis, installez la bibliothèque Azure Inference pour JavaScript avec la commande suivante :

npm install @azure-rest/ai-inference

Travailler avec des complétions de conversation

Dans cette section, vous utilisez l’API d’inférence de modèle Azure AI avec un modèle de complétion de conversation pour les conversations.

Conseil

L’API d’inférence de modèle Azure AI vous permet de dialoguer avec la plupart des modèles déployés dans Azure AI Studio en utilisant le même code et la même structure, notamment les modèles Meta Llama.

Créer un client pour consommer le modèle

Tout d’abord, créez le client pour consommer le modèle. Le code suivant utilise une URL de point de terminaison et une clé qui sont stockées dans les variables d’environnement.

import ModelClient from "@azure-rest/ai-inference";
import { isUnexpected } from "@azure-rest/ai-inference";
import { AzureKeyCredential } from "@azure/core-auth";

const client = new ModelClient(
    process.env.AZURE_INFERENCE_ENDPOINT, 
    new AzureKeyCredential(process.env.AZURE_INFERENCE_CREDENTIAL)
);

Lorsque vous déployez le modèle sur un point de terminaison en ligne auto-hébergé avec prise en charge de Microsoft Entra ID, vous pouvez utiliser l’extrait de code suivant pour créer un client.

import ModelClient from "@azure-rest/ai-inference";
import { isUnexpected } from "@azure-rest/ai-inference";
import { DefaultAzureCredential }  from "@azure/identity";

const client = new ModelClient(
    process.env.AZURE_INFERENCE_ENDPOINT, 
    new DefaultAzureCredential()
);

Remarque

Actuellement, les points de terminaison d’API serverless ne prennent pas en charge l’utilisation de Microsoft Entra ID pour l’authentification.

Obtenir les fonctionnalités du modèle

L’itinéraire /info retourne des informations sur le modèle déployé sur le point de terminaison. Renvoyez les informations du modèle en appelant la méthode suivante :

var model_info = await client.path("/info").get()

La réponse est comme suit :

console.log("Model name: ", model_info.body.model_name)
console.log("Model type: ", model_info.body.model_type)
console.log("Model provider name: ", model_info.body.model_provider_name)
Model name: Meta-Llama-3.1-405B-Instruct
Model type: chat-completions
Model provider name: Meta

Créer une requête de complétion de conversation

L’exemple suivant vous montre comment créer une requête de complétions de conversation de base sur le modèle.

var messages = [
    { role: "system", content: "You are a helpful assistant" },
    { role: "user", content: "How many languages are in the world?" },
];

var response = await client.path("/chat/completions").post({
    body: {
        messages: messages,
    }
});

La réponse est la suivante, où vous pouvez voir les statistiques d’utilisation du modèle :

if (isUnexpected(response)) {
    throw response.body.error;
}

console.log("Response: ", response.body.choices[0].message.content);
console.log("Model: ", response.body.model);
console.log("Usage:");
console.log("\tPrompt tokens:", response.body.usage.prompt_tokens);
console.log("\tTotal tokens:", response.body.usage.total_tokens);
console.log("\tCompletion tokens:", response.body.usage.completion_tokens);
Response: As of now, it's estimated that there are about 7,000 languages spoken around the world. However, this number can vary as some languages become extinct and new ones develop. It's also important to note that the number of speakers can greatly vary between languages, with some having millions of speakers and others only a few hundred.
Model: Meta-Llama-3.1-405B-Instruct
Usage: 
  Prompt tokens: 19
  Total tokens: 91
  Completion tokens: 72

Examinez la section usage dans la réponse pour voir le nombre de jetons utilisés pour l’invite, le nombre total de jetons générés et le nombre de jetons utilisés pour la complétion.

Diffuser du contenu

Par défaut, l’API de complétion retourne l’intégralité du contenu généré dans une réponse unique. Si vous générez des complétions longues, l’attente de la réponse peut durer plusieurs secondes.

Vous pouvez diffuser en continu le contenu pour l’obtenir à mesure qu’il est généré. Diffuser le contenu en continu vous permet de commencer à traiter la complétion à mesure que le contenu devient disponible. Ce mode renvoie un objet qui diffuse la réponse en tant qu’événements envoyés par le serveur contenant uniquement des données. Extrayez les blocs du champ delta, plutôt que le champ de message.

var messages = [
    { role: "system", content: "You are a helpful assistant" },
    { role: "user", content: "How many languages are in the world?" },
];

var response = await client.path("/chat/completions").post({
    body: {
        messages: messages,
    }
}).asNodeStream();

Pour diffuser les complétions en continu, utilisez .asNodeStream() lorsque vous appelez le modèle.

Vous pouvez visualiser la façon dont la diffusion en continu génère du contenu :

var stream = response.body;
if (!stream) {
    stream.destroy();
    throw new Error(`Failed to get chat completions with status: ${response.status}`);
}

if (response.status !== "200") {
    throw new Error(`Failed to get chat completions: ${response.body.error}`);
}

var sses = createSseStream(stream);

for await (const event of sses) {
    if (event.data === "[DONE]") {
        return;
    }
    for (const choice of (JSON.parse(event.data)).choices) {
        console.log(choice.delta?.content ?? "");
    }
}

Découvrir d’autres paramètres pris en charge par le client d’inférence

Explorez d’autres paramètres que vous pouvez spécifier dans le client d’inférence. Pour obtenir la liste complète de tous les paramètres pris en charge et leur documentation correspondante, consultez Référence de l’API Inférence de modèle Azure AI.

var messages = [
    { role: "system", content: "You are a helpful assistant" },
    { role: "user", content: "How many languages are in the world?" },
];

var response = await client.path("/chat/completions").post({
    body: {
        messages: messages,
        presence_penalty: "0.1",
        frequency_penalty: "0.8",
        max_tokens: 2048,
        stop: ["<|endoftext|>"],
        temperature: 0,
        top_p: 1,
        response_format: { type: "text" },
    }
});

Avertissement

Les modèles Meta Llama ne prennent pas en charge la mise en forme de sortie JSON (response_format = { "type": "json_object" }). Vous pouvez toujours demander au modèle de générer des sorties JSON. Cependant, il n’est pas garanti que de telles sorties soient en JSON valide.

Si vous souhaitez transmettre un paramètre qui ne figure pas dans la liste des paramètres pris en charge, vous pouvez le transmettre au modèle sous-jacent en utilisant des paramètres supplémentaires. Consulter Transmettre des paramètres supplémentaires au modèle.

Transmettre des paramètres supplémentaires au modèle

L'API d'inférence du modèle Azure AI vous permet de transmettre des paramètres supplémentaires au modèle. L’exemple de code suivant montre comment transmettre le paramètre supplémentaire logprobs au modèle.

Avant de transmettre des paramètres supplémentaires à l’API Inférence de modèle Azure AI, assurez-vous que votre modèle prend en charge ces paramètres supplémentaires. Lorsque la requête est adressée au modèle sous-jacent, l’en-tête extra-parameters est transmis au modèle avec la valeur pass-through. Cette valeur indique au point de terminaison de transmettre les paramètres supplémentaires au modèle. L’utilisation de paramètres supplémentaires avec le modèle ne garantit pas que le modèle peut réellement les gérer. Lisez la documentation du modèle pour comprendre quels paramètres supplémentaires sont pris en charge.

var messages = [
    { role: "system", content: "You are a helpful assistant" },
    { role: "user", content: "How many languages are in the world?" },
];

var response = await client.path("/chat/completions").post({
    headers: {
        "extra-params": "pass-through"
    },
    body: {
        messages: messages,
        logprobs: true
    }
});

Les paramètres supplémentaires suivants peuvent être passés aux modèles Meta Llama :

Nom Description Type
n Nombre d’achèvements à générer pour chaque invite. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
best_of Génère des complétions best_of côté serveur et retourne la meilleure d’entre elles (celle avec la probabilité logarithmique la plus faible par jeton). Les résultats ne peuvent pas être diffusés en continu. Utilisé avec n, best_of contrôle le nombre de complétions candidates et n spécifie le nombre de retours. best_of doit être supérieur à n. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
logprobs Un nombre indiquant d’inclure les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 10, l’API retourne une liste des 10 jetons les plus probables. l’API retourne toujours le logprob du jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse. integer
ignore_eos Indique s’il faut ignorer le jeton EOS et continuer à générer des jetons après la génération du jeton EOS. boolean
use_beam_search Indique s’il faut utiliser la recherche par faisceau au lieu de l’échantillonnage. Dans ce cas, best_of doit être supérieur à 1 et la température doit être 0. boolean
stop_token_ids Liste des ID pour les jetons qui, lorsqu’ils sont générés, arrêtent la génération de jetons supplémentaires. La sortie retournée contient les jetons d’arrêt, sauf si les jetons d’arrêt sont des jetons spéciaux. array
skip_special_tokens Indique s’il faut ignorer des jetons spéciaux dans la sortie. boolean

Appliquer la sécurité du contenu

L’API Inférence de modèle Azure AI prend en charge Azure AI Sécurité du Contenu. Lorsque vous utilisez des déploiements avec la sécurité du contenu Azure AI activée, les entrées et les sorties passent par un ensemble de modèles de classification visant à détecter et à empêcher la sortie de contenu dangereux. Le système de filtrage de contenu (préversion) détecte des catégories spécifiques de contenu potentiellement nuisible dans les requêtes d’entrée et les saisies semi-automatiques de sortie, et prend les mesures correspondantes.

L’exemple suivant montre comment gérer les évènements lorsque le modèle détecte du contenu dangereux dans l’invite d’entrée et que la sécurité du contenu est activée.

try {
    var messages = [
        { role: "system", content: "You are an AI assistant that helps people find information." },
        { role: "user", content: "Chopping tomatoes and cutting them into cubes or wedges are great ways to practice your knife skills." },
    ];

    var response = await client.path("/chat/completions").post({
        body: {
            messages: messages,
        }
    });

    console.log(response.body.choices[0].message.content);
}
catch (error) {
    if (error.status_code == 400) {
        var response = JSON.parse(error.response._content);
        if (response.error) {
            console.log(`Your request triggered an ${response.error.code} error:\n\t ${response.error.message}`);
        }
        else
        {
            throw error;
        }
    }
}

Conseil

Pour en savoir plus sur la façon dont vous pouvez configurer et contrôler les paramètres de sécurité du contenu Azure AI, consultez la documentation Azure AI Sécurité du Contenu.

Remarque

La sécurité du contenu Azure AI n’est disponible que pour les modèles déployés en tant que points de terminaison d’API serverless.

Modèles Meta Llama

Les modèles Meta Llama incluent les modèles suivants :

La collection Meta Llama 3.1 de grands modèles de langage (LLM) multilingues est une collection de modèles génératifs pré-entraînés et affinés par des instructions, disponibles en tailles 8M, 70M et 405M (texte entrant/texte sortant). Les modèles Llama 3.1 (8B, 70B, 405B), axés sur le contenu textuel uniquement et paramétrés par instructions, sont optimisés pour les cas d’usage de dialogues multilingues. Ils sont plus performants que la plupart des modèles open source et fermés disponibles dans les points de référence courants du secteur.

Les modèles suivants sont disponibles :

Prérequis

Pour utiliser des modèles Meta Llama avec Azure AI Studio, vous devez respecter les prérequis suivants :

Un modèle de déploiement

Déploiement sur des API sans serveur

Les modèles Meta Llama peuvent être déployés sur des points de terminaison d’API serverless dans le cadre de la facturation avec paiement à l’utilisation. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin.

Le déploiement vers un point de terminaison API serverless ne nécessite pas de quota de votre abonnement. Si votre modèle n’est pas déjà déployé, utilisez Azure AI Studio, le kit de développement logiciel (SDK) Azure Machine Learning pour Python, l’interface de ligne de commande Azure ou les modèles ARM pour déployer le modèle en tant qu’API serverless.

Déploiement sur un calcul managé auto-hébergé

Les modèles Meta Llama peuvent être déployés sur notre solution d’inférence managée autohébergée, ce qui vous permet de personnaliser et de contrôler tous les détails relatifs à la mise à disposition du modèle.

Pour un déploiement sur un calcul managé auto-hébergé, vous devez disposer d’un quota suffisant dans votre abonnement. Si vous n’avez pas suffisamment de quota disponible, vous pouvez utiliser notre accès temporaire au quota en sélectionnant l’option Je souhaite utiliser le quota partagé et je reconnais que ce point de terminaison sera supprimé dans 168 heures.

Package d’inférence installé

Vous pouvez consommer les prédictions de ce modèle en utilisant le package Azure.AI.Inference de NuGet. Pour installer ce package, vous avez besoin des prérequis suivants :

  • L’URL du point de terminaison. Pour construire la bibliothèque cliente, vous devez passer l’URL du point de terminaison. L’URL du point de terminaison est sous la forme https://your-host-name.your-azure-region.inference.ai.azure.com, où your-host-name est le nom d’hôte unique de votre modèle de déploiement et your-azure-region est la région Azure où le modèle est déployé (par exemple, eastus2).
  • En fonction de vos préférences de modèle de déploiement et d’authentification, vous aurez besoin d’une clé pour vous authentifier auprès du service ou des informations d’identification Microsoft Entra ID. La clé est une chaîne de 32 caractères.

Une fois ces prérequis remplis, installez la bibliothèque d’inférence Azure AI avec la commande suivante :

dotnet add package Azure.AI.Inference --prerelease

Vous pouvez également vous authentifier avec Microsoft Entra ID (anciennement Azure Active Directory). Pour utiliser les fournisseurs d’informations d’identification fournis avec le kit de développement logiciel (SDK) Azure, installez le package Azure.Identity:

dotnet add package Azure.Identity

Importez les espaces de noms suivants :

using Azure;
using Azure.Identity;
using Azure.AI.Inference;

Cet exemple utilise également les espaces de noms suivants, mais vous n’en aurez peut-être pas toujours besoin :

using System.Text.Json;
using System.Text.Json.Serialization;
using System.Reflection;

Travailler avec des complétions de conversation

Dans cette section, vous utilisez l’API d’inférence de modèle Azure AI avec un modèle de complétion de conversation pour les conversations.

Conseil

L’API Inférence de modèle Azure AI vous permet de communiquer avec la plupart des modèles déployés dans Azure AI Studio avec le même code et la même structure, y compris les modèles de conversation Meta Llama.

Créer un client pour consommer le modèle

Tout d’abord, créez le client pour consommer le modèle. Le code suivant utilise une URL de point de terminaison et une clé qui sont stockées dans les variables d’environnement.

ChatCompletionsClient client = new ChatCompletionsClient(
    new Uri(Environment.GetEnvironmentVariable("AZURE_INFERENCE_ENDPOINT")),
    new AzureKeyCredential(Environment.GetEnvironmentVariable("AZURE_INFERENCE_CREDENTIAL"))
);

Lorsque vous déployez le modèle sur un point de terminaison en ligne auto-hébergé avec prise en charge de Microsoft Entra ID, vous pouvez utiliser l’extrait de code suivant pour créer un client.

client = new ChatCompletionsClient(
    new Uri(Environment.GetEnvironmentVariable("AZURE_INFERENCE_ENDPOINT")),
    new DefaultAzureCredential(includeInteractiveCredentials: true)
);

Remarque

Actuellement, les points de terminaison d’API serverless ne prennent pas en charge l’utilisation de Microsoft Entra ID pour l’authentification.

Obtenir les fonctionnalités du modèle

L’itinéraire /info retourne des informations sur le modèle déployé sur le point de terminaison. Renvoyez les informations du modèle en appelant la méthode suivante :

Response<ModelInfo> modelInfo = client.GetModelInfo();

La réponse est comme suit :

Console.WriteLine($"Model name: {modelInfo.Value.ModelName}");
Console.WriteLine($"Model type: {modelInfo.Value.ModelType}");
Console.WriteLine($"Model provider name: {modelInfo.Value.ModelProviderName}");
Model name: Meta-Llama-3.1-405B-Instruct
Model type: chat-completions
Model provider name: Meta

Créer une requête de complétion de conversation

L’exemple suivant vous montre comment créer une requête de complétions de conversation de base sur le modèle.

ChatCompletionsOptions requestOptions = new ChatCompletionsOptions()
{
    Messages = {
        new ChatRequestSystemMessage("You are a helpful assistant."),
        new ChatRequestUserMessage("How many languages are in the world?")
    },
};

Response<ChatCompletions> response = client.Complete(requestOptions);

La réponse est la suivante, où vous pouvez voir les statistiques d’utilisation du modèle :

Console.WriteLine($"Response: {response.Value.Choices[0].Message.Content}");
Console.WriteLine($"Model: {response.Value.Model}");
Console.WriteLine("Usage:");
Console.WriteLine($"\tPrompt tokens: {response.Value.Usage.PromptTokens}");
Console.WriteLine($"\tTotal tokens: {response.Value.Usage.TotalTokens}");
Console.WriteLine($"\tCompletion tokens: {response.Value.Usage.CompletionTokens}");
Response: As of now, it's estimated that there are about 7,000 languages spoken around the world. However, this number can vary as some languages become extinct and new ones develop. It's also important to note that the number of speakers can greatly vary between languages, with some having millions of speakers and others only a few hundred.
Model: Meta-Llama-3.1-405B-Instruct
Usage: 
  Prompt tokens: 19
  Total tokens: 91
  Completion tokens: 72

Examinez la section usage dans la réponse pour voir le nombre de jetons utilisés pour l’invite, le nombre total de jetons générés et le nombre de jetons utilisés pour la complétion.

Diffuser du contenu

Par défaut, l’API de complétion retourne l’intégralité du contenu généré dans une réponse unique. Si vous générez des complétions longues, l’attente de la réponse peut durer plusieurs secondes.

Vous pouvez diffuser en continu le contenu pour l’obtenir à mesure qu’il est généré. Diffuser le contenu en continu vous permet de commencer à traiter la complétion à mesure que le contenu devient disponible. Ce mode renvoie un objet qui diffuse la réponse en tant qu’événements envoyés par le serveur contenant uniquement des données. Extrayez les blocs du champ delta, plutôt que le champ de message.

static async Task StreamMessageAsync(ChatCompletionsClient client)
{
    ChatCompletionsOptions requestOptions = new ChatCompletionsOptions()
    {
        Messages = {
            new ChatRequestSystemMessage("You are a helpful assistant."),
            new ChatRequestUserMessage("How many languages are in the world? Write an essay about it.")
        },
        MaxTokens=4096
    };

    StreamingResponse<StreamingChatCompletionsUpdate> streamResponse = await client.CompleteStreamingAsync(requestOptions);

    await PrintStream(streamResponse);
}

Pour diffuser en continu des complétions, utilisez la méthode CompleteStreamingAsync lorsque vous appelez le modèle. Notez que dans cet exemple, l’appel est encapsulé dans une méthode asynchrone.

Pour visualiser la sortie, définissez une méthode asynchrone pour imprimer le flux dans la console.

static async Task PrintStream(StreamingResponse<StreamingChatCompletionsUpdate> response)
{
    await foreach (StreamingChatCompletionsUpdate chatUpdate in response)
    {
        if (chatUpdate.Role.HasValue)
        {
            Console.Write($"{chatUpdate.Role.Value.ToString().ToUpperInvariant()}: ");
        }
        if (!string.IsNullOrEmpty(chatUpdate.ContentUpdate))
        {
            Console.Write(chatUpdate.ContentUpdate);
        }
    }
}

Vous pouvez visualiser la façon dont la diffusion en continu génère du contenu :

StreamMessageAsync(client).GetAwaiter().GetResult();

Découvrir d’autres paramètres pris en charge par le client d’inférence

Explorez d’autres paramètres que vous pouvez spécifier dans le client d’inférence. Pour obtenir la liste complète de tous les paramètres pris en charge et leur documentation correspondante, consultez Référence de l’API Inférence de modèle Azure AI.

requestOptions = new ChatCompletionsOptions()
{
    Messages = {
        new ChatRequestSystemMessage("You are a helpful assistant."),
        new ChatRequestUserMessage("How many languages are in the world?")
    },
    PresencePenalty = 0.1f,
    FrequencyPenalty = 0.8f,
    MaxTokens = 2048,
    StopSequences = { "<|endoftext|>" },
    Temperature = 0,
    NucleusSamplingFactor = 1,
    ResponseFormat = new ChatCompletionsResponseFormatText()
};

response = client.Complete(requestOptions);
Console.WriteLine($"Response: {response.Value.Choices[0].Message.Content}");

Avertissement

Les modèles Meta Llama ne prennent pas en charge la mise en forme de sortie JSON (response_format = { "type": "json_object" }). Vous pouvez toujours demander au modèle de générer des sorties JSON. Cependant, il n’est pas garanti que de telles sorties soient en JSON valide.

Si vous souhaitez transmettre un paramètre qui ne figure pas dans la liste des paramètres pris en charge, vous pouvez le transmettre au modèle sous-jacent en utilisant des paramètres supplémentaires. Consulter Transmettre des paramètres supplémentaires au modèle.

Transmettre des paramètres supplémentaires au modèle

L'API d'inférence du modèle Azure AI vous permet de transmettre des paramètres supplémentaires au modèle. L’exemple de code suivant montre comment transmettre le paramètre supplémentaire logprobs au modèle.

Avant de transmettre des paramètres supplémentaires à l’API Inférence de modèle Azure AI, assurez-vous que votre modèle prend en charge ces paramètres supplémentaires. Lorsque la requête est adressée au modèle sous-jacent, l’en-tête extra-parameters est transmis au modèle avec la valeur pass-through. Cette valeur indique au point de terminaison de transmettre les paramètres supplémentaires au modèle. L’utilisation de paramètres supplémentaires avec le modèle ne garantit pas que le modèle peut réellement les gérer. Lisez la documentation du modèle pour comprendre quels paramètres supplémentaires sont pris en charge.

requestOptions = new ChatCompletionsOptions()
{
    Messages = {
        new ChatRequestSystemMessage("You are a helpful assistant."),
        new ChatRequestUserMessage("How many languages are in the world?")
    },
    AdditionalProperties = { { "logprobs", BinaryData.FromString("true") } },
};

response = client.Complete(requestOptions, extraParams: ExtraParameters.PassThrough);
Console.WriteLine($"Response: {response.Value.Choices[0].Message.Content}");

Les paramètres supplémentaires suivants peuvent être passés aux modèles Meta Llama :

Nom Description Type
n Nombre d’achèvements à générer pour chaque invite. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
best_of Génère des complétions best_of côté serveur et retourne la meilleure d’entre elles (celle avec la probabilité logarithmique la plus faible par jeton). Les résultats ne peuvent pas être diffusés en continu. Utilisé avec n, best_of contrôle le nombre de complétions candidates et n spécifie le nombre de retours. best_of doit être supérieur à n. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
logprobs Un nombre indiquant d’inclure les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 10, l’API retourne une liste des 10 jetons les plus probables. l’API retourne toujours le logprob du jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse. integer
ignore_eos Indique s’il faut ignorer le jeton EOS et continuer à générer des jetons après la génération du jeton EOS. boolean
use_beam_search Indique s’il faut utiliser la recherche par faisceau au lieu de l’échantillonnage. Dans ce cas, best_of doit être supérieur à 1 et la température doit être 0. boolean
stop_token_ids Liste des ID pour les jetons qui, lorsqu’ils sont générés, arrêtent la génération de jetons supplémentaires. La sortie retournée contient les jetons d’arrêt, sauf si les jetons d’arrêt sont des jetons spéciaux. array
skip_special_tokens Indique s’il faut ignorer des jetons spéciaux dans la sortie. boolean

Appliquer la sécurité du contenu

L’API Inférence de modèle Azure AI prend en charge Azure AI Sécurité du Contenu. Lorsque vous utilisez des déploiements avec la sécurité du contenu Azure AI activée, les entrées et les sorties passent par un ensemble de modèles de classification visant à détecter et à empêcher la sortie de contenu dangereux. Le système de filtrage de contenu (préversion) détecte des catégories spécifiques de contenu potentiellement nuisible dans les requêtes d’entrée et les saisies semi-automatiques de sortie, et prend les mesures correspondantes.

L’exemple suivant montre comment gérer les évènements lorsque le modèle détecte du contenu dangereux dans l’invite d’entrée et que la sécurité du contenu est activée.

try
{
    requestOptions = new ChatCompletionsOptions()
    {
        Messages = {
            new ChatRequestSystemMessage("You are an AI assistant that helps people find information."),
            new ChatRequestUserMessage(
                "Chopping tomatoes and cutting them into cubes or wedges are great ways to practice your knife skills."
            ),
        },
    };

    response = client.Complete(requestOptions);
    Console.WriteLine(response.Value.Choices[0].Message.Content);
}
catch (RequestFailedException ex)
{
    if (ex.ErrorCode == "content_filter")
    {
        Console.WriteLine($"Your query has trigger Azure Content Safety: {ex.Message}");
    }
    else
    {
        throw;
    }
}

Conseil

Pour en savoir plus sur la façon dont vous pouvez configurer et contrôler les paramètres de sécurité du contenu Azure AI, consultez la documentation Azure AI Sécurité du Contenu.

Remarque

La sécurité du contenu Azure AI n’est disponible que pour les modèles déployés en tant que points de terminaison d’API serverless.

Modèles de conversation Meta Llama

Les modèles de conversation Meta Llama incluent les modèles suivants :

La collection Meta Llama 3.1 de grands modèles de langage (LLM) multilingues est une collection de modèles génératifs pré-entraînés et affinés par des instructions, disponibles en tailles 8M, 70M et 405M (texte entrant/texte sortant). Les modèles texte-uniquement affinés par instruction Llama 3.1 (8B, 70B, 405B) sont optimisés pour les cas d’usage de dialogue multilingue, et surpassent la plupart des modèles de conversation open source et fermés disponibles sur les benchmarks courants du secteur.

Les modèles suivants sont disponibles :

Prérequis

Pour utiliser des modèles Meta Llama avec Azure AI Studio, vous devez respecter les prérequis suivants :

Un modèle de déploiement

Déploiement sur des API serverless

Les modèles de conversation Meta Llama peuvent être déployés sur des points de terminaison d’API serverless avec facturation en paiement à l’utilisation. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin.

Le déploiement vers un point de terminaison API serverless ne nécessite pas de quota de votre abonnement. Si votre modèle n’est pas déjà déployé, utilisez Azure AI Studio, le kit de développement logiciel (SDK) Azure Machine Learning pour Python, l’interface de ligne de commande Azure ou les modèles ARM pour déployer le modèle en tant qu’API serverless.

Déploiement sur un calcul managé auto-hébergé

Les modèles Meta Llama peuvent être déployés sur notre solution d’inférence managée autohébergée, ce qui vous permet de personnaliser et de contrôler tous les détails relatifs à la mise à disposition du modèle.

Pour un déploiement sur un calcul managé auto-hébergé, vous devez disposer d’un quota suffisant dans votre abonnement. Si vous n’avez pas suffisamment de quota disponible, vous pouvez utiliser notre accès temporaire au quota en sélectionnant l’option Je souhaite utiliser le quota partagé et je reconnais que ce point de terminaison sera supprimé dans 168 heures.

Un client REST

Les modèles déployés avec l’API Inférence de modèle Azure AI peuvent être consommés en utilisant tout client REST. Pour utiliser le client REST, vous avez besoin des prérequis suivants :

  • Pour construire les requêtes, vous devez transmettre l’URL du point de terminaison. L’URL du point de terminaison a la forme https://your-host-name.your-azure-region.inference.ai.azure.com, où your-host-name`` is your unique model deployment host name and votre-région-azure`` est la région Azure où le modèle est déployé (par exemple, eastus2).
  • En fonction de vos préférences de modèle de déploiement et d’authentification, vous aurez besoin d’une clé pour vous authentifier auprès du service ou des informations d’identification Microsoft Entra ID. La clé est une chaîne de 32 caractères.

Travailler avec des complétions de conversation

Dans cette section, vous utilisez l’API d’inférence de modèle Azure AI avec un modèle de complétion de conversation pour les conversations.

Conseil

L’API Inférence de modèle Azure AI vous permet de communiquer avec la plupart des modèles déployés dans Azure AI Studio avec le même code et la même structure, y compris les modèles de conversation Meta Llama.

Créer un client pour consommer le modèle

Tout d’abord, créez le client pour consommer le modèle. Le code suivant utilise une URL de point de terminaison et une clé qui sont stockées dans les variables d’environnement.

Lorsque vous déployez le modèle sur un point de terminaison en ligne auto-hébergé avec prise en charge de Microsoft Entra ID, vous pouvez utiliser l’extrait de code suivant pour créer un client.

Remarque

Actuellement, les points de terminaison d’API serverless ne prennent pas en charge l’utilisation de Microsoft Entra ID pour l’authentification.

Obtenir les fonctionnalités du modèle

L’itinéraire /info retourne des informations sur le modèle déployé sur le point de terminaison. Renvoyez les informations du modèle en appelant la méthode suivante :

GET /info HTTP/1.1
Host: <ENDPOINT_URI>
Authorization: Bearer <TOKEN>
Content-Type: application/json

La réponse est comme suit :

{
    "model_name": "Meta-Llama-3.1-405B-Instruct",
    "model_type": "chat-completions",
    "model_provider_name": "Meta"
}

Créer une requête de complétion de conversation

L’exemple suivant vous montre comment créer une requête de complétions de conversation de base sur le modèle.

{
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "How many languages are in the world?"
        }
    ]
}

La réponse est la suivante, où vous pouvez voir les statistiques d’utilisation du modèle :

{
    "id": "0a1234b5de6789f01gh2i345j6789klm",
    "object": "chat.completion",
    "created": 1718726686,
    "model": "Meta-Llama-3.1-405B-Instruct",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "As of now, it's estimated that there are about 7,000 languages spoken around the world. However, this number can vary as some languages become extinct and new ones develop. It's also important to note that the number of speakers can greatly vary between languages, with some having millions of speakers and others only a few hundred.",
                "tool_calls": null
            },
            "finish_reason": "stop",
            "logprobs": null
        }
    ],
    "usage": {
        "prompt_tokens": 19,
        "total_tokens": 91,
        "completion_tokens": 72
    }
}

Examinez la section usage dans la réponse pour voir le nombre de jetons utilisés pour l’invite, le nombre total de jetons générés et le nombre de jetons utilisés pour la complétion.

Diffuser du contenu

Par défaut, l’API de complétion retourne l’intégralité du contenu généré dans une réponse unique. Si vous générez des complétions longues, l’attente de la réponse peut durer plusieurs secondes.

Vous pouvez diffuser en continu le contenu pour l’obtenir à mesure qu’il est généré. Diffuser le contenu en continu vous permet de commencer à traiter la complétion à mesure que le contenu devient disponible. Ce mode renvoie un objet qui diffuse la réponse en tant qu’événements envoyés par le serveur contenant uniquement des données. Extrayez les blocs du champ delta, plutôt que le champ de message.

{
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "How many languages are in the world?"
        }
    ],
    "stream": true,
    "temperature": 0,
    "top_p": 1,
    "max_tokens": 2048
}

Vous pouvez visualiser la façon dont la diffusion en continu génère du contenu :

{
    "id": "23b54589eba14564ad8a2e6978775a39",
    "object": "chat.completion.chunk",
    "created": 1718726371,
    "model": "Meta-Llama-3.1-405B-Instruct",
    "choices": [
        {
            "index": 0,
            "delta": {
                "role": "assistant",
                "content": ""
            },
            "finish_reason": null,
            "logprobs": null
        }
    ]
}

Le dernier message dans le flux a finish_reason défini, indiquant la raison de l’arrêt du processus de génération.

{
    "id": "23b54589eba14564ad8a2e6978775a39",
    "object": "chat.completion.chunk",
    "created": 1718726371,
    "model": "Meta-Llama-3.1-405B-Instruct",
    "choices": [
        {
            "index": 0,
            "delta": {
                "content": ""
            },
            "finish_reason": "stop",
            "logprobs": null
        }
    ],
    "usage": {
        "prompt_tokens": 19,
        "total_tokens": 91,
        "completion_tokens": 72
    }
}

Découvrir d’autres paramètres pris en charge par le client d’inférence

Explorez d’autres paramètres que vous pouvez spécifier dans le client d’inférence. Pour obtenir la liste complète de tous les paramètres pris en charge et leur documentation correspondante, consultez Référence de l’API Inférence de modèle Azure AI.

{
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "How many languages are in the world?"
        }
    ],
    "presence_penalty": 0.1,
    "frequency_penalty": 0.8,
    "max_tokens": 2048,
    "stop": ["<|endoftext|>"],
    "temperature" :0,
    "top_p": 1,
    "response_format": { "type": "text" }
}
{
    "id": "0a1234b5de6789f01gh2i345j6789klm",
    "object": "chat.completion",
    "created": 1718726686,
    "model": "Meta-Llama-3.1-405B-Instruct",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "As of now, it's estimated that there are about 7,000 languages spoken around the world. However, this number can vary as some languages become extinct and new ones develop. It's also important to note that the number of speakers can greatly vary between languages, with some having millions of speakers and others only a few hundred.",
                "tool_calls": null
            },
            "finish_reason": "stop",
            "logprobs": null
        }
    ],
    "usage": {
        "prompt_tokens": 19,
        "total_tokens": 91,
        "completion_tokens": 72
    }
}

Avertissement

Les modèles Meta Llama ne prennent pas en charge la mise en forme de sortie JSON (response_format = { "type": "json_object" }). Vous pouvez toujours demander au modèle de générer des sorties JSON. Cependant, il n’est pas garanti que de telles sorties soient en JSON valide.

Si vous souhaitez transmettre un paramètre qui ne figure pas dans la liste des paramètres pris en charge, vous pouvez le transmettre au modèle sous-jacent en utilisant des paramètres supplémentaires. Consulter Transmettre des paramètres supplémentaires au modèle.

Transmettre des paramètres supplémentaires au modèle

L'API d'inférence du modèle Azure AI vous permet de transmettre des paramètres supplémentaires au modèle. L’exemple de code suivant montre comment transmettre le paramètre supplémentaire logprobs au modèle.

Avant de transmettre des paramètres supplémentaires à l’API Inférence de modèle Azure AI, assurez-vous que votre modèle prend en charge ces paramètres supplémentaires. Lorsque la requête est adressée au modèle sous-jacent, l’en-tête extra-parameters est transmis au modèle avec la valeur pass-through. Cette valeur indique au point de terminaison de transmettre les paramètres supplémentaires au modèle. L’utilisation de paramètres supplémentaires avec le modèle ne garantit pas que le modèle peut réellement les gérer. Lisez la documentation du modèle pour comprendre quels paramètres supplémentaires sont pris en charge.

POST /chat/completions HTTP/1.1
Host: <ENDPOINT_URI>
Authorization: Bearer <TOKEN>
Content-Type: application/json
extra-parameters: pass-through
{
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "How many languages are in the world?"
        }
    ],
    "logprobs": true
}

Les paramètres supplémentaires suivants peuvent être transmis aux modèles de conversation Meta Llama :

Nom Description Type
n Nombre d’achèvements à générer pour chaque invite. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
best_of Génère des complétions best_of côté serveur et retourne la meilleure d’entre elles (celle avec la probabilité logarithmique la plus faible par jeton). Les résultats ne peuvent pas être diffusés en continu. Utilisé avec n, best_of contrôle le nombre de complétions candidates et n spécifie le nombre de retours. best_of doit être supérieur à n. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. integer
logprobs Un nombre indiquant d’inclure les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 10, l’API retourne une liste des 10 jetons les plus probables. l’API retourne toujours le logprob du jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse. integer
ignore_eos Indique s’il faut ignorer le jeton EOS et continuer à générer des jetons après la génération du jeton EOS. boolean
use_beam_search Indique s’il faut utiliser la recherche par faisceau au lieu de l’échantillonnage. Dans ce cas, best_of doit être supérieur à 1 et la température doit être 0. boolean
stop_token_ids Liste des ID pour les jetons qui, lorsqu’ils sont générés, arrêtent la génération de jetons supplémentaires. La sortie retournée contient les jetons d’arrêt, sauf si les jetons d’arrêt sont des jetons spéciaux. array
skip_special_tokens Indique s’il faut ignorer des jetons spéciaux dans la sortie. boolean

Appliquer la sécurité du contenu

L’API Inférence de modèle Azure AI prend en charge Azure AI Sécurité du Contenu. Lorsque vous utilisez des déploiements avec la sécurité du contenu Azure AI activée, les entrées et les sorties passent par un ensemble de modèles de classification visant à détecter et à empêcher la sortie de contenu dangereux. Le système de filtrage de contenu (préversion) détecte des catégories spécifiques de contenu potentiellement nuisible dans les requêtes d’entrée et les saisies semi-automatiques de sortie, et prend les mesures correspondantes.

L’exemple suivant montre comment gérer les évènements lorsque le modèle détecte du contenu dangereux dans l’invite d’entrée et que la sécurité du contenu est activée.

{
    "messages": [
        {
            "role": "system",
            "content": "You are an AI assistant that helps people find information."
        },
                {
            "role": "user",
            "content": "Chopping tomatoes and cutting them into cubes or wedges are great ways to practice your knife skills."
        }
    ]
}
{
    "error": {
        "message": "The response was filtered due to the prompt triggering Microsoft's content management policy. Please modify your prompt and retry.",
        "type": null,
        "param": "prompt",
        "code": "content_filter",
        "status": 400
    }
}

Conseil

Pour en savoir plus sur la façon dont vous pouvez configurer et contrôler les paramètres de sécurité du contenu Azure AI, consultez la documentation Azure AI Sécurité du Contenu.

Remarque

La sécurité du contenu Azure AI n’est disponible que pour les modèles déployés en tant que points de terminaison d’API serverless.

Autres exemples d’inférence

Pour d’autres exemples d’utilisation de modèles Meta Llama, consultez les exemples et tutoriels suivants :

Description Langage Exemple
Requête CURL Bash Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien
Requêtes Web Python Python Lien
Kit de développement logiciel (SDK) OpenAI (expérimental) Python Lien
LangChain Python Lien
LiteLLM Python Lien

Considérations relatives aux coûts et aux quotas pour les modèles Meta Llama déployés en tant que points de terminaison d’API serverless

Le quota est géré par déploiement. Chaque déploiement a une limite de débit de 200 000 jetons par minute et 1 000 requêtes d’API par minute. Toutefois, nous limitons actuellement un déploiement par modèle par projet. Contactez le Support Microsoft Azure si les limites de débit actuelles ne suffisent pas pour vos scénarios.

Les modèles Meta Llama déployés en tant qu’API serverless sont proposés par Meta via la Place de marché Azure et intégrés à Azure AI Studio pour être utilisés. Vous trouverez la tarification de la Place de marché Azure lors du déploiement du modèle.

Chaque fois qu’un projet s’abonne à une offre donnée à partir de la Place de marché Azure, une nouvelle ressource est créée pour suivre les coûts associés à sa consommation. La même ressource est utilisée pour suivre les coûts associés à l’inférence; plusieurs compteurs sont cependant disponibles pour suivre chaque scénario indépendamment.

Pour plus d’informations sur le suivi des coûts, consultez Surveiller les coûts des modèles proposés via la Place de marché Azure.

Considérations relatives aux coûts et aux quotas pour les modèles Meta Llama déployés sur le calcul managé

Les modèles Meta Llama déployés sur un calcul managé sont facturés en fonction des heures cœur de l’instance de calcul associée. Le coût de l’instance de calcul est déterminé par la taille de l’instance, le nombre d’instances en cours d’exécution et la durée d’exécution.

Il est recommandé de commencer par un nombre d’instances peu élevé et d’effectuer un scale-up si nécessaire. Vous pouvez surveiller le coût de l’instance de calcul dans le Portail Azure.