Partager via


Vue d’ensemble de l’orchestrateur Microsoft 365 Copilot

Microsoft 365 Copilot est votre assistant personnel pour le travail. Il aide à effectuer diverses tâches générales, telles que l’écriture, la synthèse, la recherche, etc. Copilot a des compétences différentes qui correspondent à ces différents types de tâches. Par exemple, Copilot peut résumer les éléments d’action d’une réunion, suggérer des modifications à un fichier ou rechercher des ressources et des experts sur un sujet donné dans votre organization. Chaque compétence a ses propres paramètres et sorties qui sont adaptés à la tâche spécifique.

Comme tout copilote, Microsoft 365 Copilot est entraîné avec des données à un moment donné. Pour récupérer et traiter des informations nouvelles et en temps réel, en particulier des données spécifiques à vos organization et workflows, les agents ont besoin de plug-ins. Les plug-ins au sein d’un agent étendent les compétences et l’utilité de Microsoft 365 Copilot pour les utilisateurs finaux, ce qui lui permet de choisir la compétence appropriée à partir de son répertoire complet.

Mais comment votre agent sait-il quelle compétence utiliser lorsque vous demandez de l’aide ? Comment interprète-t-il votre demande et la met-elle en correspondance avec la meilleure compétence disponible ? C’est le travail de l’orchestrateur Microsoft 365 Copilot.

Cet article explique la logique derrière le processus de sélection des compétences de Copilot et comment vous pouvez vous assurer que Copilot utilise le plug-in approprié de votre agent à chaque occasion pour bénéficier à vos utilisateurs.

Importante

  • Les plug-ins d’API sont actuellement uniquement pris en charge en tant qu’actions au sein d’agents déclaratifs. Ils ne sont pas activés dans Microsoft 365 Copilot. Pour obtenir un exemple montrant comment ajouter un plug-in d’API à un agent déclaratif, consultez Ajouter un plug-in.
  • La fonctionnalité est activée par défaut dans tous les locataires sous licence Microsoft 365 Copilot. Les administrateurs peuvent désactiver cette fonctionnalité sur une base d’utilisateur et de groupe et contrôler la façon dont les plug-ins individuels sont approuvés pour l’utilisation et quels plug-ins sont activés. Pour plus d’informations, consultez Gérer les agents dans les applications intégrées.

Orchestrateur Copilot

Entre l’entrée en langage naturel de l’utilisateur et la sortie en langage naturel de Copilot, l’orchestrateur Copilot travaille en arrière-plan pour sélectionner et exécuter les compétences appropriées à partir des plug-ins appropriés pour la tâche de l’utilisateur.

La couche d’orchestration représente l’interface entre les modèles LLM (Large Language Models) de base et les nombreuses façons dont vous pouvez étendre, enrichir et personnaliser Copilot en fonction de la façon dont vos clients travaillent.

Diagramme de la couche d’orchestration IA, située entre les options d’extensibilité Copilot et la pile Microsoft AI Cloud (modèles de base, vos données, infrastructure IA)

Le diagramme suivant illustre la façon dont l’orchestrateur de Microsoft 365 Copilot sélectionne le plug-in approprié, avec la compétence appropriée, au bon moment, même s’il existe plusieurs options à choisir.

Illustration visuelle des étapes séquentielles dans le texte qui suit cette image.

  1. Entrée en langage naturel : l’utilisateur envoie une requête à votre agent, telle que « Quels sont les tickets qui m’ont été attribués pour l’instant ? »

  2. Vérifications préliminaires : Copilot effectue plusieurs vérifications sur la requête, notamment des vérifications d’IA responsable et des mesures de sécurité pour s’assurer qu’elle ne présente aucun risque. Si la requête échoue à l’une de ces vérifications, Copilot met fin à l’interaction.

  3. Raisonnement : l’orchestrateur Copilot formule un plan composé de plusieurs actions qu’il effectue dans le but de répondre à l’invite de l’utilisateur.

    1. Sélection du contexte et de l’outil : l’orchestrateur récupère le contexte de conversation de l’utilisateur à partir du magasin de contexte et intègre les données de Microsoft Graph pour affiner le contexte. Il ajuste ensuite la requête initiale en fonction de ce contexte mis à jour et la transfère au LLM (modèle de langage volumineux) pour guider les étapes suivantes.

      Le LLM peut continuer à générer une réponse à l’aide des fonctionnalités intégrées de Copilot, ou il peut déterminer que des données supplémentaires sont nécessaires.

      Si des informations supplémentaires sont nécessaires, l’orchestrateur effectue une recherche des plug-ins (outils) avec la compétence appropriée pour la tâche à partir des plug-ins activés de l’agent en fonction des descriptions des plug-ins et de leurs fonctions.

    2. Correspondance de fonction et détermination des paramètres : l’orchestrateur formule une nouvelle invite qui incorpore la requête initiale de l’utilisateur, le contexte mis à jour et les plug-ins sélectionnés, et la présente au LLM. Le LLM évalue l’entrée et spécifie le plug-in et la fonction optimaux dans ce plug-in pour traiter la tâche. Il fournit ensuite à l’orchestrateur les détails de la fonction et les paramètres nécessaires pour collecter les informations nécessaires.

    3. Initiation de l’outil : l’orchestrateur utilise la réponse du LLM pour construire une demande d’API et envoyer la requête à l’initiateur de l’outil, qui récupère en toute sécurité les informations demandées situées en dehors de l’infrastructure de Copilot. Il exécute la requête et renvoie les résultats à l’orchestrateur pour un traitement ultérieur.

    4. Analyse des résultats et formulation de la réponse : l’orchestrateur intègre la réponse de l’API dans le contexte en cours et consulte le LLM dans une boucle de raisonnement continue jusqu’à ce que le LLM juge approprié pour générer une réponse finale.

  4. Réponse : l’orchestrateur compile toutes les informations collectées pendant le processus de raisonnement et les soumet au LLM pour créer une réponse finale. Après s’être assuré que la réponse est conforme aux instructions d’IA responsable, elle renvoie la réponse à l’orchestrateur, qui la consigne dans le magasin de contexte et la remet à l’utilisateur via l’interface utilisateur Copilot.

  5. Sortie en langage naturel : Enfin, l’orchestrateur fournit la réponse à l’utilisateur et met à jour l’état de la conversation. Copilot est prêt pour sa prochaine invite.

Comment l’orchestrateur de Copilot met en correspondance les plug-ins aux requêtes utilisateur

Lorsqu’un utilisateur envoie une requête à votre agent, l’orchestrateur recherche le catalogue complet de compétences (fonctions) de l’agent à partir des plug-ins installés pour identifier jusqu’à cinq compétences qui correspondent le mieux à la requête. L’orchestrateur tente d’abord de faire correspondre des mots exacts (correspondance lexicale) et étend son étendue de recherche en fonction des besoins pour inclure des correspondances sur des significations descriptives (correspondance sémantique), allant des noms de fonctions spécifiques aux descriptions de plug-in générales, jusqu’à ce que les cinq emplacements candidats de fonction soient remplis. Plus précisément, la liste suivante montre la hiérarchie des mécanismes de correspondance pour la sélection des fonctions de plug-in Copilot :

  1. Correspondance lexicale sur le nom de la fonction.
  2. Correspondance sémantique sur la description de la fonction.
  3. Correspondance lexicale sur le nom du plug-in (ajoute toutes les fonctions de plug-in à la liste des candidats).
  4. Correspondance sémantique sur le nom du plug-in (ajoute toutes les fonctions de plug-in à la liste des candidats).

L’orchestrateur fonctionne dans cette liste jusqu’à ce que les cinq emplacements candidats de fonction soient remplis.

Consultez les instructions de validation pour les agents pour en savoir plus sur l’écriture de bonnes descriptions afin de vous assurer que Copilot choisit la compétence appropriée pour chaque requête utilisateur à votre agent.