Partager via


FAQ sur les agents déclaratifs

Ce FAQ répond aux questions courantes sur les agents déclaratifs pour les Microsoft 365 Copilot, leurs utilisations prévues et la façon dont ils sont évalués.

Que sont les agents déclaratifs ?

Les agents déclaratifs sont des versions personnalisées de Microsoft 365 Copilot qui permettent aux clients de créer des expériences personnalisées qui s’exécutent dans Microsoft 365 Copilot. Cette fonctionnalité s’appuie sur le système Microsoft 365 Copilot. Les utilisateurs peuvent créer des agents déclaratifs avec des fonctionnalités et des instructions qui définissent l’objectif et le comportement de l’agent. Les utilisateurs peuvent également ajouter l’option permettant d’accéder aux connaissances de l’entreprise (y compris les connecteurs SharePoint et Microsoft Graph). Pour en savoir plus, consultez Agents déclaratifs pour Microsoft 365.

Que peuvent faire les agents déclaratifs ?

Les agents déclaratifs fournissent une expérience de conversation personnalisée sans qu’il soit nécessaire d’écrire du code impératif. Ils peuvent être créés et utilisés en privé ou publiés pour les mettre à la disposition d’autres utilisateurs. Les utilisateurs peuvent voir les agents déclaratifs dans le panneau de droite dans Microsoft 365 Copilot et dans les expériences Copilot dans Teams, Word et PowerPoint.

Quelles sont les utilisations prévues des agents déclaratifs ?

Les agents déclaratifs fournissent une expérience de conversation personnalisée basée sur la puissance de Microsoft 365 Copilot. Les utilisateurs sont familiarisés avec l’idée de demander à un expert ; dotés d’instructions, de connecteurs et d’actions appropriés, les agents déclaratifs peuvent devenir des experts avec un minimum d’efforts de développement.

Pour plus d’informations sur la façon dont vous pouvez personnaliser vos agents déclaratifs, consultez Agents déclaratifs pour Microsoft 365.

Comment les agents déclaratifs ont-ils été évalués ? Quelles métriques sont utilisées pour mesurer les performances ?

Toutes les fonctionnalités de génération de réponse des agents sont testées, mesurées et validées en interne avant d’être publiées. Ces évaluations sont effectuées à l’aide d’expérimentations étendues pour garantir des réponses précises, ancrées et responsables qui s’alignent sur les préférences humaines.

Pour chaque fonctionnalité prise en charge dans les agents déclaratifs, nous effectuons plusieurs tests pour valider Microsoft 365 Copilot. En plus de toutes les fonctionnalités associées Microsoft 365 Copilot, des tests d’IA responsable (RAI) ont été effectués sur différents types de dommages pour évaluer les taux de défauts. Les scores de défaut sont ensuite utilisés pour améliorer le modèle et atténuer les dommages. Il est important de garder à l’esprit que le système a été conçu pour imiter la communication humaine naturelle, mais la sortie peut être inexacte, incorrecte ou obsolète.

Quelles sont les limitations des agents déclaratifs et comment les utilisateurs peuvent-ils réduire les effets ?

Les clauses d’exclusion de responsabilité avec conditions et engagements en matière de confidentialité pour les utilisateurs apparaissent sur la page d’accueil de chaque agent déclaratif. Pour les développeurs métier et les administrateurs informatiques, les solutions d’extensibilité Copilot sont gérées dans le Centre Administration Microsoft. Pour plus d’informations sur la façon dont Microsoft 365 Copilot utilise, protège et partage les informations organisationnelles pour favoriser l’extensibilité, consultez Données, confidentialité et sécurité pour Microsoft 365 Copilot.