Partager via


Confidentialité, sécurité et utilisation responsable de Copilot dans Fabric

Avant de commencer à utiliser Copilot dans Fabric, vous avez peut-être des questions sur son fonctionnement, sur la façon dont elle protège vos données métier et respecte les exigences de confidentialité, et comment utiliser l’IA générative de manière responsable.

Cet article fournit des réponses aux questions courantes relatives à la sécurité et à la confidentialité des données métiers pour aider votre organisation à bien démarrer avec Copilot dans Fabric. L’article Confidentialité, sécurité et utilisation responsable de Copilot dans Power BI (préversion) fournit une vue d’ensemble de Copilot dans Power BI. Lisez la suite pour obtenir plus d’informations sur Copilot pour Fabric.

Remarque

Vos données métier sont sécurisées

  • Les fonctionnalités de Copilot utilisent Azure OpenAI Service, qui est entièrement contrôlé par Microsoft. Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients.
  • Vous conservez le contrôle sur l’endroit où vos données sont traitées. Les données traitées par Copilot dans Fabric restent dans la région géographique de votre locataire, sauf si vous autorisez explicitement le traitement des données en dehors de votre région, par exemple, pour permettre à vos utilisateurs d’utiliser Copilot quand Azure OpenAI n’est pas disponible dans votre région ou que la disponibilité est limitée en raison d’une forte demande. En savoir plus sur les paramètres d’administration pour Copilot.
  • Copilot ne stocke pas vos données pour la surveillance de la mauvaise utilisation. Pour renforcer la confidentialité et la confiance, nous avons modifié notre approche de la surveillance des mauvaises utilisations : auparavant, nous conservions les données de Copilot dans Fabric, contenant des entrées et des sorties rapides, pendant une période maximale de 30 jours pour vérifier l'absence de mauvaise utilisation ou d'utilisation abusive. Suite aux commentaires de nos clients, nous avons supprimé cette période de rétention de 30 jours. Aujourd'hui, nous ne stockons plus de données liées à la rapidité d'exécution, ce qui témoigne de notre engagement inébranlable en faveur de la confidentialité et de la sécurité.

Vérifiez les sorties Copilot avant de les utiliser

  • Les réponses Copilot peuvent inclure du contenu incorrect ou de faible qualité. Veillez donc à passer en revue les sorties avant de les utiliser dans votre travail.
  • Les personnes capables d’évaluer de manière significative la précision et l’adéquation du contenu doivent passer en revue les sorties.
  • Aujourd’hui, les fonctionnalités de Copilot fonctionnent mieux dans la langue anglaise. D’autres langues peuvent ne pas fonctionner aussi bien.

Important

Passez en revue les conditions d’évaluation supplémentaires pour Fabric, qui incluent les conditions d’utilisation pour les préversions du service IA de Microsoft Générative.

Comment Copilot fonctionne

Dans cet article, Copilot fait référence à une gamme de fonctionnalités et de fonctionnalités d’IA génératives dans Fabric qui sont alimentées par Azure OpenAI Service.

En général, ces fonctionnalités sont conçues pour générer du langage naturel, du code ou d’autres contenus en fonction des éléments suivants :

(a) entrées que vous fournissezet,

(b) données de base auxquelles la fonctionnalité a accès.

Par exemple, Power BI, Data Factory et Science des données offrent des conversations Copilot où vous pouvez poser des questions et obtenir des réponses contextuelles sur vos données. Copilot pour Power BI peut également créer des rapports et d’autres visualisations. Copilot pour Data Factory peut transformer vos données et expliquer les étapes appliquées. Science des données offre des fonctionnalités Copilot en dehors du volet de conversation, telles que les commandes magiques IPython personnalisées dans les notebooks. Les conversations Copilot peuvent être ajoutées à d’autres expériences dans Fabric, ainsi que d’autres fonctionnalités qui sont alimentées par Azure OpenAI sous le capot.

Ces informations sont envoyées au service Azure OpenAI, où elles sont traitées et qu’une sortie est générée. Par conséquent, les données traitées par Azure OpenAI peuvent inclure :

Les données de base peuvent inclure une combinaison de schéma de jeu de données, de points de données spécifiques et d’autres informations pertinentes pour la tâche actuelle de l’utilisateur. Passez en revue chaque section d’expérience pour plus d’informations sur les données accessibles aux fonctionnalités de Copilot dans ce scénario.

Les interactions avec Copilot sont spécifiques à chaque utilisateur. Cela signifie que Copilot ne peut accéder qu’aux données auxquelles l’utilisateur actuel a l’autorisation d’accéder, et ses sorties sont visibles uniquement pour cet utilisateur, sauf si cet utilisateur partage la sortie avec d’autres personnes, telles que le partage d’un rapport Power BI généré ou le code généré. Copilot n’utilise pas de données provenant d’autres utilisateurs du même locataire ou d’autres locataires.

Copilot utilise Azure OpenAI, et non les services OpenAI disponibles publiquement, pour traiter toutes les données, notamment les entrées utilisateur, les données de base et les sorties Copilot. Copilot utilise actuellement une combinaison de modèles GPT, y compris GPT 3.5. Microsoft héberge les modèles OpenAI dans l’environnement Microsoft Azure et le service n’interagit pas avec les services OpenAI, tels que ChatGPT ou l’API OpenAI. Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients. En savoir plus sur Azure OpenAI.

Le processus Copilot

Ces fonctionnalités suivent le même processus général :

  1. Copilot reçoit une invite d’un utilisateur. Cette invite peut être sous la forme d’une question que l’utilisateur tape dans un volet de conversation ou sous la forme d’une action telle que la sélection d’un bouton qui indique « Créer un rapport ».
  2. Copilot prétraite l’invite par le biais d’une approche appelée de fondement. Selon le scénario, cela peut inclure la récupération de données pertinentes telles que le schéma de jeu de données ou l’historique des conversations à partir de la session actuelle de l’utilisateur avec Copilot. La mise en place améliore la spécificité de l’invite, de sorte que l’utilisateur obtient des réponses pertinentes et exploitables pour leur tâche spécifique. La récupération des données est limitée aux données accessibles à l’utilisateur authentifié en fonction de ses autorisations. Consultez la section Quelles données Copilot utilisent-elles et comment sont-elles traitées ? dans cet article pour plus d’informations.
  3. Copilot prend la réponse d’Azure OpenAI et la post-processe. Selon le scénario, ce post-traitement peut inclure des vérifications d’IA responsables, un filtrage avec modération de contenu Azure ou des contraintes supplémentaires propres à l’entreprise.
  4. Copilot retourne une réponse à l’utilisateur sous la forme d’un langage naturel, d’un code ou d’un autre contenu. Par exemple, une réponse peut se trouver sous la forme d’un message de conversation ou d’un code généré, ou il peut s’agir d’un formulaire contextuel approprié tel qu’un rapport Power BI ou une cellule de notebook Synapse.
  5. L’utilisateur passe en revue la réponse avant de l’utiliser. Les réponses Copilot peuvent inclure du contenu incorrect ou de faible qualité. Il est donc important pour les experts en matière de vérifier les sorties avant de les utiliser ou de les partager.

Tout comme chaque expérience de Fabric est conçue pour certains scénarios et personnages, des ingénieurs données aux analystes de données, chaque fonctionnalité Copilot dans Fabric a également été créée avec des scénarios uniques et des utilisateurs à l’esprit. Pour connaître les fonctionnalités, les utilisations prévues et les limitations de chaque fonctionnalité, consultez la section relative à l’expérience dans laquelle vous travaillez.

Définitions

Invite ou entrée

Texte ou action envoyé à Copilot par un utilisateur. Cela peut être sous la forme d’une question que l’utilisateur tape dans un volet de conversation ou sous la forme d’une action telle que la sélection d’un bouton qui indique « Créer un rapport ».

Mise à la terre

Technique de prétraitement où Copilot récupère des données supplémentaires contextuelles à l’invite de l’utilisateur, puis envoie ces données avec l’invite de l’utilisateur à Azure OpenAI afin de générer une réponse plus pertinente et exploitable.

Réponse ou sortie

Contenu retourné par Copilot à un utilisateur. Par exemple, une réponse peut être sous la forme d’un message de conversation ou d’un code généré, ou il peut s’agir d’un contenu approprié dans le contexte, tel qu’un rapport Power BI ou une cellule de notebook Synapse.

Quelles données Copilot utilisent-elles et comment sont-elles traitées ?

Pour générer une réponse, Copilot utilise :

  • Invite ou entrée de l’utilisateur et, le cas échéant,
  • Des données supplémentaires récupérées via le processus de base.

Ces informations sont envoyées au service Azure OpenAI, où elles sont traitées et qu’une sortie est générée. Par conséquent, les données traitées par Azure OpenAI peuvent inclure :

  • Invite ou entrée de l’utilisateur.
  • Mise à la base des données.
  • Réponse ou sortie de l’IA.

Les données de base peuvent inclure une combinaison de schéma de jeu de données, de points de données spécifiques et d’autres informations pertinentes pour la tâche actuelle de l’utilisateur. Passez en revue chaque section d’expérience pour plus d’informations sur les données accessibles aux fonctionnalités de Copilot dans ce scénario.

Les interactions avec Copilot sont spécifiques à chaque utilisateur. Cela signifie que Copilot ne peut accéder qu’aux données auxquelles l’utilisateur actuel a l’autorisation d’accéder, et ses sorties sont visibles uniquement pour cet utilisateur, sauf si cet utilisateur partage la sortie avec d’autres personnes, telles que le partage d’un rapport Power BI généré ou le code généré. Copilot n’utilise pas de données provenant d’autres utilisateurs du même locataire ou d’autres locataires.

Copilot utilise Azure OpenAI, et non les services, publiquement disponibles pour traiter toutes les données, y compris les entrées utilisateur, les données de terre et les productions Copilot. Copilot utilise actuellement une combinaison de modèles GPT, y compris GPT 3.5. Microsoft héberge les modèles OpenAI dans l’environnement Azure de Microsoft et le service n’interagit pas avec les services OpenAI (par exemple, ChatGPT ou l’API OpenAI). Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients. En savoir plus sur Azure OpenAI.

Résidence et conformité des données

Vous conservez le contrôle sur l’endroit où vos données sont traitées. Les données traitées par Copilot dans Fabric restent dans la région géographique de votre locataire, sauf si vous autorisez explicitement le traitement des données en dehors de votre région, par exemple, pour permettre à vos utilisateurs d’utiliser Copilot quand Azure OpenAI n’est pas disponible dans votre région ou que la disponibilité est limitée en raison d’une forte demande. (Consultez où Azure OpenAI est actuellement disponible.)

Pour autoriser le traitement des données ailleurs, votre administrateur peut activer le paramètre Données envoyées à Azure OpenAI peut être traité en dehors de la région géographique, de la limite de conformité ou de l’instance de cloud nationale de votre locataire. En savoir plus sur les paramètres d’administration pour Copilot.

Que dois-je savoir pour utiliser Copilot de manière responsable ?

Microsoft s’engage à s’assurer que nos systèmes IA sont guidés par nos principes d’IA et Standard d’IA responsable. Ces principes incluent la possibilité pour nos clients d’utiliser ces systèmes efficacement et conformément à leurs utilisations prévues. Notre approche de l’IA responsable évolue continuellement pour résoudre de manière proactive les problèmes émergents.

Les fonctionnalités de Copilot dans Fabric sont conçues pour répondre à la norme d’IA responsable, ce qui signifie qu’elles sont examinées par des équipes multidisciplinaires pour les dommages potentiels, puis affinées pour inclure des atténuations pour ces dommages.

Avant d’utiliser Copilot, gardez à l’esprit les limitations de Copilot :

  • Les réponses Copilot peuvent inclure du contenu incorrect ou de faible qualité. Veillez donc à passer en revue les sorties avant de les utiliser dans votre travail.
  • Les personnes capables d’évaluer de manière significative la précision et l’adéquation du contenu doivent passer en revue les sorties.
  • Actuellement, les fonctionnalités de Copilot fonctionnent mieux dans la langue anglaise. D’autres langues peuvent ne pas fonctionner aussi bien.

Copilot pour les charges de travail Fabric

Confidentialité, sécurité et utilisation responsable pour :