Guide concernant l’intégration et l’utilisation responsable de Personalizer
Important
À compter du 20 septembre 2023, vous ne pourrez pas créer de ressources Personalizer. Le service Personalizer est mis hors service le 1er octobre 2026.
Microsoft œuvre pour aider les clients à développer et déployer des solutions de manière responsable en utilisant Azure AI Personalizer. Notre approche de principe reconnaît le bien-fondé de l’action et de la dignité personnelles en tenant compte des caractéristiques suivantes du système d’IA :
- Impartialité, fiabilité et sécurité.
- Confidentialité et sécurité.
- Caractère inclusif.
- Transparence.
- Responsabilité humaine.
Ces considérations reflètent notre engagement à développer une IA responsable.
Recommandations générales pour les principes d’intégration et d’utilisation responsable
Quand vous êtes prêt à intégrer et utiliser de manière responsable des produits ou des fonctionnalités basés sur l’IA, les activités suivantes vous aideront à vous préparer au mieux :
Comprenez les avantages que vous pouvez en tirer. Mesurez pleinement le potentiel de Personalizer pour comprendre ses capacités et ses limites. Découvrez comment il s’exécutera dans votre cas et votre contexte particuliers en le testant minutieusement dans des conditions et avec des données réelles.
Respectez le droit à la vie privée des personnes. Collectez uniquement les données et les informations des personnes à des fins légitimes et justifiables. Utilisez uniquement les données et les informations que vous êtes autorisé à utiliser à cette fin.
Bénéficiez d’un examen juridique. Obtenez des conseils juridiques appropriés pour examiner Personalizer et voir comment vous l’utilisez dans votre solution, en particulier si vous prévoyez de l’utiliser dans des applications sensibles ou à haut risque. Cernez les restrictions sur lesquelles vous pourriez avoir besoin de travailler ainsi que votre responsabilité à résoudre les problèmes susceptibles de se présenter dans l’avenir.
Mettez un humain dans la boucle. Prévoyez une surveillance humaine systématique à des fins d’exploration. Assurez une surveillance humaine constante du produit ou de la fonctionnalité basée sur l’IA. Préservez le rôle des humains dans le processus décisionnel. Veillez à pouvoir faire appel à une intervention humaine en temps réel dans la solution pour éviter des dommages et gérer les situations où le système d’IA ne fonctionne pas comme prévu.
Instaurez un climat de confiance avec les parties prenantes concernées. Communiquez les avantages attendus et les risques potentiels aux parties prenantes concernées. Aidez les utilisateurs à comprendre pourquoi les données sont nécessaires et en quoi l’utilisation des données leur sera profitable. Expliquez comment les données sont traitées de manière compréhensible.
Créez une boucle de retour d’information client. Prévoyez un canal de retour d’information qui permet aux utilisateurs et aux individus de signaler les problèmes qu’ils rencontrent au niveau du service une fois celui-ci déployé. Après avoir déployé un produit ou une fonctionnalité basée sur l’IA, il convient de mettre en place une surveillance constante et d’apporter des améliorations. Soyez prêt à implémenter les retours et les suggestions d’amélioration. Établissez des canaux pour recueillir les questions et les préoccupations des parties prenantes concernées. Parmi les personnes susceptibles d’être affectées de manière directe ou indirecte par le système figurent les employés, les visiteurs et le grand public.
Retour d’information : sollicitez un retour d’information auprès d’un échantillon diversifié de la communauté pendant le processus de développement et d’évaluation (par exemple, des groupes historiquement marginalisés, des personnes handicapées et des travailleurs du service). Pour plus d’informations, consultez Jury communautaire.
Étude utilisateur : les recommandations de consentement ou de divulgation doivent être exprimées dans une étude utilisateur. Évaluez l’expérience de première utilisation et d’utilisation continue avec un échantillon représentatif de la communauté pour vérifier que les choix de conception aboutissent à une divulgation efficace. Procédez à une recherche utilisateur auprès de 10 à 20 membres de la communauté (parties prenantes concernées) pour évaluer leur compréhension de l’information et déterminer si leurs attentes sont satisfaites.
Transparence et explication : envisagez d’activer et d’utiliser la capacité d’explication d’inférence de Personalizer pour mieux comprendre les fonctionnalités qui jouent un rôle important dans le choix de décision dans chaque appel de classement de Personalizer. Cette capacité vous permet de fournir à vos utilisateurs une transparence quant à la façon dont leurs données ont joué un rôle dans la production de la meilleure action recommandée. Par exemple, vous pouvez fournir à vos utilisateurs un bouton nommé « Pourquoi ces suggestions ? » qui présente les principales caractéristiques qui ont joué un rôle dans la génération des résultats de Personalizer. Ces informations peuvent également être utilisées pour mieux comprendre quels attributs de données sur vos utilisateurs, contextes et actions fonctionnent en faveur du choix de la meilleure action de Personalizer, qui fonctionnent contre elle et qui peuvent avoir peu ou pas d’effet. Cette capacité peut également fournir des informations sur vos segments d’utilisateurs et vous aider à identifier et à résoudre les biais potentiels.
Utilisation contradictoire : envisagez d’établir un processus destiné à détecter une manipulation malveillante et à agir en fonction. Il existe des acteurs qui tireront profit de la capacité des systèmes de Machine Learning et d’intelligence artificielle à apprendre de leur environnement. À travers des attaques coordonnées, ils peuvent simuler artificiellement des modèles de comportement qui détournent les modèles de données et d’IA de leur utilisation au service de leurs objectifs. Si votre utilisation de Personalizer est susceptible d’influencer des choix importants, veillez à disposer des moyens permettant de détecter et de déjouer ces types d’attaque.
Refuser : envisagez de fournir un contrôle aux utilisateurs pour refuser de recevoir des recommandations personnalisées. Pour ces utilisateurs, l’API Personalizer Rank ne sera pas appelée à partir de votre application. Au lieu de cela, votre application peut utiliser un autre mécanisme pour décider de l’action entreprise. Par exemple, en désengageant les recommandations personnalisées et en choisissant l’action par défaut ou de base, l’utilisateur subirait l’action qui serait effectuée sans la recommandation de Personalizer. Votre application peut également utiliser des recommandations basées sur des mesures agrégées ou basées sur la population (par exemple, tendance, 10 plus populaires, etc.).
Votre responsabilité
Toutes les instructions pour une implémentation responsable reposent sur la base selon laquelle les développeurs et les entreprises utilisant Personalizer sont responsables des effets de l’utilisation de ces algorithmes dans la société. Si vous développez une application destinée à être déployée par votre organisation, vous devez reconnaître votre rôle et votre responsabilité dans son fonctionnement et comment elle affecte les utilisateurs. Si vous concevez une application destinée à être déployée par un tiers, vous devez définir d’un commun accord qui sera finalement responsable du comportement de l’application. Veillez à documenter cet accord.
Questions et commentaires
Microsoft met constamment à niveau ses outils et sa documentation pour vous aider à vous conformer à ces responsabilités. Notre équipe vous invite à envoyer des commentaires à Microsoft si vous pensez que d’autres outils, fonctionnalités de produit et documentations pourraient vous aider à mettre en œuvre ces recommandations pour utiliser Personalizer.
Lectures recommandées
- Consultez les six principes de Microsoft pour le développement responsable de l’intelligence artificielle publiés dans l’ouvrage de janvier 2018, The Future Computed.
Étapes suivantes
Comprendre comment l’API Personalizer reçoit les fonctionnalités : Fonctionnalités : action et contexte