Exploiter une solution d’IA générative responsable
Après avoir identifié des dommages potentiels, développé un moyen permettant de mesurer leur présence et implémenté des atténuations pour chacun d’eux dans votre solution, vous pouvez préparer la mise en circulation de votre solution. Mais avant de vous lancer, vous devez considérer certains points qui vous aideront à garantir votre publication et vos opérations ultérieures.
Terminer les revues préliminaires
Avant de publier une solution d’IA générative, identifiez les différentes exigences de conformité à l’échelle de votre organisation et de votre secteur d’activité et vérifiez que les équipes appropriées ont la possibilité de passer en revue le système et sa documentation. Voici quelques revues de conformité courantes :
- Informations juridiques
- Confidentialité
- Sécurité
- Accessibilité
Publier et exploiter la solution
Une publication réussie nécessite des tâches de planification et de préparation. Tenez compte des recommandations suivantes :
- Concevez un plan de livraison par phases qui vous permet de publier initialement votre solution à l’attention d’un groupe restreint d’utilisateurs. Vous pourrez ainsi recueillir des commentaires et identifier les problèmes avant d’étendre la publication à un public plus large.
- Créez un plan de réponse aux incidents qui comprend des estimations du temps nécessaire pour répondre aux incidents imprévus.
- Créez un plan de restauration qui définit les étapes à effectuer pour rétablir l’état précédent de la solution en cas d’incident.
- Implémentez une fonctionnalité permettant de bloquer immédiatement les réponses dangereuses du système après leur découverte.
- Implémentez une fonctionnalité permettant de bloquer des utilisateurs, des applications ou des adresses IP de clients spécifiques en cas d’utilisation incorrecte du système.
- Implémentez un moyen pour permettre aux utilisateurs de fournir des commentaires et de signaler des problèmes. En particulier, donnez aux utilisateurs la possibilité d’indiquer si le contenu généré est « inexact », « incomplet », « dangereux », « offensant » ou autrement problématique.
- Suivez les données de télémétrie pour déterminer la satisfaction des utilisateurs et identifier des lacunes fonctionnelles ou des difficultés d’utilisation. Les données de télémétrie collectées doivent être conformes aux lois sur la confidentialité et aux politiques et engagements de votre propre organisation en matière de confidentialité des utilisateurs.
Utiliser Azure AI Sécurité du Contenu
Plusieurs ressources Azure AI fournissent une analyse intégrée du contenu avec lequel elles fonctionnent, notamment Language, Vision et Azure OpenAI à l’aide de filtres de contenu.
Azure AI Sécurité du Contenu offre davantage de fonctionnalités qui se concentrent sur la protection de l’IA et des copilotes contre les risques. Il s’agit notamment de détecter tout langage inapproprié ou offensant, qu’il provienne d’une entrée ou qu’il soit généré, et de détecter les entrées risquées ou inappropriées.
Les fonctionnalités d’Azure AI Sécurité du Contenu comprennent :
Fonctionnalité | Fonctionnalités |
---|---|
Boucliers d’invite | Analyse du risque d’attaques d’entrée utilisateur sur les modèles de langage |
Détection de la base | Détecte si les réponses de texte sont ancrées dans le contenu source d’un utilisateur |
Détection de matériel protégé | Recherche le contenu protégé par copyright connu |
Catégories personnalisées | Définition des catégories personnalisées pour tous les modèles nouveaux ou émergents |
Vous trouverez des détails et des guides de démarrage rapide pour l’utilisation d’Azure AI Sécurité du Contenu dans les pages de documentation du service.