Exploiter une solution d’IA générative responsable

Effectué

Après avoir identifié des dommages potentiels, développé un moyen permettant de mesurer leur présence et implémenté des atténuations pour chacun d’eux dans votre solution, vous pouvez préparer la mise en circulation de votre solution. Mais avant de vous lancer, vous devez considérer certains points qui vous aideront à garantir votre publication et vos opérations ultérieures.

Terminer les revues préliminaires

Avant de publier une solution d’IA générative, identifiez les différentes exigences de conformité à l’échelle de votre organisation et de votre secteur d’activité et vérifiez que les équipes appropriées ont la possibilité de passer en revue le système et sa documentation. Voici quelques revues de conformité courantes :

  • Informations juridiques
  • Confidentialité
  • Sécurité
  • Accessibilité

Publier et exploiter la solution

Une publication réussie nécessite des tâches de planification et de préparation. Tenez compte des recommandations suivantes :

  • Concevez un plan de livraison par phases qui vous permet de publier initialement votre solution à l’attention d’un groupe restreint d’utilisateurs. Vous pourrez ainsi recueillir des commentaires et identifier les problèmes avant d’étendre la publication à un public plus large.
  • Créez un plan de réponse aux incidents qui comprend des estimations du temps nécessaire pour répondre aux incidents imprévus.
  • Créez un plan de restauration qui définit les étapes à effectuer pour rétablir l’état précédent de la solution en cas d’incident.
  • Implémentez une fonctionnalité permettant de bloquer immédiatement les réponses dangereuses du système après leur découverte.
  • Implémentez une fonctionnalité permettant de bloquer des utilisateurs, des applications ou des adresses IP de clients spécifiques en cas d’utilisation incorrecte du système.
  • Implémentez un moyen pour permettre aux utilisateurs de fournir des commentaires et de signaler des problèmes. En particulier, donnez aux utilisateurs la possibilité d’indiquer si le contenu généré est « inexact », « incomplet », « dangereux », « offensant » ou autrement problématique.
  • Suivez les données de télémétrie pour déterminer la satisfaction des utilisateurs et identifier des lacunes fonctionnelles ou des difficultés d’utilisation. Les données de télémétrie collectées doivent être conformes aux lois sur la confidentialité et aux politiques et engagements de votre propre organisation en matière de confidentialité des utilisateurs.

Utiliser Azure AI Sécurité du Contenu

Plusieurs ressources Azure AI fournissent une analyse intégrée du contenu avec lequel elles fonctionnent, notamment Language, Vision et Azure OpenAI à l’aide de filtres de contenu.

Azure AI Sécurité du Contenu offre davantage de fonctionnalités qui se concentrent sur la protection de l’IA et des copilotes contre les risques. Il s’agit notamment de détecter tout langage inapproprié ou offensant, qu’il provienne d’une entrée ou qu’il soit généré, et de détecter les entrées risquées ou inappropriées.

Les fonctionnalités d’Azure AI Sécurité du Contenu comprennent :

Fonctionnalité Fonctionnalités
Boucliers d’invite Analyse du risque d’attaques d’entrée utilisateur sur les modèles de langage
Détection de la base Détecte si les réponses de texte sont ancrées dans le contenu source d’un utilisateur
Détection de matériel protégé Recherche le contenu protégé par copyright connu
Catégories personnalisées Définition des catégories personnalisées pour tous les modèles nouveaux ou émergents

Vous trouverez des détails et des guides de démarrage rapide pour l’utilisation d’Azure AI Sécurité du Contenu dans les pages de documentation du service.