Modérer le contenu et détecter les préjudices dans Azure AI Studio avec Content Safety

Débutant
Développeur
Azure

Découvrez comment choisir et créer un système de modération du contenu dans Azure AI Studio.

Remarque

Ce module est un projet guidé dans lequel vous effectuez un projet de bout en bout en suivant des instructions détaillées.

Objectifs d’apprentissage

À la fin de ce module, vous serez en mesure de :

  • Configurez des filtres et des niveaux de seuil pour bloquer le contenu dangereux.
  • Effectuez une modération de texte et d’image pour le contenu dangereux.
  • Analysez et améliorez les métriques de précision, de rappel et de score F1.
  • Détecter l’intégrité au sol dans la sortie d’un modèle’.
  • Identifiez et bloquez le contenu protégé par l’IA.
  • Atténuer les injections directes et indirectes d’invite.
  • Configurations de filtre de sortie dans le code.

Prérequis