Modérer le contenu et détecter les préjudices dans Azure AI Studio avec Content Safety
Découvrez comment choisir et créer un système de modération du contenu dans Azure AI Studio.
Remarque
Ce module est un projet guidé dans lequel vous effectuez un projet de bout en bout en suivant des instructions détaillées.
Objectifs d’apprentissage
À la fin de ce module, vous serez en mesure de :
- Configurez des filtres et des niveaux de seuil pour bloquer le contenu dangereux.
- Effectuez une modération de texte et d’image pour le contenu dangereux.
- Analysez et améliorez les métriques de précision, de rappel et de score F1.
- Détecter l’intégrité au sol dans la sortie d’un modèle’.
- Identifiez et bloquez le contenu protégé par l’IA.
- Atténuer les injections directes et indirectes d’invite.
- Configurations de filtre de sortie dans le code.
Prérequis
- Un abonnement Azure - En créer un gratuitement
- Bonne connaissance d’Azure et du portail Azure