Résumé
Dans cet atelier, vous avez appris à utiliser les fonctionnalités d’Azure AI Sécurité du Contenu au sein d’Azure AI Studio. Vous êtes maintenant prêt à intégrer cette ressource dans la plateforme basée sur l’IA de Contoso Camping Store !
À mesure que vous poursuivez votre parcours dans le développement responsable de l’IA, n’oubliez pas de garder les principes d’IA responsables à l’avant-garde de votre approche de l’intégration de l’IA. L’atténuation des dommages potentiels présentés par les modèles d’INTELLIGENCE artificielle générative nécessite une approche itérative en couches qui inclut l’expérimentation et la mesure. Azure AI intègre des années d’expertise accumulées par Microsoft en matière de stratégie, de recherche et d’ingénierie en IA afin que vos équipes puissent créer des solutions IA sûres, sécurisées et fiables dès le début. Azure AI applique des contrôles d’entreprise pour garantir la confidentialité, la conformité et la sécurité des données sur une infrastructure conçue pour l’IA à grande échelle.
Remarque
Une fois l’atelier terminé, si vous avez terminé d’explorer Azure AI Services, supprimez les ressources Azure que vous avez créées pendant l’atelier.
En savoir plus
- Infusez des outils et des pratiques d'IA responsables dans vos LLMops
- Catégories de dommages dans Azure AI Content Safety
- Boucliers d'invite
- Détection de mise à la terre