Ferramenta Segurança de conteúdo (texto)
O Azure AI Content Safety é um serviço de moderação de conteúdo desenvolvido pela Microsoft que ajuda você a detectar conteúdo prejudicial de diferentes modalidades e idiomas. A ferramenta Segurança de Conteúdo (Texto) é um wrapper para a API de Texto de Segurança de Conteúdo do Azure AI, que permite detectar conteúdo de texto e obter resultados de moderação. Para obter mais informações, confira Segurança de Conteúdo de IA do Azure.
Pré-requisitos
- Crie um recurso de Segurança de Conteúdo de IA do Azure.
- Adicione uma
Azure Content Safety
conexão no fluxo de prompt. Preencha oAPI key
campo comPrimary key
aKeys and Endpoint
partir da seção do recurso criado.
Entradas
Você pode usar os seguintes parâmetros como entradas para essa ferramenta:
Nome | Tipo | Descrição | Obrigatório |
---|---|---|---|
text | string | Texto que precisa ser moderado. | Sim |
hate_category | string | Sensibilidade de moderação para a Hate categoria. Escolha entre quatro opções: disable , low_sensitivity , medium_sensitivity ou high_sensitivity . A disable opção significa que não há moderação para a Hate categoria. As outras três opções significam diferentes graus de rigidez na filtragem de conteúdo de ódio. O padrão é medium_sensitivity . |
Sim |
sexual_category | string | Sensibilidade de moderação para a Sexual categoria. Escolha entre quatro opções: disable , low_sensitivity , medium_sensitivity ou high_sensitivity . A disable opção significa que não há moderação para a Sexual categoria. As outras três opções significam diferentes graus de rigidez na filtragem de conteúdo sexual. O padrão é medium_sensitivity . |
Sim |
self_harm_category | string | Sensibilidade de moderação para a Self-harm categoria. Escolha entre quatro opções: disable , low_sensitivity , medium_sensitivity ou high_sensitivity . A disable opção significa que não há moderação para a Self-harm categoria. As outras três opções significam diferentes graus de rigor na filtragem de conteúdo de automutilação. O padrão é medium_sensitivity . |
Sim |
violence_category | string | Sensibilidade de moderação para a Violence categoria. Escolha entre quatro opções: disable , low_sensitivity , medium_sensitivity ou high_sensitivity . A disable opção significa que não há moderação para a Violence categoria. As outras três opções significam diferentes graus de rigidez na filtragem do conteúdo de violência. O padrão é medium_sensitivity . |
Sim |
Para obter mais informações, confira Segurança de Conteúdo de IA do Azure.
Saídas
O exemplo a seguir é um exemplo de resposta de formato JSON retornado pela ferramenta:
{
"action_by_category": {
"Hate": "Accept",
"SelfHarm": "Accept",
"Sexual": "Accept",
"Violence": "Accept"
},
"suggested_action": "Accept"
}
O action_by_category
campo fornece um valor binário para cada categoria: Accept
ou Reject
. Esse valor mostra se o texto atende ao nível de sensibilidade definido nos parâmetros de solicitação para essa categoria.
O campo suggested_action
fornece uma recomendação geral com base nas quatro categorias. Se alguma categoria tiver um valor Reject
, suggested_action
também será Reject
.