Detecção de conteúdo para adulto
A Visão de IA do Azure pode detectar conteúdo adulto nas imagens para que os desenvolvedores possam restringir a exibição dessas imagens em seu software. Os sinalizadores de conteúdo são aplicados com uma pontuação entre zero e um, assim os desenvolvedores podem interpretar os resultados de acordo com suas próprias preferências.
Experimente os recursos de detecção de conteúdo para adulto de maneira rápida e fácil no navegador usando o Vision Studio.
Dica
A Segurança de Conteúdo de IA do Azure é a oferta mais recente de moderação de conteúdo por meio de IA. Para obter mais informações, confira a Visão geral do Segurança de Conteúdo de IA do Azure.
Definições de sinalizador de conteúdo
A classificação "adulto" contém várias categorias diferentes:
- As imagens adultas são explicitamente sexuais por natureza e muitas vezes mostram nudez e atos sexuais.
- As imagens picantes são definidas como imagens de natureza sexualmente sugestiva e, geralmente, contêm menos conteúdo sexualmente explícito do que imagens marcadas como Somente para adultos.
- Imagens sangrentas mostram sangue.
Usar a API
É possível detectar conteúdo adulto com a API Análise de Imagem 3.2. Quando você adiciona o valor de Adult
ao parâmetro de consulta visualFeatures, a API retorna três propriedades boolianas – isAdultContent
, isRacyContent
e isGoryContent
– na resposta JSON. O método também retorna propriedades correspondentes – adultScore
, racyScore
e goreScore
– que representam pontuações de confiança entre zero e um para cada categoria respectiva.