Partilhar via


O que há de novo na Segurança de Conteúdo do Azure AI

Saiba o que há de novo no serviço. Esses itens podem ser notas de versão, vídeos, postagens de blog e outros tipos de informações. Marque esta página como favorito para se manter atualizado com novos recursos, aprimoramentos, correções e atualizações de documentação.

Outubro de 2024

Próximas descontinuações

Para alinhar com as políticas de controle de versão e gerenciamento de ciclo de vida da Segurança de Conteúdo, as seguintes versões estão agendadas para descontinuação:

  • A partir de 28 de outubro de 2024: Todas as versões, exceto 2024-09-01, 2024-09-15-previewe 2024-09-30-preview serão preteridas e não serão mais suportadas. Encorajamos os utilizadores a fazer a transição para as versões mais recentes disponíveis para continuarem a receber suporte e atualizações completos. Se você tiver alguma dúvida sobre esse processo ou precisar de ajuda com a transição, entre em contato com nossa equipe de suporte.

Setembro de 2024

Análise multimodal (pré-visualização)

A API Multimodal analisa materiais que contêm conteúdo de imagem e conteúdo de texto para ajudar a tornar os aplicativos e serviços mais seguros contra conteúdo prejudicial gerado pelo usuário ou gerado por IA. Analisar uma imagem e seu conteúdo de texto associado juntos pode preservar o contexto e fornecer uma compreensão mais abrangente do conteúdo. Siga o guia de início rápido para começar.

Deteção de material protegido para código (visualização)

A API de código de material protegido sinaliza conteúdo de código protegido (de repositórios conhecidos do GitHub, incluindo bibliotecas de software, código-fonte, algoritmos e outros conteúdos de programação proprietários) que pode ser gerado por modelos de linguagem grandes. Siga o guia de início rápido para começar.

Atenção

O scanner/indexador de código do serviço de segurança de conteúdo só está atualizado até 6 de novembro de 2021. O código que foi adicionado ao GitHub após essa data não será detetado. Use seu próprio critério ao usar o Material Protegido para Código para detetar corpos de código recentes.

Correção de aterramento (visualização)

A API de deteção de aterramento inclui um recurso de correção que corrige automaticamente qualquer falta de fundamento detetada no texto com base nas fontes de aterramento fornecidas. Quando o recurso de correção está ativado, a resposta inclui um corrected Text campo que apresenta o texto corrigido alinhado com as fontes de aterramento. Siga o guia de início rápido para começar.

Agosto de 2024

Novos recursos são GA

A API Prompt Shields e a API Protected Material for text agora estão disponíveis ao público em geral (GA). Siga um guia de início rápido para experimentá-los.

Julho de 2024

Visualização pública da API de categorias personalizadas (padrão)

A API de categorias personalizadas (padrão) permite criar e treinar suas próprias categorias de conteúdo personalizadas e verificar o texto em busca de correspondências. Consulte Categorias personalizadas para saber mais.

maio de 2024

Categorias personalizadas (rápida) Visualização pública da API

A API de categorias personalizadas (rápida) permite definir rapidamente padrões emergentes de conteúdo prejudicial e verificar texto e imagens em busca de correspondências. Consulte Categorias personalizadas para saber mais.

Março de 2024

Pré-visualização pública do Prompt Shields

Anteriormente conhecido como deteção de risco de jailbreak, esse recurso atualizado deteta ataques rápidos, nos quais os usuários exploram deliberadamente vulnerabilidades do sistema para provocar comportamento não autorizado a partir de um modelo de linguagem grande. O Prompt Shields analisa tanto ataques diretos de prompt do usuário quanto ataques indiretos incorporados em documentos ou imagens de entrada. Consulte Prompt Shields para saber mais.

Pré-visualização pública da deteção de aterramento

A API de deteção de aterramento deteta se as respostas de texto de grandes modelos de linguagem (LLMs) estão fundamentadas nos materiais de origem fornecidos pelos usuários. Ungroundedness descreve casos em que os LLMs produzem informações que não são factuais ou imprecisas de acordo com o que estava presente nos materiais de origem. Consulte Deteção de aterramento para saber mais.

Janeiro de 2024

SDK de Segurança de Conteúdo GA

O serviço Azure AI Content Safety agora está disponível em geral por meio dos seguintes SDKs de biblioteca de cliente:

Importante

As versões de visualização pública dos SDKs de Segurança de Conteúdo do Azure AI serão preteridas até 31 de março de 2024. Por favor, atualize seus aplicativos para usar as versões GA.

Novembro de 2023

Risco de jailbreak e deteção de material protegido (visualização)

As novas APIs de deteção de risco de jailbreak e deteção de material protegido permitem mitigar alguns dos riscos ao usar IA generativa.

  • A deteção de risco de jailbreak verifica o texto em busca do risco de um ataque de jailbreak em um modelo de linguagem grande. Início rápido
  • A deteção de texto de material protegido verifica o texto gerado por IA em busca de conteúdo de texto conhecido (por exemplo, letras de músicas, artigos, receitas, conteúdo da Web selecionado). Início rápido

O risco de jailbreak e a deteção de material protegido só estão disponíveis em regiões selecionadas. Consulte Disponibilidade da região.

Outubro de 2023

A Segurança de Conteúdo do Azure AI está disponível em geral (GA)

O serviço Azure AI Content Safety agora está disponível em geral como um serviço de nuvem.

  • O serviço está disponível em muitas outras regiões do Azure. Consulte a Visão geral para obter uma lista.
  • Os formatos de retorno das APIs de análise foram alterados. Consulte os Guias de início rápido para obter os exemplos mais recentes.
  • Os nomes e formatos de retorno de várias outras APIs foram alterados. Consulte o Guia de migração para obter uma lista completa das alterações mais recentes. Outros guias e guias de início rápido agora refletem a versão GA.

SDKs Java e JavaScript do Azure AI Content Safety

O serviço Azure AI Content Safety agora está disponível por meio de SDKs Java e JavaScript. Os SDKs estão disponíveis no Maven e npm, respectivamente. Siga um guia de início rápido para começar.

Julho de 2023

Azure AI Content Safety C# SDK

O serviço Azure AI Content Safety agora está disponível por meio de um SDK do C#. O SDK está disponível no NuGet. Siga um guia de início rápido para começar.

Maio de 2023

Visualização pública do Azure AI Content Safety

O Azure AI Content Safety deteta material potencialmente ofensivo, arriscado ou indesejável. Este serviço oferece modelos de texto e imagem de última geração que detetam conteúdo problemático. O Azure AI Content Safety ajuda a tornar os aplicativos e serviços mais seguros contra conteúdo prejudicial gerado pelo usuário e gerado por IA. Siga um guia de início rápido para começar.

Atualizações dos serviços de IA do Azure

Anúncios de atualização do Azure para serviços de IA do Azure