Avalie a segurança dos Serviços de IA

Concluído

Esta unidade apresenta um resumo das recomendações do Well Architected Framework para proteger o Azure Open AI

Para obter mais informações, consulte Perspetiva do Azure Well-Architected Framework no Serviço Azure OpenAI

O objetivo do pilar Segurança é fornecer garantias de confidencialidade, integridade e disponibilidade para a carga de trabalho.

Os princípios de design de segurança fornecem uma estratégia de design de alto nível para atingir essas metas, aplicando abordagens ao design técnico em torno do Azure OpenAI.

Lista de verificação de estruturação

Inicie sua estratégia de design com base na lista de verificação de revisão de design para Segurança e identifique vulnerabilidades e controles para melhorar a postura de segurança. Em seguida, revise a linha de base de segurança do Azure para o Azure OpenAI. Por último, alargar a estratégia de modo a incluir mais abordagens, conforme necessário.

  • Proteja a confidencialidade: se você carregar dados de treinamento no Azure OpenAI, use chaves gerenciadas pelo cliente para criptografia de dados, implemente uma estratégia de rotação de chaves e exclua dados de treinamento, validação e resultados de treinamento. Se você usar um armazenamento de dados externo para dados de treinamento, siga as práticas recomendadas de segurança para esse armazenamento. Por exemplo, para o Armazenamento de Blobs do Azure, use chaves gerenciadas pelo cliente para criptografia e implemente uma estratégia de rotação de chaves. Use o acesso gerenciado baseado em identidade, implemente um perímetro de rede usando pontos de extremidade privados e habilite logs de acesso.

  • Proteja a confidencialidade: proteja-se contra a exfiltração de dados limitando as URLs de saída que os recursos do Azure OpenAI podem acessar.

  • Proteger a integridade: implemente controles de acesso para autenticar e autorizar o acesso do usuário ao sistema usando o princípio de privilégios mínimos e usando identidades individuais em vez de chaves.

  • Proteja a integridade: implemente a deteção de risco de jailbreak para proteger suas implantações de modelo de linguagem contra ataques de injeção imediata.

  • Proteja a disponibilidade: use controles de segurança para evitar ataques que possam esgotar as cotas de uso do modelo. Você pode configurar controles para isolar o serviço em uma rede. Se o serviço tiver de ser acessível a partir da Internet, considere a possibilidade de utilizar um gateway para bloquear suspeitas de abuso utilizando o encaminhamento ou a limitação.

Recomendações

Recomendação Benefício
Chaves seguras: se sua arquitetura exigir autenticação baseada em chave do Azure OpenAI, armazene essas chaves no Cofre de Chaves do Azure, não no código do aplicativo. Separar segredos de código armazenando-os no Cofre de Chaves reduz a chance de vazar segredos. A separação também facilita a gestão central de segredos, facilitando responsabilidades como a rotação de chaves.
Restringir acesso: desative o acesso público ao Azure OpenAI, a menos que sua carga de trabalho o exija. Crie pontos de extremidade privados se você estiver se conectando a partir de consumidores em uma rede virtual do Azure. Controlar o acesso ao Azure OpenAI ajuda a evitar ataques de usuários não autorizados. O uso de pontos de extremidade privados garante que o tráfego de rede permaneça privado entre o aplicativo e a plataforma.
Microsoft Entra ID: use o Microsoft Entra ID para autenticação e para autorizar o acesso ao Azure OpenAI usando o controle de acesso baseado em função (RBAC). Desabilite a autenticação local nos Serviços de IA do Azure e defina disableLocalAuth como true. Conceda identidades que executam finalizações ou geração de imagens a função de Usuário OpenAI dos Serviços Cognitivos. Conceda pipelines de automação de modelos e acesso ad-hoc à ciência de dados uma função como Colaborador OpenAI de Serviços Cognitivos. O uso do Microsoft Entra ID centraliza o componente de gerenciamento de identidade e elimina o uso de chaves de API. Usar o RBAC com o Microsoft Entra ID garante que os usuários ou grupos tenham exatamente as permissões necessárias para fazer seu trabalho. Esse tipo de controle de acesso refinado não é possível com chaves de API do Azure OpenAI.
Usar chaves gerenciadas pelo cliente: use chaves gerenciadas pelo cliente para modelos ajustados e dados de treinamento carregados no Azure OpenAI. O uso de chaves gerenciadas pelo cliente oferece maior flexibilidade para criar, girar, desabilitar e revogar controles de acesso.
Proteja-se contra ataques de jailbreak: use o Azure AI Content Safety Studio para detetar riscos de jailbreak. Detete tentativas de jailbreak para identificar e bloquear prompts que tentam ignorar os mecanismos de segurança de suas implantações do Azure OpenAI.