Compartilhar via


Como implantar modelos OpenAI do Azure com IA do Azure Foundry

Importante

Os itens marcados (versão prévia) neste artigo estão atualmente em versão prévia pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não recomendamos isso para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos. Para obter mais informações, consulte Termos de Uso Complementares de Versões Prévias do Microsoft Azure.

Nesse artigo, você aprende a criar implantações de modelo Azure OpenAI no portal de IA do Azure Foundry.

O Serviço OpenAI do Azure oferece um conjunto diversificado de modelos com diferentes funcionalidades e pontos de preço. Ao implantar modelos Azure OpenAI no portal de IA do Azure Foundry, você pode consumir as implantações usando o prompt flow ou outra ferramenta. A disponibilidade do modelo varia de acordo com a região. Para saber mais sobre os detalhes de cada modelo, consulte os modelos do Serviço OpenAI do Azure.

Para modificar e interagir com um modelo do OpenAI do Azure no playground de IA do Azure Foundry, primeiro você precisa implantar um modelo base do OpenAI do Azure em seu projeto. Depois que o modelo estiver implantado e disponível em seu projeto, você poderá consumir seu ponto de extremidade da API REST como está ou personalizá-lo ainda mais com seus próprios dados e outros componentes (incorporações, índices e muito mais).

Pré-requisitos

  • Uma assinatura do Azure com uma forma de pagamento válida. As assinaturas gratuitas ou de avaliação do Azure não funcionarão. Caso você não tenha uma assinatura do Azure, crie uma conta paga do Azure para começar.

  • Um projeto do Azure AI Foundry.

Implantar um modelo Azure OpenAI do catálogo de modelos

Siga as etapas abaixo para implantar um modelo do Azure OpenAI, como gpt-4o-mini, em um ponto de extremidade em tempo real do portal do IA do Azure Foundry catálogo de modelos:

  1. Entre no Azure AI Foundry.
  2. Se você ainda não estiver em seu projeto, selecione-o.
  3. Selecione Catálogo de modelos no painel de navegação à esquerda.
  1. No filtro Coleções, selecione Azure OpenAI.

    Uma captura de tela mostrando como filtrar por modelos do Azure OpenAI no catálogo.

  2. Selecione um modelo como gpt-4o-mini da coleção Azure OpenAI.

  3. Selecione Implantar para abrir a janela de implantação.

  4. Selecione o recurso no qual deseja implantar o modelo. Se você não tiver um recurso, poderá criar um.

  5. Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.

  6. Selecione Implantar.

  7. Você chegará à página de detalhes da implantação. Selecione Abrir no playground.

  8. Selecione Exibir Código para ver exemplos de código que podem ser usados para consumir o modelo implantado no aplicativo.

Implantar um modelo Azure OpenAI do seu projeto

Como alternativa, você pode iniciar a implantação a partir do seu projeto no portal do IA do Azure Foundry.

  1. Acesse o seu projeto no portal do Azure AI Foundry.
  2. Na barra lateral esquerda do projeto, acesse Meus ativos>Modelos + pontos de extremidade.
  3. Selecione + Implantar modelo>Implantar modelo base.
  4. No filtro Coleções, selecione Azure OpenAI.
  5. Selecione um modelo como gpt-4o-mini da coleção Azure OpenAI.
  6. Selecione Confirmar para abrir a janela de implantação.
  7. Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.
  8. Selecione Implantar.
  9. Você chegará à página de detalhes da implantação. Selecione Abrir no playground.
  10. Selecione Exibir Código para ver exemplos de código que podem ser usados para consumir o modelo implantado no aplicativo.

Inferência o modelo Azure OpenAI

Para realizar inferência no modelo implantado, você pode usar o playground ou amostras de código. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.

Para obter mais exemplos de como consumir o modelo implantado na sua aplicação, veja os seguintes inícios rápidos do Azure OpenAI:

Limites de disponibilidade e cota regionais de um modelo

Para modelos do OpenAI do Azure, a cota padrão para modelos varia de acordo com o modelo e a região. Determinados modelos só podem estar disponíveis em algumas regiões. Para obter mais informações sobre disponibilidade e limites de cota, veja Cotas e limites do Serviço OpenAI do Azure.

Cota para implantar e inferir um modelo

Para modelos do OpenAI do Azure, a implantação e a inferência consomem a quota que é atribuída à sua subscrição por região, por modelo em unidades de Tokens por Minuto (TPM). Ao se inscrever na IA do Azure Foundry, você recebe uma cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que ela é criada, reduzindo assim a cota disponível para esse modelo pela quantidade atribuída. Você pode continuar criando implantações e atribuindo-lhes TPMs até atingir o limite de cota.

Depois de atingir o limite de cota, a única maneira de criar novas implantações desse modelo é:

Para saber mais sobre cota, veja Cota de IA do Azure Foundry e Gerenciar cota do Serviço OpenAI do Azure.