AzureMLBatchInferencingServer Classe
Nota
Si tratta di una classe sperimentale e può cambiare in qualsiasi momento. Per altre informazioni, vedere https://aka.ms/azuremlexperimental.
Configurazioni di inferenza batch di Azure ML.
- Ereditarietà
-
builtins.objectAzureMLBatchInferencingServer
Costruttore
AzureMLBatchInferencingServer(*, code_configuration: CodeConfiguration | None = None, **kwargs: Any)
Parametri
Nome | Descrizione |
---|---|
code_configuration
Necessario
|
Configurazione del codice del server di inferenza. |
Variabili
Nome | Descrizione |
---|---|
type
|
Tipo del server di inferenza. |
Collabora con noi su GitHub
L'origine di questo contenuto è disponibile in GitHub, in cui è anche possibile creare ed esaminare i problemi e le richieste pull. Per ulteriori informazioni, vedere la guida per i collaboratori.
Azure SDK for Python