Regiony obsługiwane przez usługę Rozpoznawanie mowy
Usługa rozpoznawania mowy umożliwia aplikacji konwertowanie dźwięku na tekst, tłumaczenie mowy i konwertowanie tekstu na mowę. Usługa jest dostępna w wielu regionach z unikatowymi punktami końcowymi dla zestawu SDK mowy oraz interfejsów API REST.
Należy pamiętać o następujących kwestiach:
- Jeśli aplikacja używa zestawu SPEECH SDK, należy podać identyfikator regionu, taki jak
westus
, podczas tworzenia elementuSpeechConfig
. Upewnij się, że region jest zgodny z regionem subskrypcji. - Jeśli aplikacja używa jednego z interfejsów API REST usługi Mowa, region jest częścią identyfikatora URI punktu końcowego używanego podczas tworzenia żądań.
- Klucze utworzone dla regionu są prawidłowe tylko w tym regionie. Jeśli spróbujesz użyć ich z innymi regionami, wystąpią błędy uwierzytelniania.
Uwaga
Usługa rozpoznawania mowy nie przechowuje ani nie przetwarza danych poza regionem zasobu usługi Mowa. Dane są przechowywane lub przetwarzane tylko w regionie, w którym jest tworzony zasób. Jeśli na przykład tworzysz zasób usługi Mowa w westus
regionie, dane są tylko w westus
regionie.
Regiony
Regiony w tej tabeli obsługują większość podstawowych funkcji usługi Mowa, takich jak zamiana mowy na tekst, zamiana tekstu na mowę, ocena wymowy i tłumaczenie. Niektóre funkcje, takie jak szybki transkrypcja i interfejs API syntezy wsadowej, wymagają określonych regionów. W przypadku funkcji, które wymagają określonych regionów, tabela wskazuje regiony, które je obsługują.
Region | Szybka transkrypcja | Interfejs API syntezy usługi Batch | Mowa niestandardowa | Trenowanie mowy niestandardowej przy użyciu dźwięku1 | Niestandardowy neuronowy głos | Niestandardowe trenowanieneuronowego głosu 2 | Niestandardowy punkt końcowy wysokiej wydajności neuronowego głosu | Osobisty głos | Awatar zamiany tekstu na mowę | Tłumaczenie wideo | Niestandardowe modele zaawansowane słów kluczowych | Weryfikacja słowa kluczowego | Rozpoznawanie osoby mówiącej | Rozpoznawanie intencji3 | Asystentzy głosowi3 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||||
brazilsouth | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||||
canadacentral | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||||
centralindia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||||
centralus | ✅ | ✅ | ✅ | ✅ | |||||||||||
eastasia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
francecentral | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||||
germanywestcentral | ✅ | ✅ | ✅ | ✅ | |||||||||||
japaneast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||
japanwest | ✅ | ✅ | ✅ | ||||||||||||
koreacentral | ✅ | ✅ | ✅ | ✅ | |||||||||||
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||||
northeurope | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
norwayeast | ✅ | ✅ | ✅ | ✅ | |||||||||||
qatarcentral | ✅ | ✅ | ✅ | ||||||||||||
southafricanorth | ✅ | ✅ | ✅ | ||||||||||||
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
southeastasia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||||||
switzerlandnorth | ✅ | ✅ | ✅ | ||||||||||||
szwajcariawest | ✅ | ✅ | ✅ | ||||||||||||
uaenorth | ✅ | ✅ | ✅ | ||||||||||||
uksouth | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||||||
Zachodnio-środkowe stany USA | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||||||||
westeurope | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||||
westus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
westus3 | ✅ | ✅ | ✅ | ✅ |
1 Region ma dedykowany sprzęt do trenowania mowy niestandardowej. Jeśli planujesz trenowanie modelu niestandardowego przy użyciu danych audio, musisz użyć jednego z regionów z dedykowanym sprzętem. Następnie możesz skopiować wytrenowany model do innego regionu.
2 Region jest dostępny na potrzeby niestandardowego trenowania neuronowego głosu. Do wdrożenia można skopiować wytrenowany model neuronowego głosu do innych regionów.
3 Zestaw SPEECH SDK obsługuje funkcje rozpoznawania intencji i asystenta głosowego za pośrednictwem usługi Direct Line Speech.