Partilhar via


Espaço de Nomes Microsoft::CognitiveServices::Speech

Resumo

Membros Descrições
enum PropertyId Define ids de propriedade de voz. Alterado na versão 1.4.0.
enum OutputFormat Formato de saída.
enum ProfanityOption Remove palavrões (palavrões) ou substitui letras de palavras profanas por estrelas. Adicionado na versão 1.5.0.
enum ResultReason Especifica os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.
enum CancellationReason Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.
enum CancellationErrorCode Define o código de erro no caso de CancellationReason ser Erro. Adicionado na versão 1.1.0.
enum NoMatchReason Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.
enum ActivityJSONType Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.
enum SpeechSynthesisOutputFormat Define os formatos de áudio de saída de sintetização de voz possíveis. Atualizado na versão 1.19.0.
enum StreamStatus Define o possível estado do fluxo de dados de áudio. Adicionado na versão 1.4.0.
enum ServicePropertyChannel Define canais utilizados para transmitir definições de propriedades para o serviço. Adicionado na versão 1.5.0.
enum VoiceProfileType Define tipos de perfil de voz.
Reconhecimento de NumeraçãoFactorScope Define o âmbito a que um Fator de Reconhecimento é aplicado.
enum PronunciationAssessmentGradingSystem Define o sistema de pontos para a calibragem da pontuação de pronúncia; o valor predefinido é FivePoint. Adicionado na versão 1.14.0.
enum PronunciationAssessmentGranularity Define a granularidade da avaliação da pronúncia; o valor predefinido é Phoneme. Adicionado na versão 1.14.0.
enum SynthesisVoiceType Define o tipo de vozes de sintetização Adicionadas na versão 1.16.0.
enum SynthesisVoiceGender Define o sexo das vozes de sintetização Adicionadas na versão 1.17.0.
enum SpeechSynthesisBoundaryType Define o tipo de limite do evento de limite de sintetização de voz Adicionado na versão 1.21.0.
classe AsyncRecognizer Classe base abstrata AsyncRecognizer.
classe AudioDataStream Representa o fluxo de dados de áudio utilizado para operar dados de áudio como um fluxo. Adicionado na versão 1.4.0.
classe AutoDetectSourceLanguageConfig Classe que define a configuração da origem de deteção automática Atualizada em 1.13.0.
classe AutoDetectSourceLanguageResult Contém o resultado de idioma de origem detetado automaticamente Adicionado em 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado.
class ClassLanguageModel Representa uma lista de gramáticas para cenários gramaticais dinâmicos. Adicionado na versão 1.7.0.
ligação de classe A ligação é uma classe proxy para gerir a ligação ao serviço de voz do Reconhecedor especificado. Por predefinição, um Reconhecedor gere de forma autónoma a ligação ao serviço quando necessário. A classe Ligação fornece métodos adicionais para os utilizadores abrirem ou fecharem explicitamente uma ligação e subscreverem alterações ao estado da ligação. A utilização da Ligação é opcional. Destina-se a cenários em que é necessária uma otimização do comportamento da aplicação com base no estado da ligação. Opcionalmente, os utilizadores podem chamar Open() para iniciar manualmente uma ligação de serviço antes de iniciar o reconhecimento no Reconhecedor associado a esta Ligação. Depois de iniciar um reconhecimento, chamar Abrir() ou Fechar() pode falhar. Isto não afetará o Reconhecedor ou o reconhecimento contínuo. A ligação pode ser perdida por vários motivos, o Reconhecedor tentará sempre reinstituir a ligação conforme necessário para garantir operações em curso. Em todos estes casos, eventos ligados/desligados indicarão a alteração do estado da ligação. Atualizado na versão 1.17.0.
classe ConnectionEventArgs Fornece dados para o ConnectionEvent. Adicionado na versão 1.2.0.
classe ConnectionMessage ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de voz. Estas mensagens são fornecidas para fins de depuração e não devem ser utilizadas para casos de utilização de produção com o Serviço de Voz dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Voz estão sujeitas a alterações sem aviso prévio. Isto inclui conteúdos de mensagens, cabeçalhos, payloads, encomendas, etc. Adicionado na versão 1.10.0.
classe ConnectionMessageEventArgs Fornece dados para ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe que define a configuração de voz incorporada (offline).
eventArgs de classe Classe base para argumentos de eventos.
classe EventSignal Os clientes podem ligar-se ao sinal de evento para receber eventos ou desligar-se do sinal de evento para deixar de receber eventos.
classe EventSignalBase Os clientes podem ligar-se ao sinal de evento para receber eventos ou desligar-se do sinal de evento para deixar de receber eventos.
gramática da classe Representa gramática de classe base para personalizar o reconhecimento de voz. Adicionado na versão 1.5.0.
GrammarList da classe Representa uma lista de gramáticas para cenários gramaticais dinâmicos. Adicionado na versão 1.7.0.
GrammarPhrase da classe Representa uma expressão que pode ser falada pelo utilizador. Adicionado na versão 1.5.0.
classe HybridSpeechConfig Classe que define configurações híbridas (cloud e incorporadas) para reconhecimento de voz ou sintetização de voz.
classe KeywordRecognitionEventArgs Classe para os eventos emmitidos pelo KeywordRecognizer.
classe KeywordRecognitionModel Representa o modelo de reconhecimento de palavras-chave utilizado com métodos StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe que define os resultados emitidos pelo KeywordRecognizer.
classe KeywordRecognizer Tipo de reconhecedor especializado para processar apenas a ativação de palavras-chave.
classe NoMatchDetails Contém informações detalhadas sobre os resultados de reconhecimento NoMatch.
classe PhraseListGrammar Representa uma gramática de lista de expressões para cenários gramaticais dinâmicos. Adicionado na versão 1.5.0.
class PronunciationAssessmentConfig Classe que define a configuração da avaliação da pronúncia Adicionada em 1.14.0.
class PronunciationAssessmentResult Classe para resultados da avaliação da pronúncia.
class PronunciationContentAssessmentResult Classe para resultados da avaliação de conteúdos.
classe PropertyCollection Classe para obter ou definir um valor de propriedade a partir de uma coleção de propriedades.
class RecognitionEventArgs Fornece dados para o RecognitionEvent.
class RecognitionResult Contém informações detalhadas sobre o resultado de uma operação de reconhecimento.
reconhecedor de classes Classe base do reconhecedor.
classe SessionEventArgs Classe base para argumentos de eventos de sessão.
smartHandle de classe Classe de identificador inteligente.
classe SourceLanguageConfig Classe que define a configuração do idioma de origem, adicionada em 1.8.0.
classe SourceLanguageRecognizer Classe para reconhecedores de idioma de origem. Pode utilizar esta classe para deteção de idioma autónomo. Adicionado na versão 1.17.0.
classe SpeechConfig Classe que define configurações para reconhecimento de voz/intenção ou sintetização de voz.
speechRecognitionCanceledEventArgs da classe Classe para argumentos de eventos cancelados do reconhecimento de voz.
speechRecognitionEventArgs da classe Classe para argumentos de eventos de reconhecimento de voz.
speechRecognitionModel da classe Informações do modelo de reconhecimento de voz.
voz de classeRecognitionResult Classe base para resultados de reconhecimento de voz.
voz de classeRecognizer Classe para reconhecedores de voz.
classe SpeechSynthesisBookmarkEventArgs Classe para argumentos de evento de marcador de sintetização de voz. Adicionado na versão 1.16.0.
classe SpeechSynthesisCancellationDetails Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. Adicionado na versão 1.4.0.
classe SpeechSynthesisEventArgs Classe para argumentos de eventos de sintetização de voz. Adicionado na versão 1.4.0.
classe SpeechSynthesisResult Contém informações sobre o resultado da sintetização de conversão de texto em voz. Adicionado na versão 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe para sintetização de voz viseme argumentos de eventos. Adicionado na versão 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe para sintetização de voz sintetiza argumentos de eventos de limite de palavras. Adicionado na versão 1.7.0.
classe SpeechSynthesizer Classe para sintetizador de voz. Atualizado na versão 1.14.0.
classe SpeechTranslationModel Informações do modelo de tradução de voz.
classe SynthesisVoicesResult Contém informações sobre o resultado da lista de vozes de sintetizadores de voz. Adicionado na versão 1.16.0.
voiceInfo da classe Contém informações sobre informações de voz de sintetização Atualizadas na versão 1.17.0.

Membros

enum PropertyId

Valores Descrições
SpeechServiceConnection_Key A chave de subscrição do Serviço de Voz dos Serviços Cognitivos. Se estiver a utilizar um reconhecedor de intenção, tem de especificar a chave de ponto final do LUIS para a sua aplicação LUIS específica. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint O ponto final do Serviço de Voz dos Serviços Cognitivos (URL). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromEndpoint. NOTA: este ponto final não é o mesmo que o ponto final utilizado para obter um token de acesso.
SpeechServiceConnection_Region A região serviço de voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token O token de autorização do Serviço de Voz dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type O tipo de autorização do Serviço de Voz dos Serviços Cognitivos. Atualmente não utilizado.
SpeechServiceConnection_EndpointId O ID de ponto final de Voz Personalizada ou Serviço de Voz Personalizada dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SpeechConfig::SetEndpointId. NOTA: o ID do ponto final está disponível no Portal de Voz Personalizada, listado em Detalhes do Ponto Final.
SpeechServiceConnection_Host O anfitrião do Serviço de Voz dos Serviços Cognitivos (URL). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName O nome do anfitrião do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyPort A porta do servidor proxy utilizada para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyUserName O nome de utilizador do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyPassword A palavra-passe do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_Url A cadeia de URL criada a partir da configuração de voz. Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente. NOTA: adicionado na versão 1.5.0.
SpeechServiceConnection_TranslationToLanguages A lista de idiomas separados por vírgulas utilizados como idiomas de tradução de destino. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice O nome da voz texto do Serviço Cognitivo para o Serviço de Voz. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechTranslationConfig::SetVoiceName. NOTA: podem ser encontrados nomes de voz válidos aqui.
SpeechServiceConnection_TranslationFeatures Funcionalidades de tradução. Para utilização interna.
SpeechServiceConnection_IntentRegion A região serviço Language Understanding. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode O modo de reconhecimento do Serviço de Voz dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSAÇÃO", "DITADO". Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente.
SpeechServiceConnection_RecoLanguage O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId O ID da sessão. Este ID é um identificador universalmente exclusivo (também conhecido como UUID) que representa um enlace específico de um fluxo de entrada de áudio e a instância de reconhecimento de voz subjacente à qual está vinculado. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Os parâmetros de consulta fornecidos pelos utilizadores. Serão transmitidos para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0.
SpeechServiceConnection_RecoBackend A cadeia para especificar o back-end a ser utilizado para reconhecimento de voz; as opções permitidas estão online e offline. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, a opção offline só é válida quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelName O nome do modelo a ser utilizado para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelKey A chave de desencriptação do modelo a utilizar para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelIniFile O caminho para o ficheiro ini do modelo a ser utilizado para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthLanguage O idioma falado a ser sintetizado (por exemplo, en-US) adicionado na versão 1.4.0.
SpeechServiceConnection_SynthVoice O nome da voz TTS a utilizar para sintetização de voz Adicionada na versão 1.4.0.
SpeechServiceConnection_SynthOutputFormat A cadeia para especificar o formato de áudio de saída TTS Adicionado na versão 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indica se utiliza o formato de áudio comprimido para a transmissão de áudio de sintetização de voz. Esta propriedade só afeta quando SpeechServiceConnection_SynthOutputFormat está definida para um formato pcm. Se esta propriedade não estiver definida e o GStreamer estiver disponível, o SDK utilizará o formato comprimido para a transmissão de áudio sintetizada e descodificá-la-á. Pode definir esta propriedade como "false" para utilizar o formato de pcm não processado para transmissão por cabo. Adicionado na versão 1.16.0.
SpeechServiceConnection_SynthBackend A cadeia para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de sintetização como offline. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Os caminhos dos ficheiros de dados para o motor de sintetização offline; apenas válido quando o back-end da sintetização está offline. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineVoice O nome da voz TTS offline a utilizar para sintetização de voz Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthModelKey A chave de desencriptação da voz a ser utilizada para sintetização de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Adicionado na versão 1.19.0.
SpeechServiceConnection_VoicesListEndpoint As vozes do Serviço Cognitivo de Voz listam o ponto final da API (URL). Em circunstâncias normais, não precisa de especificar esta propriedade, o SDK irá construí-la com base na região/anfitrião/ponto final de SpeechConfig. Adicionado na versão 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs O valor de tempo limite do silêncio inicial (em milissegundos) utilizado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs O valor de tempo limite do silêncio final (em milissegundos) utilizado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EnableAudioLogging Um valor booleano que especifica se o registo de áudio está ativado no serviço ou não. Os registos de áudio e conteúdo são armazenados no armazenamento pertencente à Microsoft ou na sua própria conta de armazenamento associada à sua subscrição dos Serviços Cognitivos (recurso de Voz preparado para Bring Your Own Storage (BYOS). Adicionado na versão 1.5.0.
SpeechServiceConnection_LanguageIdMode O modo de identificador de idioma de ligação do serviço de voz. Pode ser "AtStart" (a predefinição) ou "Contínua". Veja Documento de Identificação de Idioma . Adicionado em 1.25.0.
SpeechServiceConnection_AutoDetectSourceLanguages A deteção automática de idiomas de origem Adicionados na versão 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult O resultado da deteção automática do idioma de origem Adicionado na versão 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse O formato de saída de resposta do Serviço de Voz dos Serviços Cognitivos pedido (simples ou detalhado). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse O nível de profanidade da resposta do Serviço de Voz dos Serviços Cognitivos pedido. Atualmente não utilizado.
SpeechServiceResponse_ProfanityOption A definição de profanidade da saída de resposta do Serviço cognitivo de Voz dos Serviços Cognitivos pedida. Os valores permitidos são "mascarados", "removidos" e "não processados". Adicionado na versão 1.5.0.
SpeechServiceResponse_PostProcessingOption Um valor de cadeia que especifica a opção pós-processamento que deve ser utilizada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Um valor booleano que especifica se pretende incluir carimbos de data/hora ao nível da palavra no resultado da resposta. Adicionado na versão 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold O número de vezes que uma palavra tem de estar em resultados parciais para ser devolvida. Adicionado na versão 1.5.0.
SpeechServiceResponse_OutputFormatOption Um valor de cadeia que especifica a opção de formato de saída no resultado da resposta. Apenas utilização interna. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestSnr Um valor booleano que especifica se deve incluir SNR (proporção de sinal para ruído) no resultado da resposta. Adicionado na versão 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Um valor booleano para pedir a estabilização dos resultados parciais da tradução ao omitir palavras no final. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordBoundary Um valor booleano que especifica se pretende pedir eventos wordBoundary. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Um valor booleano que especifica se pretende pedir o limite de pontuação em Eventos WordBoundary. A predefinição é verdadeiro. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Um valor booleano que especifica se pretende pedir o limite da frase em Eventos WordBoundary. A predefinição é falso. Adicionado na versão 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Um valor booleano que especifica se o SDK deve sincronizar eventos de metadados de sintetização (por exemplo, limite de palavras, viseme, etc.) com a reprodução de áudio. Isto só entra em vigor quando o áudio é reproduzido através do SDK. A predefinição é verdadeiro. Se for definido como falso, o SDK acionará os eventos à medida que forem provenientes do serviço, o que poderá estar dessincronizado com a reprodução de áudio. Adicionado na versão 1.31.0.
SpeechServiceResponse_JsonResult A saída de resposta do Serviço de Voz dos Serviços Cognitivos (no formato JSON). Esta propriedade está disponível apenas em objetos de resultado de reconhecimento.
SpeechServiceResponse_JsonErrorDetails Os detalhes de erro do Serviço de Voz dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs A latência de reconhecimento em milissegundos. Só de leitura, disponível nos resultados finais de voz/tradução/intenção. Isto mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está a contribuir para o resultado final e a hora em que o resultado final é recebido do serviço de voz. Adicionado na versão 1.3.0.
SpeechServiceResponse_RecognitionBackend O back-end de reconhecimento. Só de leitura, disponível nos resultados do reconhecimento de voz. Isto indica se o reconhecimento da cloud (online) ou incorporado (offline) foi utilizado para produzir o resultado.
SpeechServiceResponse_SynthesisFirstByteLatencyMs A sintetização de voz é a primeira latência de bytes em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs A voz sintetiza toda a latência de bytes em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs O tempo de execução inferior para a sintetização de voz em milissegundos. Só de leitura, disponível nos resultados em Eventos SynthesisCompleted. Isto mede o tempo total de execução inferior de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido para sintetização concluída. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs A latência da ligação de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que a ligação HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs A latência de rede de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs A latência do serviço de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisBackend Indica o back-end pelo qual a sintetização está concluída. Só de leitura, disponível nos resultados da sintetização de voz, exceto o resultado no evento SynthesisStarted Adicionado na versão 1.17.0.
CancellationDetails_Reason O motivo do cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonText O texto de cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonDetailedText O texto detalhado do cancelamento. Atualmente não utilizado.
LanguageUnderstandingServiceResponse_JsonResult O resultado da resposta do Serviço Language Understanding (no formato JSON). Disponível através de IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture O nome do dispositivo para captura de áudio. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize AudioConfig::FromMicrophoneInput. NOTA: este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_NumberOfChannelsForCapture O número de canais para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_SampleRateForCapture A taxa de exemplo (em Hz) para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_BitsPerSampleForCapture O número de bits de cada exemplo para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_AudioSource A origem de áudio. Os valores permitidos são "Microfones", "Ficheiro" e "Stream". Adicionado na versão 1.3.0.
AudioConfig_DeviceNameForRender O nome do dispositivo para composição de áudio. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0.
AudioConfig_PlaybackBufferLengthInMs Comprimento da memória intermédia de reprodução em milissegundos, a predefinição é de 50 milissegundos.
AudioConfig_AudioProcessingOptions Opções de processamento de áudio no formato JSON.
Speech_LogFilename O nome do ficheiro para escrever registos. Adicionado na versão 1.4.0.
Speech_SegmentationSilenceTimeoutMs Uma duração do silêncio detetado, medido em milissegundos, após o qual a conversão de voz em texto determinará que uma expressão falada terminou e gerará um resultado reconhecido final. Configurar este tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o habitual e o comportamento de segmentação predefinido gera consistentemente resultados demasiado longos ou demasiado curtos. Os valores de tempo limite de segmentação inadequadamente elevados ou baixos podem afetar negativamente a precisão da voz para o texto; esta propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser completamente validado conforme pretendido.
Conversation_ApplicationId Identificador utilizado para ligar ao serviço de back-end. Adicionado na versão 1.5.0.
Conversation_DialogType Tipo de back-end da caixa de diálogo ao qual ligar. Adicionado na versão 1.7.0.
Conversation_Initial_Silence_Timeout Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0.
Conversation_From_Id Do ID a utilizar nas atividades de reconhecimento de voz Adicionadas na versão 1.5.0.
Conversation_Conversation_Id ConversationId para a sessão. Adicionado na versão 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Lista separada por vírgulas de IDs de implementação de voz personalizados. Adicionado na versão 1.8.0.
Conversation_Speech_Activity_Template Modelo de atividade de voz, carimbar propriedades no modelo na atividade gerada pelo serviço para voz. Adicionado na versão 1.10.0.
Conversation_ParticipantId O seu identificador participante na conversação atual. Adicionado na versão 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp O carimbo de data/hora associado à memória intermédia de dados escrito pelo cliente ao utilizar fluxos de entrada de áudio Pull/Push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação num fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0.
DataBuffer_UserId O ID de utilizador associado à memória intermédia de dados escrita pelo cliente ao utilizar fluxos de entrada de áudio Pull/Push. Adicionado na versão 1.5.0.
PronunciationAssessment_ReferenceText O texto de referência do áudio para avaliação da pronúncia. Para este e os seguintes parâmetros de avaliação da pronúncia, veja os parâmetros de avaliação da pronúncia da tabela. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create ou PronunciationAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0.
PronunciationAssessment_GradingSystem O sistema de pontos para a calibragem da pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Granularity A granularidade da avaliação da pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_EnableMiscue Define se ativa o cálculo miscue. Com esta opção ativada, as palavras pronunciadas serão comparadas com o texto de referência e serão marcadas com omissão/inserção com base na comparação. A predefinição é Falso. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_PhonemeAlphabet O alfabeto phoneme de avaliação pronúncia. Os valores válidos são "SAPI" (predefinição) e "IPA" Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0.
PronunciationAssessment_NBestPhonemeCount A avaliação da pronúncia nbest phoneme count. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Se pretende ativar a avaliação de prosody. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0.
PronunciationAssessment_Json A cadeia json dos parâmetros de avaliação da pronúncia Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Params Parâmetros de avaliação da pronúncia. Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente. Adicionado na versão 1.14.0.
PronunciationAssessment_ContentTopic O tópico de conteúdo da avaliação da pronúncia. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0.
SpeakerRecognition_Api_Version Versão da API de back-end do Reconhecimento de Orador. Esta propriedade é adicionada para permitir o teste e a utilização de versões anteriores das APIs de Reconhecimento de Orador, sempre que aplicável. Adicionado na versão 1.18.0.
SpeechTranslation_ModelName O nome de um modelo a ser utilizado para tradução de voz. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado.
SpeechTranslation_ModelKey A chave de desencriptação de um modelo a utilizar para tradução de voz. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado.
KeywordRecognition_ModelName O nome de um modelo a ser utilizado para reconhecimento de palavras-chave. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado.
KeywordRecognition_ModelKey A chave de desencriptação de um modelo a utilizar para o reconhecimento de palavras-chave. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando é utilizado EmbeddedSpeechConfig.
EmbeddedSpeech_EnablePerformanceMetrics Ative a coleção de métricas de desempenho de voz incorporadas que podem ser utilizadas para avaliar a capacidade de um dispositivo utilizar voz incorporada. Os dados recolhidos são incluídos nos resultados de cenários específicos, como o reconhecimento de voz. A predefinição é "false". Tenha em atenção que as métricas podem não estar disponíveis em todos os cenários de voz incorporados.

Define ids de propriedade de voz. Alterado na versão 1.4.0.

Formatação de Saída de enumeração

Valores Descrições
Simples
Detalhado

Formato de saída.

enum ProfanityOption

Valores Descrições
Mascarado Substitui letras em palavras ofensivas por star carateres.
Removido Remove palavras ofensivas.
Não processado Não faz nada para profanos palavras.

Remove palavras ofensivas (palavrões) ou substitui letras de palavras ofensivas por estrelas. Adicionado na versão 1.5.0.

enum ResultReason

Valores Descrições
Sem Correspondência Indica que não foi possível reconhecer a voz. Pode encontrar mais detalhes no objeto NoMatchDetails.
Cancelado Indica que o reconhecimento foi cancelado. Pode encontrar mais detalhes com o objeto CancellationDetails.
RecognizingSpeech Indica que o resultado da voz contém texto de hipótese.
RecognizedSpeech Indica que o resultado da voz contém o texto final que foi reconhecido. O Reconhecimento de Voz está agora concluído para esta expressão.
RecognizingIntent Indica que o resultado da intenção contém texto e intenção de hipóteses.
RecognizedIntent Indica que o resultado da intenção contém o texto final e a intenção. O Reconhecimento de Voz e a Determinação da intenção estão agora concluídos para esta expressão.
TraduçãoSpeech Indica que o resultado da tradução contém texto de hipótese e respetivas traduções.
TranslatedSpeech Indica que o resultado da tradução contém texto final e traduções correspondentes. O Reconhecimento de Voz e a Tradução estão agora concluídos para esta expressão.
SynthesizingAudio Indica que o resultado de áudio sintetizado contém uma quantidade não zero de dados de áudio.
SynthesizingAudioCompleted Indica que o áudio sintetizado está agora concluído para esta expressão.
RecognizingKeyword Indica que o resultado da voz contém texto de palavra-chave (não verificado). Adicionado na versão 1.3.0.
RecognizedKeyword Indica que o reconhecimento de palavras-chave concluiu o reconhecimento da palavra-chave especificada. Adicionado na versão 1.3.0.
SynthesizingAudioStarted Indica que a síntese de voz foi iniciada agora Adicionada na versão 1.4.0.
TraduzirParticipantSpeech Indica que o resultado da transcrição contém texto de hipótese e respetivas traduções para outros participantes na conversação. Adicionado na versão 1.8.0.
TranslatedParticipantSpeech Indica que o resultado da transcrição contém texto final e traduções correspondentes para outros participantes na conversação. O Reconhecimento de Voz e a Tradução estão agora concluídos para esta expressão. Adicionado na versão 1.8.0.
TranslatedInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea e as traduções correspondentes. Adicionado na versão 1.8.0.
TranslatedParticipantInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea para outros participantes na conversação e traduções correspondentes. Adicionado na versão 1.8.0.
EnrollingVoiceProfile (InscreverVoiceProfile) Indica que o perfil de voz está a ser inscrito e os clientes precisam de enviar mais áudio para criar um perfil de voz. Adicionado na versão 1.12.0.
EnrolledVoiceProfile O perfil de voz foi inscrito. Adicionado na versão 1.12.0.
RecognizedSpeakers Indica uma identificação bem-sucedida de alguns oradores. Adicionado na versão 1.12.0.
RecognizedSpeaker Indica que um orador foi verificado com êxito. Adicionado na versão 1.12.0.
ResetVoiceProfile Indica que um perfil de voz foi reposto com êxito. Adicionado na versão 1.12.0.
DeletedVoiceProfile Indica que um perfil de voz foi eliminado com êxito. Adicionado na versão 1.12.0.
VoicesListRetrieved Indica que a lista de vozes foi obtida com êxito. Adicionado na versão 1.16.0.

Especifica as possíveis razões pelas quais um resultado de reconhecimento pode ser gerado.

enumeração CancellationReason

Valores Descrições
Erro Indica que ocorreu um erro durante o reconhecimento de voz.
EndOfStream Indica que o fim da transmissão de áudio foi atingido.
CancelledByUser Indica que o pedido foi cancelado pelo utilizador. Adicionado na versão 1.14.0.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.

enum CancellationErrorCode

Valores Descrições
NoError Sem erros. Se CancellationReason for EndOfStream, CancellationErrorCode está definido como NoError.
AuthenticationFailure Indica um erro de autenticação. Ocorre um erro de autenticação se a chave de subscrição ou o token de autorização for inválido, expirado ou não corresponder à região que está a ser utilizada.
BadRequest Indica que um ou mais parâmetros de reconhecimento são inválidos ou o formato de áudio não é suportado.
TooManyRequests Indica que o número de pedidos paralelos excedeu o número de transcrições simultâneas permitidas para a subscrição.
Proibido Indica que a subscrição gratuita utilizada pelo pedido ficou sem quota.
ConnectionFailure Indica um erro de ligação.
ServiceTimeout Indica um erro de tempo limite quando aguarda a resposta do serviço.
ServiceError Indica que o serviço devolve um erro.
ServiceUnavailable Indica que o serviço está atualmente indisponível.
RuntimeError Indica um erro de runtime inesperado.
ServiceRedirectTemporary Indica que o Serviço de Voz está temporariamente a pedir uma nova ligação a um ponto final diferente.
ServiceRedirectPermanent Indica que o Serviço de Voz está a pedir permanentemente uma ligação a um ponto final diferente.
EmbeddedModelError Indica que o modelo de voz incorporada (SR ou TTS) não está disponível ou danificado.

Define o código de erro no caso de CancellationReason ser Erro. Adicionado na versão 1.1.0.

enum NoMatchReason

Valores Descrições
Não Reconhecido Indica que a voz foi detetada, mas não reconhecida.
InitialSilenceTimeout Indica que o início do fluxo de áudio continha apenas silêncio e o serviço excedeu o tempo limite à espera de voz.
InitialBabbleTimeout Indica que o início do fluxo de áudio continha apenas ruído e o serviço excedeu o tempo limite à espera de voz.
Palavra-chaveNotRecognized Indica que a palavra-chave detetadas foi rejeitada pelo serviço de verificação de palavras-chave. Adicionado na versão 1.5.0.
EndSilenceTimeout Indica que a transmissão de áudio continha apenas silêncio após a última expressão reconhecida.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.

enum ActivityJSONType

Valores Descrições
Nulo
Objeto
Matriz
String
Double (Duplo)
UInt
int
Booleano

Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.

enum SpeechSynthesisOutputFormat

Valores Descrições
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Não suportado pelo serviço. Não utilize este valor.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Não suportado pelo serviço. Não utilize este valor.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Adicionado na versão 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Adicionado na versão 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Adicionado na versão 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Adicionado na versão 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio comprimido pelo codec OPUS num contentor webM, com velocidade de transmissão de 24kbps, otimizada para o cenário de IoT. (Adicionado em 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Áudio comprimido pelo codec OPUS sem contentor, com velocidade de transmissão de 32kbps. (Adicionado em 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Áudio comprimido pelo codec OPUS sem contentor, com velocidade de transmissão de 48kbps. (Adicionado em 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Áudio comprimido pelo codec OPUS sem contentor, com velocidade de transmissão de 24kbps. (Adicionado em 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Áudio de PCM cru a 22050Hz taxa de amostragem e profundidade de 16 bits. (Adicionado em 1.22.0)
Riff22050Hz16BitMonoPcm áudio de PCM riff-22050hz-16bit-mono-pcm a uma taxa de amostragem de 22050Hz e profundidade de 16 bits, com cabeçalho RIFF. (Adicionado em 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Áudio de PCM não processado a uma taxa de amostragem de 44100Hz e profundidade de 16 bits. (Adicionado em 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM áudio a 44100Hz taxa de amostragem e profundidade de 16 bits, com cabeçalho RIFF. (Adicionado em 1.22.0)
AmrWb16000Hz amr-wb-16000hz AMR-WB áudio a uma taxa de amostragem de 16 kHz. (Adicionado em 1.24.0)

Define os formatos de áudio de saída de sintetização de voz possíveis. Atualizado na versão 1.19.0.

enum StreamStatus

Valores Descrições
Desconhecido O estado do fluxo de dados de áudio é desconhecido.
NoData O fluxo de dados de áudio não contém dados.
PartialData O fluxo de dados de áudio contém dados parciais de um pedido de voz.
AllData O fluxo de dados de áudio contém todos os dados de um pedido de voz.
Cancelado O fluxo de dados de áudio foi cancelado.

Define o possível estado do fluxo de dados de áudio. Adicionado na versão 1.4.0.

enum ServicePropertyChannel

Valores Descrições
UriQueryParameter Utiliza o parâmetro de consulta URI para transmitir as definições de propriedade para o serviço.
HttpHeader Utiliza o HttpHeader para definir uma chave/valor num cabeçalho HTTP.

Define canais utilizados para transmitir definições de propriedades para o serviço. Adicionado na versão 1.5.0.

enum VoiceProfileType

Valores Descrições
TextIndependentIdentification Identificação de orador independente de texto.
TextDependentVerification Verificação de orador dependente de texto.
TextIndependentVerification Verificação independente de texto.

Define tipos de perfil de voz.

Reconhecimento de NumeraçãoFactorScope

Valores Descrições
Frase Parcial Um Fator de Reconhecimento será aplicado a gramáticas que podem ser referenciadas como expressões parciais individuais.

Define o âmbito a que um Fator de Reconhecimento é aplicado.

enum PronunciationAssessmentGradingSystem

Valores Descrições
FivePoint Calibragem de cinco pontos.
HundredMark Cem marcos.

Define o sistema de pontos para a calibragem da pontuação de pronúncia; o valor predefinido é FivePoint. Adicionado na versão 1.14.0.

enum PronunciationAssessmentGranularity

Valores Descrições
Nome do telefone Mostra a classificação no nível completo de texto, palavra e nome do telefone.
Word Mostra a classificação no nível completo de texto e palavra.
Texto Completo Mostra a classificação apenas no nível de texto completo.

Define a granularidade da avaliação da pronúncia; o valor predefinido é Phoneme. Adicionado na versão 1.14.0.

enum SynthesisVoiceType

Valores Descrições
OnlineNeural Voz neural online.
OnlineStandard Voz padrão online.
OfflineNeural Voz neural offline.
OfflineStandard Voz padrão offline.

Define o tipo de vozes de sintetização Adicionadas na versão 1.16.0.

enum SynthesisVoiceGender

Valores Descrições
Desconhecido Género desconhecido.
Mulheres Voz feminina.
Homens Voz masculina.

Define o sexo das vozes de sintetização Adicionadas na versão 1.17.0.

enum SpeechSynthesisBoundaryType

Valores Descrições
Word Word limite.
Pontuação Limite de pontuação.
Frase Limite da frase.

Define o tipo de limite do evento de limite de sintetização de voz Adicionado na versão 1.21.0.