SpeechServiceConnection_Key |
A chave de subscrição do Serviço de Voz dos Serviços Cognitivos. Se estiver a utilizar um reconhecedor de intenção, tem de especificar a chave de ponto final do LUIS para a sua aplicação LUIS específica. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
O ponto final do Serviço de Voz dos Serviços Cognitivos (URL). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromEndpoint. NOTA: este ponto final não é o mesmo que o ponto final utilizado para obter um token de acesso. |
SpeechServiceConnection_Region |
A região serviço de voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
O token de autorização do Serviço de Voz dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
O tipo de autorização do Serviço de Voz dos Serviços Cognitivos. Atualmente não utilizado. |
SpeechServiceConnection_EndpointId |
O ID de ponto final de Voz Personalizada ou Serviço de Voz Personalizada dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SpeechConfig::SetEndpointId. NOTA: o ID do ponto final está disponível no Portal de Voz Personalizada, listado em Detalhes do Ponto Final. |
SpeechServiceConnection_Host |
O anfitrião do Serviço de Voz dos Serviços Cognitivos (URL). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
O nome do anfitrião do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyPort |
A porta do servidor proxy utilizada para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyUserName |
O nome de utilizador do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyPassword |
A palavra-passe do servidor proxy utilizado para ligar ao Serviço de Voz dos Serviços Cognitivos. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetProxy. NOTA: este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_Url |
A cadeia de URL criada a partir da configuração de voz. Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente. NOTA: adicionado na versão 1.5.0. |
SpeechServiceConnection_TranslationToLanguages |
A lista de idiomas separados por vírgulas utilizados como idiomas de tradução de destino. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
O nome da voz texto do Serviço Cognitivo para o Serviço de Voz. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechTranslationConfig::SetVoiceName. NOTA: podem ser encontrados nomes de voz válidos aqui. |
SpeechServiceConnection_TranslationFeatures |
Funcionalidades de tradução. Para utilização interna. |
SpeechServiceConnection_IntentRegion |
A região serviço Language Understanding. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
O modo de reconhecimento do Serviço de Voz dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSAÇÃO", "DITADO". Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente. |
SpeechServiceConnection_RecoLanguage |
O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
O ID da sessão. Este ID é um identificador universalmente exclusivo (também conhecido como UUID) que representa um enlace específico de um fluxo de entrada de áudio e a instância de reconhecimento de voz subjacente à qual está vinculado. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Os parâmetros de consulta fornecidos pelos utilizadores. Serão transmitidos para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0. |
SpeechServiceConnection_RecoBackend |
A cadeia para especificar o back-end a ser utilizado para reconhecimento de voz; as opções permitidas estão online e offline. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, a opção offline só é válida quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelName |
O nome do modelo a ser utilizado para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelKey |
A chave de desencriptação do modelo a utilizar para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelIniFile |
O caminho para o ficheiro ini do modelo a ser utilizado para reconhecimento de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthLanguage |
O idioma falado a ser sintetizado (por exemplo, en-US) adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthVoice |
O nome da voz TTS a utilizar para sintetização de voz Adicionada na versão 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
A cadeia para especificar o formato de áudio de saída TTS Adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica se utiliza o formato de áudio comprimido para a transmissão de áudio de sintetização de voz. Esta propriedade só afeta quando SpeechServiceConnection_SynthOutputFormat está definida para um formato pcm. Se esta propriedade não estiver definida e o GStreamer estiver disponível, o SDK utilizará o formato comprimido para a transmissão de áudio sintetizada e descodificá-la-á. Pode definir esta propriedade como "false" para utilizar o formato de pcm não processado para transmissão por cabo. Adicionado na versão 1.16.0. |
SpeechServiceConnection_SynthBackend |
A cadeia para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de sintetização como offline. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Os caminhos dos ficheiros de dados para o motor de sintetização offline; apenas válido quando o back-end da sintetização está offline. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
O nome da voz TTS offline a utilizar para sintetização de voz Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthModelKey |
A chave de desencriptação da voz a ser utilizada para sintetização de voz. Em circunstâncias normais, não deve utilizar esta propriedade diretamente. Em vez disso, utilize EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Adicionado na versão 1.19.0. |
SpeechServiceConnection_VoicesListEndpoint |
As vozes do Serviço Cognitivo de Voz listam o ponto final da API (URL). Em circunstâncias normais, não precisa de especificar esta propriedade, o SDK irá construí-la com base na região/anfitrião/ponto final de SpeechConfig. Adicionado na versão 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
O valor de tempo limite do silêncio inicial (em milissegundos) utilizado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
O valor de tempo limite do silêncio final (em milissegundos) utilizado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Um valor booleano que especifica se o registo de áudio está ativado no serviço ou não. Os registos de áudio e conteúdo são armazenados no armazenamento pertencente à Microsoft ou na sua própria conta de armazenamento associada à sua subscrição dos Serviços Cognitivos (recurso de Voz preparado para Bring Your Own Storage (BYOS). Adicionado na versão 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
O modo de identificador de idioma de ligação do serviço de voz. Pode ser "AtStart" (a predefinição) ou "Contínua". Veja Documento de Identificação de Idioma . Adicionado em 1.25.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
A deteção automática de idiomas de origem Adicionados na versão 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
O resultado da deteção automática do idioma de origem Adicionado na versão 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
O formato de saída de resposta do Serviço de Voz dos Serviços Cognitivos pedido (simples ou detalhado). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso , utilize SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
O nível de profanidade da resposta do Serviço de Voz dos Serviços Cognitivos pedido. Atualmente não utilizado. |
SpeechServiceResponse_ProfanityOption |
A definição de profanidade da saída de resposta do Serviço cognitivo de Voz dos Serviços Cognitivos pedida. Os valores permitidos são "mascarados", "removidos" e "não processados". Adicionado na versão 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Um valor de cadeia que especifica a opção pós-processamento que deve ser utilizada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Um valor booleano que especifica se pretende incluir carimbos de data/hora ao nível da palavra no resultado da resposta. Adicionado na versão 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
O número de vezes que uma palavra tem de estar em resultados parciais para ser devolvida. Adicionado na versão 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Um valor de cadeia que especifica a opção de formato de saída no resultado da resposta. Apenas utilização interna. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestSnr |
Um valor booleano que especifica se deve incluir SNR (proporção de sinal para ruído) no resultado da resposta. Adicionado na versão 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Um valor booleano para pedir a estabilização dos resultados parciais da tradução ao omitir palavras no final. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Um valor booleano que especifica se pretende pedir eventos wordBoundary. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Um valor booleano que especifica se pretende pedir o limite de pontuação em Eventos WordBoundary. A predefinição é verdadeiro. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Um valor booleano que especifica se pretende pedir o limite da frase em Eventos WordBoundary. A predefinição é falso. Adicionado na versão 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Um valor booleano que especifica se o SDK deve sincronizar eventos de metadados de sintetização (por exemplo, limite de palavras, viseme, etc.) com a reprodução de áudio. Isto só entra em vigor quando o áudio é reproduzido através do SDK. A predefinição é verdadeiro. Se for definido como falso, o SDK acionará os eventos à medida que forem provenientes do serviço, o que poderá estar dessincronizado com a reprodução de áudio. Adicionado na versão 1.31.0. |
SpeechServiceResponse_JsonResult |
A saída de resposta do Serviço de Voz dos Serviços Cognitivos (no formato JSON). Esta propriedade está disponível apenas em objetos de resultado de reconhecimento. |
SpeechServiceResponse_JsonErrorDetails |
Os detalhes de erro do Serviço de Voz dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
A latência de reconhecimento em milissegundos. Só de leitura, disponível nos resultados finais de voz/tradução/intenção. Isto mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está a contribuir para o resultado final e a hora em que o resultado final é recebido do serviço de voz. Adicionado na versão 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
O back-end de reconhecimento. Só de leitura, disponível nos resultados do reconhecimento de voz. Isto indica se o reconhecimento da cloud (online) ou incorporado (offline) foi utilizado para produzir o resultado. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
A sintetização de voz é a primeira latência de bytes em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
A voz sintetiza toda a latência de bytes em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
O tempo de execução inferior para a sintetização de voz em milissegundos. Só de leitura, disponível nos resultados em Eventos SynthesisCompleted. Isto mede o tempo total de execução inferior de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido para sintetização concluída. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
A latência da ligação de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede a latência entre quando a sintetização é iniciada para ser processada e o momento em que a ligação HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
A latência de rede de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
A latência do serviço de sintetização de voz em milissegundos. Só de leitura, disponível nos resultados finais da sintetização de voz. Isto mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica o back-end pelo qual a sintetização está concluída. Só de leitura, disponível nos resultados da sintetização de voz, exceto o resultado no evento SynthesisStarted Adicionado na versão 1.17.0. |
CancellationDetails_Reason |
O motivo do cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonText |
O texto de cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonDetailedText |
O texto detalhado do cancelamento. Atualmente não utilizado. |
LanguageUnderstandingServiceResponse_JsonResult |
O resultado da resposta do Serviço Language Understanding (no formato JSON). Disponível através de IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
O nome do dispositivo para captura de áudio. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize AudioConfig::FromMicrophoneInput. NOTA: este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
O número de canais para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_SampleRateForCapture |
A taxa de exemplo (em Hz) para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
O número de bits de cada exemplo para captura de áudio. Apenas utilização interna. NOTA: este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_AudioSource |
A origem de áudio. Os valores permitidos são "Microfones", "Ficheiro" e "Stream". Adicionado na versão 1.3.0. |
AudioConfig_DeviceNameForRender |
O nome do dispositivo para composição de áudio. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Comprimento da memória intermédia de reprodução em milissegundos, a predefinição é de 50 milissegundos. |
AudioConfig_AudioProcessingOptions |
Opções de processamento de áudio no formato JSON. |
Speech_LogFilename |
O nome do ficheiro para escrever registos. Adicionado na versão 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Uma duração do silêncio detetado, medido em milissegundos, após o qual a conversão de voz em texto determinará que uma expressão falada terminou e gerará um resultado reconhecido final. Configurar este tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o habitual e o comportamento de segmentação predefinido gera consistentemente resultados demasiado longos ou demasiado curtos. Os valores de tempo limite de segmentação inadequadamente elevados ou baixos podem afetar negativamente a precisão da voz para o texto; esta propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser completamente validado conforme pretendido. |
Conversation_ApplicationId |
Identificador utilizado para ligar ao serviço de back-end. Adicionado na versão 1.5.0. |
Conversation_DialogType |
Tipo de back-end da caixa de diálogo ao qual ligar. Adicionado na versão 1.7.0. |
Conversation_Initial_Silence_Timeout |
Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0. |
Conversation_From_Id |
Do ID a utilizar nas atividades de reconhecimento de voz Adicionadas na versão 1.5.0. |
Conversation_Conversation_Id |
ConversationId para a sessão. Adicionado na versão 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Lista separada por vírgulas de IDs de implementação de voz personalizados. Adicionado na versão 1.8.0. |
Conversation_Speech_Activity_Template |
Modelo de atividade de voz, carimbar propriedades no modelo na atividade gerada pelo serviço para voz. Adicionado na versão 1.10.0. |
Conversation_ParticipantId |
O seu identificador participante na conversação atual. Adicionado na versão 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
O carimbo de data/hora associado à memória intermédia de dados escrito pelo cliente ao utilizar fluxos de entrada de áudio Pull/Push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação num fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0. |
DataBuffer_UserId |
O ID de utilizador associado à memória intermédia de dados escrita pelo cliente ao utilizar fluxos de entrada de áudio Pull/Push. Adicionado na versão 1.5.0. |
PronunciationAssessment_ReferenceText |
O texto de referência do áudio para avaliação da pronúncia. Para este e os seguintes parâmetros de avaliação da pronúncia, veja os parâmetros de avaliação da pronúncia da tabela. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create ou PronunciationAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0. |
PronunciationAssessment_GradingSystem |
O sistema de pontos para a calibragem da pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_Granularity |
A granularidade da avaliação da pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_EnableMiscue |
Define se ativa o cálculo miscue. Com esta opção ativada, as palavras pronunciadas serão comparadas com o texto de referência e serão marcadas com omissão/inserção com base na comparação. A predefinição é Falso. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
O alfabeto phoneme de avaliação pronúncia. Os valores válidos são "SAPI" (predefinição) e "IPA" Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
A avaliação da pronúncia nbest phoneme count. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Se pretende ativar a avaliação de prosody. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0. |
PronunciationAssessment_Json |
A cadeia json dos parâmetros de avaliação da pronúncia Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_Params |
Parâmetros de avaliação da pronúncia. Esta propriedade destina-se a ser só de leitura. O SDK está a utilizá-lo internamente. Adicionado na versão 1.14.0. |
PronunciationAssessment_ContentTopic |
O tópico de conteúdo da avaliação da pronúncia. Em circunstâncias normais, não deve ter de utilizar esta propriedade diretamente. Em vez disso, utilize PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0. |
SpeakerRecognition_Api_Version |
Versão da API de back-end do Reconhecimento de Orador. Esta propriedade é adicionada para permitir o teste e a utilização de versões anteriores das APIs de Reconhecimento de Orador, sempre que aplicável. Adicionado na versão 1.18.0. |
SpeechTranslation_ModelName |
O nome de um modelo a ser utilizado para tradução de voz. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. |
SpeechTranslation_ModelKey |
A chave de desencriptação de um modelo a utilizar para tradução de voz. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. |
KeywordRecognition_ModelName |
O nome de um modelo a ser utilizado para reconhecimento de palavras-chave. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando o EmbeddedSpeechConfig é utilizado. |
KeywordRecognition_ModelKey |
A chave de desencriptação de um modelo a utilizar para o reconhecimento de palavras-chave. Não utilize esta propriedade diretamente. Atualmente, isto só é válido quando é utilizado EmbeddedSpeechConfig. |
EmbeddedSpeech_EnablePerformanceMetrics |
Ative a coleção de métricas de desempenho de voz incorporadas que podem ser utilizadas para avaliar a capacidade de um dispositivo utilizar voz incorporada. Os dados recolhidos são incluídos nos resultados de cenários específicos, como o reconhecimento de voz. A predefinição é "false". Tenha em atenção que as métricas podem não estar disponíveis em todos os cenários de voz incorporados. |