SpeechServiceConnection_Key |
Clé d’abonnement du service Speech Cognitive Services. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription. |
SpeechServiceConnection_Endpoint |
Point de terminaison du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromEndpoint. REMARQUE : ce point de terminaison n’est pas identique au point de terminaison utilisé pour obtenir un jeton d’accès. |
SpeechServiceConnection_Region |
Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription, SpeechConfig ::FromEndpoint, SpeechConfig ::FromHost, SpeechConfig ::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Jeton d’autorisation du service Speech Cognitive Services (jeton d’accès). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromAuthorizationToken, SpeechRecognizer ::SetAuthorizationToken, IntentRecognizer ::SetAuthorizationToken, TranslationRecognizer ::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé. |
SpeechServiceConnection_EndpointId |
ID de point de terminaison Custom Speech ou Custom Voice Service cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetEndpointId. REMARQUE : L’ID de point de terminaison est disponible dans le portail Custom Speech, répertorié sous Détails du point de terminaison. |
SpeechServiceConnection_Host |
Hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyPort |
Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_Url |
Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : ajoutée dans la version 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Spécifie la liste des hôtes pour lesquels les proxys ne doivent pas être utilisés. Ce paramètre remplace toutes les autres configurations. Les noms d’hôte sont séparés par des virgules et sont mis en correspondance de manière non sensible à la casse. Les caractères génériques ne sont pas pris en charge. |
SpeechServiceConnection_TranslationToLanguages |
Liste des langues séparées par des virgules utilisées comme langues de traduction cible. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::AddTargetLanguage et SpeechTranslationConfig ::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nom de la voix du service de synthèse vocale du service cognitif. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez à la place SpeechTranslationConfig ::SetVoiceName. REMARQUE : Les noms vocaux valides sont disponibles ici. |
SpeechServiceConnection_TranslationFeatures |
Fonctionnalités de traduction. Pour une utilisation interne. |
SpeechServiceConnection_IntentRegion |
Région du service Language Understanding. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Mode de reconnaissance de Cognitive Services Speech Service. Peut être « INTERACTIVE », « CONVERSATION », « DICTATION ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. |
SpeechServiceConnection_RecoLanguage |
Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetSpeechRecognitionLanguage. |
Speech_SessionId |
ID de session. Cet ID est un identificateur universellement unique (aka UUID) représentant une liaison spécifique d’un flux d’entrée audio et l’instance de reconnaissance vocale sous-jacente à laquelle elle est liée. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs ::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Paramètres de requête fournis par les utilisateurs. Ils sont passés au service en tant que paramètres de requête d’URL. Ajouté dans la version 1.5.0. |
SpeechServiceConnection_RecoBackend |
Chaîne permettant de spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion est valide uniquement lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nom du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Cette propriété est déconseillée. |
SpeechServiceConnection_RecoModelIniFile |
Chemin d’accès au fichier ini du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Langue parlée à synthétiser (par exemple, en-US) ajoutée dans la version 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nom de la voix TTS à utiliser pour la synthèse vocale ajoutée dans la version 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Chaîne permettant de spécifier le format audio de sortie TTS ajouté dans la version 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indique si vous utilisez le format audio compressé pour la transmission audio de synthèse vocale. Cette propriété affecte uniquement lorsque SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie et que GStreamer est disponible, le Kit de développement logiciel (SDK) utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur « false » pour utiliser le format pcm brut pour la transmission sur le fil. Ajouté dans la version 1.16.0. |
SpeechServiceConnection_SynthBackend |
Chaîne à spécifier le back-end TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths pour définir le serveur principal de synthèse hors connexion. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Chemin(s) du ou des fichiers de données pour le moteur de synthèse hors connexion ; valide uniquement lorsque le back-end de synthèse est hors connexion. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice et EmbeddedSpeechConfig ::GetSpeechSynthesisVoiceName. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Cette propriété est déconseillée. |
SpeechServiceConnection_VoicesListEndpoint |
Le point de terminaison d’API de liste des voix du service Speech Cognitive Services (URL). Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, le Kit de développement logiciel (SDK) le construit en fonction de la région/hôte/point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valeur du délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valeur du délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Valeur booléenne spécifiant si la journalisation audio est activée dans le service ou non. Les journaux audio et de contenu sont stockés dans le stockage appartenant à Microsoft ou dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ByOS) avec la ressource Speech compatible avec Votre propre stockage( BYOS). Ajouté dans la version 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez document d’identification linguistique. Ajouté dans la version 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
Id de catégorie de traduction de connexion du service speech. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Détection automatique des langues sources ajoutées dans la version 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Le résultat de détection automatique du langage source a été ajouté dans la version 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Format de sortie de réponse cognitive Services Speech Service demandé (simple ou détaillé). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Niveau de profanité de sortie de réponse cognitive Services Speech Service demandé. Actuellement inutilisé. |
SpeechServiceResponse_ProfanityOption |
Paramètre de profanité de sortie de réponse cognitive Services Speech Service demandé. Les valeurs autorisées sont « masquées », « supprimées » et « brutes ». Ajouté dans la version 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Valeur de chaîne spécifiant l’option de post-traitement à utiliser par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Nombre de fois où un mot doit être dans des résultats partiels à renvoyer. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. Utilisation interne uniquement. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestSnr |
Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal à bruit) dans le résultat de la réponse. Ajouté dans la version 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valeur booléenne spécifiant s’il faut demander la limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, viseme, etc.) à la lecture audio. Cela prend effet uniquement lorsque l’audio est lu via le Kit de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le SDK déclenche les événements à mesure qu’ils proviennent du service, ce qui peut être désynchronisée avec la lecture audio. Ajouté dans la version 1.31.0. |
SpeechServiceResponse_JsonResult |
Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance. |
SpeechServiceResponse_JsonErrorDetails |
Détails de l’erreur Cognitive Services Speech Service (au format JSON). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails ::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finals de la reconnaissance vocale/traduction/intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le Kit de développement logiciel (SDK) et le moment où le résultat final est reçu du service. Le SDK calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
La synthèse vocale commence par une latence d’octet en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où le premier audio d’octets est disponible. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Synthèse vocale toutes les latences d’octets en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où l’audio entier est synthétisé. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Durée d’exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats des événements SynthesisCompleted. Cela mesure le temps total d’exécution de PropertyId ::AudioConfig_PlaybackBufferLengthInMs est rempli pour la synthèse terminée. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure le temps d’aller-retour du réseau. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception de l’événement SynthesisStarted ajouté dans la version 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Détermine si les résultats intermédiaires contiennent l’identification de l’orateur. |
CancellationDetails_Reason |
Raison de l’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonText |
Texte d’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonDetailedText |
Texte détaillé de l’annulation. Actuellement inutilisé. |
LanguageUnderstandingServiceResponse_JsonResult |
Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nom de l’appareil pour la capture audio. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromMicrophoneInput. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Nombre de canaux pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_SampleRateForCapture |
Taux d’échantillonnage (en Hz) pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Nombre de bits de chaque échantillon pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_AudioSource |
Source audio. Les valeurs autorisées sont « Microphones », « Fichier » et « Stream ». Ajouté dans la version 1.3.0. |
AudioConfig_DeviceNameForRender |
Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromSpeakerOutput. Ajouté dans la version 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
La longueur de la mémoire tampon de lecture en millisecondes est de 50 millisecondes par défaut. |
AudioConfig_AudioProcessingOptions |
Options de traitement audio au format JSON. |
Speech_LogFilename |
Nom de fichier pour écrire des journaux d’activité. Ajouté dans la version 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Durée du silence détecté, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée s’est terminée et génère un résultat final reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée parlée est beaucoup plus rapide ou plus lente que d’habitude et que le comportement de segmentation par défaut génère constamment des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être soigneusement configurée et le comportement résultant doit être soigneusement validé comme prévu. |
Speech_SegmentationMaximumTimeMs |
Longueur maximale d’une expression parlée lors de l’utilisation de la stratégie de segmentation « Time ». À mesure que la longueur d’une expression parlée approche de cette valeur, la Speech_SegmentationSilenceTimeoutMs commence à être réduite jusqu’à ce que le délai d’expiration du silence de l’expression soit atteint ou que l’expression atteigne la longueur maximale. |
Speech_SegmentationStrategy |
La stratégie utilisée pour déterminer quand une expression parlée a pris fin et qu’un résultat final reconnu doit être généré. Les valeurs autorisées sont « Default », « Time » et « Semantic ». |
Conversation_ApplicationId |
Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0. |
Conversation_DialogType |
Type de serveur principal de boîte de dialogue auquel se connecter. Ajouté dans la version 1.7.0. |
Conversation_Initial_Silence_Timeout |
Délai d’expiration du silence pour l’écoute ajoutée dans la version 1.5.0. |
Conversation_From_Id |
Id à utiliser sur les activités de reconnaissance vocale ajoutées dans la version 1.5.0. |
Conversation_Conversation_Id |
ConversationId pour la session. Ajouté dans la version 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Liste séparée par des virgules d’ID de déploiement vocaux personnalisés. Ajouté dans la version 1.8.0. |
Conversation_Speech_Activity_Template |
Modèle d’activité Speech, propriétés d’horodatage dans le modèle sur l’activité générée par le service pour la reconnaissance vocale. Ajouté dans la version 1.10.0. |
Conversation_ParticipantId |
Identificateur de votre participant dans la conversation actuelle. Ajouté dans la version 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Il est identique à l’horodatage de présentation dans un flux de transport MPEG. Consultez https://en.wikipedia.org/wiki/Presentation_timestamp ajouté dans la version 1.5.0. |
DataBuffer_UserId |
ID utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. Ajouté dans la version 1.5.0. |
PronunciationAssessment_ReferenceText |
Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez le tableau paramètres d’évaluation de prononciation. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PronunciationAssessmentConfig ::Create ou PrononciationAssessmentConfig ::SetReferenceText. Ajouté dans la version 1.14.0. |
PronunciationAssessment_GradingSystem |
Système de point pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_Granularity |
Granularité de l’évaluation de la prononciation (Phoneme, Word ou FullText). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_EnableMiscue |
Définit si vous activez le calcul incorrect. Avec cette option activée, les mots prononcés seront comparés au texte de référence et seront marqués avec omission/insertion en fonction de la comparaison. Le paramètre par défaut est False. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alphabet phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (valeur par défaut) et « IPA » dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetPhonemeAlphabet. Ajouté dans la version 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Nombre de phonèmes d’évaluation de prononciation nbest. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetNBestPhonemeCount. Ajouté dans la version 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Indique s’il faut activer l’évaluation de la prosodie. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableProsodyAssessment. Ajouté dans la version 1.33.0. |
PronunciationAssessment_Json |
Chaîne json des paramètres d’évaluation de prononciation dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_Params |
Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.14.0. |
PronunciationAssessment_ContentTopic |
Rubrique de contenu de l’évaluation de la prononciation. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableContentAssessmentWithTopic. Ajouté dans la version 1.33.0. |
SpeakerRecognition_Api_Version |
Version de l’API back-end de reconnaissance de l’orateur. Cette propriété est ajoutée pour autoriser le test et l’utilisation des versions précédentes des API reconnaissance de l’orateur, le cas échéant. Ajouté dans la version 1.18.0. |
SpeechTranslation_ModelName |
Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
SpeechTranslation_ModelKey |
Cette propriété est déconseillée. |
KeywordRecognition_ModelName |
Nom d’un modèle à utiliser pour la reconnaissance de mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
KeywordRecognition_ModelKey |
Cette propriété est déconseillée. |
EmbeddedSpeech_EnablePerformanceMetrics |
Activez la collection de métriques de performances vocales incorporées qui peuvent être utilisées pour évaluer la capacité d’un appareil à utiliser la reconnaissance vocale incorporée. Les données collectées sont incluses dans les résultats de scénarios spécifiques tels que la reconnaissance vocale. Le paramètre par défaut est « false ». Notez que les métriques peuvent ne pas être disponibles à partir de tous les scénarios vocaux incorporés. |
SpeechSynthesisRequest_Pitch |
Hauteur du discours synthétisé. |
SpeechSynthesisRequest_Rate |
Taux de la voix synthétisée. |
SpeechSynthesisRequest_Volume |
Volume de la synthèse vocale. |