PropertyId Énumération
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Répertorie les ID de propriété vocale.
public enum PropertyId
type PropertyId =
Public Enum PropertyId
- Héritage
-
PropertyId
Champs
AudioConfig_DeviceNameForRender | 8005 | Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSpeakerOutput(String). Ajouté dans la version 1.17.0 |
AudioConfig_PlaybackBufferLengthInMs | 8006 | Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes. Ajouté dans la version 1.17.0 |
CancellationDetails_Reason | 6000 | Inutilisé. Motif de l’annulation. |
CancellationDetails_ReasonDetailedText | 6002 | Inutilisé. Texte détaillé de l’annulation. |
CancellationDetails_ReasonText | 6001 | Inutilisé. Texte d’annulation. |
Conversation_ApplicationId | 10000 | Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0 |
Conversation_Connection_Id | 10009 | Informations d’identification supplémentaires, telles qu’un jeton Direct Line, utilisées pour l’authentification auprès du service principal. Ajouté dans la version 1.16.0 |
Conversation_Conversation_Id | 10004 | ConversationId pour la session. Ajouté dans la version 1.8.0 |
Conversation_Custom_Voice_Deployment_Ids | 10005 | Liste séparée par des virgules des ID de déploiement de la voix personnalisée. Ajouté dans la version 1.8.0 |
Conversation_DialogType | 10001 | Type de back-end de dialogue auquel se connecter. Ajouté dans la version 1.7.0 |
Conversation_From_Id | 10003 | Identificateur from à ajouter aux activités de reconnaissance vocale. Ajouté dans la version 1.5.0 |
Conversation_Initial_Silence_Timeout | 10002 | Délai d’expiration du silence pour l’écoute. Ajouté dans la version 1.5.0 |
Conversation_ParticipantId | 10007 | Obtient votre identificateur dans la conversation. Ajouté dans la version 1.13.0 |
Conversation_Request_Bot_Status_Messages | 10008 | Valeur booléenne qui spécifie si le client doit recevoir ou non des messages turn status et générer les événements TurnStatusReceived correspondants. La valeur par défaut est true. Ajouté dans la version 1.15.0 |
Conversation_Speech_Activity_Template | 10006 | Modèle d’activité Speech, tamponner les propriétés du modèle sur l’activité générée par le service de reconnaissance vocale. Voir SpeechActivityTemplate Ajout dans la version 1.10.0 |
ConversationTranscribingService_DataBufferTimeStamp | 11001 | Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Identique à l’horodatage de présentation dans un flux de transport MPEG. Consultez https://en.wikipedia.org/wiki/Presentation_timestamp. Ajouté dans la version 1.5.0 |
ConversationTranscribingService_DataBufferUserId | 11002 | Identificateur d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. Ajouté dans la version 1.5.0 |
LanguageUnderstandingServiceResponse_JsonResult | 7000 | Sortie de réponse du service Language Understanding (au format JSON). Disponible via Properties. |
PronunciationAssessment_EnableMiscue | 12005 | Indique un état de calcul incorrect. Lorsque cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués avec omission/insertion en fonction de la comparaison. False est le paramètre par défaut. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0 |
PronunciationAssessment_GradingSystem | 12002 | Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0 |
PronunciationAssessment_Granularity | 12003 | Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0 |
PronunciationAssessment_Json | 12009 | Chaîne JSON des paramètres d’évaluation de prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0 |
PronunciationAssessment_NBestPhonemeCount | 12007 | Évaluation de la prononciation nbest phonème count. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt NBestPhonemeCount. Ajouté dans la version 1.20.0 |
PronunciationAssessment_Params | 12010 | Paramètres d’évaluation de la prononciation. Cette propriété est en lecture seule. Ajouté dans la version 1.14.0 |
PronunciationAssessment_PhonemeAlphabet | 12006 | Alphabet du phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (par défaut) et « IPA » Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PhonemeAlphabet. Ajouté dans la version 1.20.0 |
PronunciationAssessment_ReferenceText | 12001 | Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez Paramètres d’évaluation de prononciation pour plus d’informations. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0 |
SpeakerRecognition_Api_Version | 13001 | Version de l’API de reconnaissance de l’orateur. Ajouté dans la version 1.18.0 |
Speech_LogFilename | 9001 | Nom de fichier pour écrire les journaux. Ajouté dans la version 1.4.0 |
Speech_SegmentationSilenceTimeoutMs | 9002 | Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est beaucoup plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale; cette propriété doit être configurée avec soin et le comportement qui en résulte doit être entièrement validé comme prévu. Pour plus d’informations sur la configuration du délai d’expiration qui inclut la discussion des comportements par défaut, consultez https://aka.ms/csspeech/timeouts. |
Speech_SessionId | 3002 | ID de session. Cet ID est un identificateur universel unique (également appelé UUID) qui représente une liaison spécifique d’un flux d’entrée audio et de l’instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SessionId à la place. |
SpeechServiceAuthorization_Token | 1003 | Jeton d’autorisation du service Speech (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez FromAuthorizationToken(String, String), AuthorizationToken, AuthorizationToken, AuthorizationToken. |
SpeechServiceAuthorization_Type | 1004 | Inutilisé. Type d’autorisation du service Speech. |
SpeechServiceConnection_AutoDetectSourceLanguageResult | 3301 | Résultat de la détection automatique de la langue source. Ajouté dans la version 1.9.0 |
SpeechServiceConnection_AutoDetectSourceLanguages | 3300 | Détection automatique des langues sources. Ajouté dans la version 1.9.0 |
SpeechServiceConnection_EnableAudioLogging | 3202 | Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. Les journaux d’activité audio et de contenu sont stockés soit dans un stockage appartenant à Microsoft, soit dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ressource Speech byOS (Bring Your Own Storage) activée). Ajouté dans la version 1.5.0. |
SpeechServiceConnection_Endpoint | 1001 | Le point de terminaison du service Speech, une URL. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromEndpoint(Uri, String), ou FromEndpoint(Uri). REMARQUE : Ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès. |
SpeechServiceConnection_EndpointId | 1005 | ID de point de terminaison Custom Speech ou Custom Voice Service. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromEndpoint(Uri, String), ou FromEndpoint(Uri). REMARQUE : L’ID de point de terminaison est disponible dans le portail Custom Speech, répertorié sous Détails du point de terminaison. |
SpeechServiceConnection_EndSilenceTimeoutMs | 3201 | Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0 |
SpeechServiceConnection_Host | 1006 | Hôte du service Speech (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromHost(Uri, String), ou FromHost(Uri). |
SpeechServiceConnection_InitialSilenceTimeoutMs | 3200 | Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0 |
SpeechServiceConnection_IntentRegion | 2003 | Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez LanguageUnderstandingModel à la place. |
SpeechServiceConnection_Key | 1000 | Clé d’abonnement utilisée avec les points de terminaison de service Speech. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSubscription(String, String). |
SpeechServiceConnection_LanguageIdMode | 3205 | Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez le document d’identification de la langue . Ajouté dans la version 1.25.0 |
SpeechServiceConnection_ProxyHostName | 1100 | Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0 |
SpeechServiceConnection_ProxyPassword | 1103 | Mot de passe du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0 |
SpeechServiceConnection_ProxyPort | 1101 | Port du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0 |
SpeechServiceConnection_ProxyUserName | 1102 | Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0 |
SpeechServiceConnection_RecoBackend | 3004 | Chaîne à spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0 |
SpeechServiceConnection_RecoLanguage | 3001 | Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechRecognitionLanguage. |
SpeechServiceConnection_RecoMode | 3000 | Mode de reconnaissance du service Speech. Peut être INTERACTIF, CONVERSATION, DICTÉE. Cette propriété est en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. |
SpeechServiceConnection_RecoModelKey | 3006 | Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0 |
SpeechServiceConnection_RecoModelName | 3005 | Nom du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0 |
SpeechServiceConnection_Region | 1002 | Région du service Speech associée à la clé d’abonnement. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSubscription(String, String), , FromEndpoint(Uri, String)FromEndpoint(Uri), FromHost(Uri, String), , FromHost(Uri), FromAuthorizationToken(String, String). |
SpeechServiceConnection_SynthBackend | 3110 | Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromPath(String) ou FromPaths(String[]). pour définir le serveur principal de synthèse sur hors connexion. Ajouté dans la version 1.19.0 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | 3103 | Indique s’il faut utiliser le format audio compressé pour la transmission audio de synthèse vocale. Cette propriété n’est importante que lorsque SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie sur true et que GStreamer est disponible, le SDK utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur false pour utiliser le format pcm brut pour la transmission sur le réseau. Ajouté dans la version 1.16.0 |
SpeechServiceConnection_SynthLanguage | 3100 | Langue parlée à synthétiser (par exemple, en-US). Ajouté dans la version 1.4.0 |
SpeechServiceConnection_SynthModelKey | 3114 | Clé de déchiffrement du modèle à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt SetSpeechSynthesisVoice(String, String). Ajouté dans la version 1.19.0 |
SpeechServiceConnection_SynthOfflineDataPath | 3112 | Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromPath(String) ou FromPaths(String[]). Ajouté dans la version 1.19.0 |
SpeechServiceConnection_SynthOfflineVoice | 3113 | Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt SetSpeechSynthesisVoice(String, String). Ajouté dans la version 1.19.0 |
SpeechServiceConnection_SynthOutputFormat | 3102 | Chaîne permettant de spécifier le format audio de sortie de synthèse vocale (par exemple, riff-16khz-16bit-mono-pcm) ajouté à la version 1.4.0 |
SpeechServiceConnection_SynthVoice | 3101 | Nom de la voix à utiliser pour la synthèse vocale. Ajouté dans la version 1.4.0 |
SpeechServiceConnection_TranslationFeatures | 2002 | Fonctionnalités de traduction. À usage interne uniquement. |
SpeechServiceConnection_TranslationToLanguages | 2000 | Liste des langues séparées par des virgules (au format BCP-47) utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AddTargetLanguage(String) et la collection en lecture seule TargetLanguages . |
SpeechServiceConnection_TranslationVoice | 2001 | Nom de la voix utilisée pour la synthèse vocale. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez VoiceName à la place. Recherchez des noms vocaux valides ici. |
SpeechServiceConnection_Url | 1104 | Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est en lecture seule. Le Kit de développement logiciel (SDK) utilise cette valeur en interne. Ajouté dans la version 1.5.0 |
SpeechServiceConnection_VoicesListEndpoint | 3130 | Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, car le SDK la construit en fonction de la région/de l’hôte/du point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0 |
SpeechServiceResponse_JsonErrorDetails | 5001 | Détails de l’erreur du service Speech (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez ErrorDetails à la place. |
SpeechServiceResponse_JsonResult | 5000 | Sortie de réponse du service Speech (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance. |
SpeechServiceResponse_OutputFormatOption | 4006 | Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajouté dans la version 1.5.0 |
SpeechServiceResponse_PostProcessingOption | 4003 | Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Valeur autorisée : TrueText. Ajouté dans la version 1.5.0 |
SpeechServiceResponse_ProfanityOption | 4002 | Paramètre de sortie de réponse du service Speech demandé. Les valeurs autorisées sont masquées, supprimées et brutes. Ajouté dans la version 1.5.0 |
SpeechServiceResponse_RecognitionBackend | 5003 | Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat. |
SpeechServiceResponse_RecognitionLatencyMs | 5002 | Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finaux de la parole,de la traduction/de l’intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le SDK et le moment où le résultat final est reçu du service. Le Kit de développement logiciel (SDK) calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse | 4000 | Format de sortie de réponse du service Speech demandé (OutputFormat.Simple ou OutputFormat.Detailed). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt OutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | 4001 | Inutilisé. Niveau de grossièreté de la réponse du service Speech demandé. |
SpeechServiceResponse_RequestPunctuationBoundary | 4201 | Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary | 4202 | Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestSnr | 4007 | Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. Ajouté dans la version 1.18.0 |
SpeechServiceResponse_RequestWordBoundary | 4200 | Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestWordLevelTimestamps | 4004 | Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0 |
SpeechServiceResponse_StablePartialResultThreshold | 4005 | Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajouté dans la version 1.5.0 |
SpeechServiceResponse_SynthesisBackend | 5020 | Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception du résultat dans l’événement SynthesisStarted. Ajouté dans la version 1.19.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs | 5013 | Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio | 4210 | Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, visème, etc.) avec la lecture audio. Cela ne prend effet que lorsque l’audio est lu via le KIT de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le Kit de développement logiciel (SDK) déclenche les événements car ils proviennent du service, qui peut ne pas être synchronisé avec la lecture audio. Ajout dans la version 1.31.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs | 5011 | La synthèse vocale est la latence de tous les octets en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où l’ensemble de l’audio est synthétisé. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | 5010 | Latence du premier octet de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où le premier audio octet est disponible. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs | 5014 | Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps d’aller-retour réseau. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs | 5015 | Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs | 5012 | Durée de sous-exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats dans les événements SynthesisCompleted. Cela mesure le temps total de sous-exécution entre AudioConfig_PlaybackBufferLengthInMs est rempli et la synthèse terminée. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult | 4100 | Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0 |
SpeechTranslation_ModelKey | 13101 | Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
SpeechTranslation_ModelName | 13100 | Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
S’applique à
Azure SDK for .NET