Partager via


Espace de noms Microsoft ::CognitiveServices ::Speech

Résumé

Membres Descriptions
énumération PropertyId Définit les ID de propriété speech. Modifié dans la version 1.4.0.
énumération OutputFormat Format de sortie.
énumération ProfanityOption Supprime la profanité (jure) ou remplace les lettres de mots profanes par des étoiles. Ajouté dans la version 1.5.0.
énumération ResultReason Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.
énumération CancellationReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.
énumération CancellationErrorCode Définit le code d’erreur en cas d’erreur d’CancellationReason. Ajouté dans la version 1.1.0.
énumération NoMatchReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.
énumération ActivityJSONType Définit les types possibles pour une valeur json d’activité. Ajouté dans la version 1.5.0.
énumération SpeechSynthesisOutputFormat Définit les formats audio de sortie vocale possibles. Mise à jour dans la version 1.19.0.
énumération StreamStatus Définit l’état possible du flux de données audio. Ajouté dans la version 1.4.0.
énumération ServicePropertyChannel Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.5.0.
énumération VoiceProfileType Définit les types de profil vocal.
énumération RecognitionFactorScope Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.
énumération PrononciationAssessmentGradingSystem Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.14.0.
enum PronunciationAssessmentGranularity Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phoneme. Ajouté dans la version 1.14.0.
énumération SynthesisVoiceType Définit le type de voix de synthèse ajoutées dans la version 1.16.0.
énumération SynthesisVoiceGender Définit le genre des voix de synthèse ajoutées dans la version 1.17.0.
énumération SpeechSynthesisBoundaryType Définit le type de limite de l’événement de limite de synthèse vocale ajouté dans la version 1.21.0.
énumération SegmentationStrategy La stratégie utilisée pour déterminer quand une expression parlée a pris fin et qu’un résultat final reconnu doit être généré. Les valeurs autorisées sont « Default », « Time » et « Semantic ».
classe AsyncRecognizer Classe de base abstraite AsyncRecognizer.
classe AudioDataStream Représente le flux de données audio utilisé pour l’exploitation des données audio en tant que flux. Ajouté dans la version 1.4.0.
classe AutoDetectSourceLanguageConfig Classe qui définit la configuration source de détection automatique mise à jour dans la version 1.13.0.
classe AutoDetectSourceLanguageResult Contient le résultat du langage source détecté automatiquement ajouté dans la version 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.
classe ClassLanguageModel Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0.
classe Connection La connexion est une classe proxy pour la gestion de la connexion au service speech du module Recognizer spécifié. Par défaut, un Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires pour permettre aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications d’état de connexion. L’utilisation de la connexion est facultative. Il est destiné aux scénarios où le réglage précis du comportement de l’application en fonction de l’état de la connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour lancer manuellement une connexion de service avant de commencer la reconnaissance sur le module Recognizer associé à cette connexion. Après avoir démarré une reconnaissance, l’appel d’Open() ou Close() peut échouer. Cela n’aura pas d’impact sur le module Recognizer ou la reconnaissance en cours. La connexion peut tomber pour différentes raisons, le module Recognizer essaie toujours de rétablir la connexion selon les besoins pour garantir les opérations en cours. Dans tous ces cas, les événements connectés/déconnectés indiquent la modification de l’état de la connexion. Mise à jour dans la version 1.17.0.
classe ConnectionEventArgs Fournit des données pour ConnectionEvent. Ajouté dans la version 1.2.0.
classe ConnectionMessage ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus par le service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour les cas d’utilisation de production avec azure Cognitive Services Speech Service. Les messages envoyés et reçus du service Speech sont susceptibles de changer sans préavis. Cela inclut le contenu du message, les en-têtes, les charges utiles, l’ordre, etc. Ajouté dans la version 1.10.0.
classe ConnectionMessageEventArgs Fournit des données pour ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe qui définit la configuration vocale incorporée (hors connexion).
classe EventArgs Classe de base pour les arguments d’événement.
classe EventSignal Les clients peuvent se connecter au signal d’événement pour recevoir des événements ou se déconnecter du signal d’événement pour arrêter la réception d’événements.
classe EventSignalBase Les clients peuvent se connecter au signal d’événement pour recevoir des événements ou se déconnecter du signal d’événement pour arrêter la réception d’événements.
classe Grammar Représente la grammaire de classe de base pour la personnalisation de la reconnaissance vocale. Ajouté dans la version 1.5.0.
classe GrammarList Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0.
classe GrammarPhrase Représente une expression qui peut être parlée par l’utilisateur. Ajouté dans la version 1.5.0.
classe HybridSpeechConfig Classe qui définit des configurations hybrides (cloud et incorporées) pour la reconnaissance vocale ou la synthèse vocale.
classe KeywordRecognitionEventArgs Classe pour les événements emmités par le KeywordRecognizer.
classe KeywordRecognitionModel Représente le modèle de reconnaissance de mot clé utilisé avec les méthodes StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe qui définit les résultats émis par le KeywordRecognizer.
classe KeywordRecognizer Type de module de reconnaissance spécialisé uniquement pour gérer l’activation de mot clé.
classe NoMatchDetails Contient des informations détaillées pour les résultats de la reconnaissance NoMatch.
classe PersonalVoiceSynthesisRequest Classe qui définit la demande de synthèse vocale pour la voix personnelle (aka.ms/azureai/personal-voice). Cette classe est en préversion et peut être modifiée. Ajouté dans la version 1.39.0.
classe PhraseListGrammar Représente une grammaire de liste d’expressions pour les scénarios de grammaire dynamique. Ajouté dans la version 1.5.0.
classe PrononciationAssessmentConfig Classe qui définit la configuration de l’évaluation de la prononciation ajoutée dans la version 1.14.0.
classe PrononciationAssessmentResult Classe pour les résultats de l’évaluation de prononciation.
classe PrononciationContentAssessmentResult Classe pour les résultats de l’évaluation du contenu.
classe PropertyCollection Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés.
classe RecognitionEventArgs Fournit des données pour RecognitionEvent.
classe RecognitionResult Contient des informations détaillées sur le résultat d’une opération de reconnaissance.
classe Recognizer Classe de base Recognizer.
classe SessionEventArgs Classe de base pour les arguments d’événement de session.
classe SmartHandle Classe de handle intelligent.
classe SourceLanguageConfig Classe qui définit la configuration du langage source, ajoutée dans la version 1.8.0.
classe SourceLanguageRecognizer Classe pour les modules de reconnaissance de langue source. Vous pouvez utiliser cette classe pour la détection de langue autonome. Ajouté dans la version 1.17.0.
classe SpeechConfig Classe qui définit des configurations pour la reconnaissance vocale/intention ou la synthèse vocale.
classe SpeechRecognitionCanceledEventArgs Classe pour les arguments d’événement annulés de reconnaissance vocale.
classe SpeechRecognitionEventArgs Classe pour les arguments d’événement de reconnaissance vocale.
classe SpeechRecognitionModel Informations sur le modèle de reconnaissance vocale.
classe SpeechRecognitionResult Classe de base pour les résultats de la reconnaissance vocale.
classe SpeechRecognizer Classe pour les modules de reconnaissance vocale.
classe SpeechSynthesisBookmarkEventArgs Classe pour les arguments d’événement de signet de synthèse vocale. Ajouté dans la version 1.16.0.
classe SpeechSynthesisCancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. Ajouté dans la version 1.4.0.
classe SpeechSynthesisEventArgs Classe pour les arguments d’événement de synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisRequest Classe qui définit la demande de synthèse vocale. Cette classe est en préversion et peut être modifiée. Ajouté dans la version 1.37.0.
classe SpeechSynthesisResult Contient des informations sur le résultat de la synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe pour les arguments d’événement viseme de synthèse vocale. Ajouté dans la version 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe pour les arguments d’événement de limite de mot de synthèse vocale. Ajouté dans la version 1.7.0.
classe SpeechSynthesizer Classe pour le synthétiseur vocal. Mise à jour dans la version 1.14.0.
classe SpeechTranslationModel Informations sur le modèle de traduction vocale.
classe SynthesisVoicesResult Contient des informations sur les résultats de la liste des synthétiseurs vocaux. Ajouté dans la version 1.16.0.
classe VoiceInfo Contient des informations sur les informations vocales de synthèse mises à jour dans la version 1.17.0.

Membres

enum PropertyId

Valeurs Descriptions
SpeechServiceConnection_Key Clé d’abonnement du service Speech Cognitive Services. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription.
SpeechServiceConnection_Endpoint Point de terminaison du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromEndpoint. REMARQUE : ce point de terminaison n’est pas identique au point de terminaison utilisé pour obtenir un jeton d’accès.
SpeechServiceConnection_Region Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription, SpeechConfig ::FromEndpoint, SpeechConfig ::FromHost, SpeechConfig ::FromAuthorizationToken.
SpeechServiceAuthorization_Token Jeton d’autorisation du service Speech Cognitive Services (jeton d’accès). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromAuthorizationToken, SpeechRecognizer ::SetAuthorizationToken, IntentRecognizer ::SetAuthorizationToken, TranslationRecognizer ::SetAuthorizationToken.
SpeechServiceAuthorization_Type Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé.
SpeechServiceConnection_EndpointId ID de point de terminaison Custom Speech ou Custom Voice Service cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetEndpointId. REMARQUE : L’ID de point de terminaison est disponible dans le portail Custom Speech, répertorié sous Détails du point de terminaison.
SpeechServiceConnection_Host Hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromHost.
SpeechServiceConnection_ProxyHostName Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPort Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyUserName Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPassword Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_Url Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : ajoutée dans la version 1.5.0.
SpeechServiceConnection_ProxyHostBypass Spécifie la liste des hôtes pour lesquels les proxys ne doivent pas être utilisés. Ce paramètre remplace toutes les autres configurations. Les noms d’hôte sont séparés par des virgules et sont mis en correspondance de manière non sensible à la casse. Les caractères génériques ne sont pas pris en charge.
SpeechServiceConnection_TranslationToLanguages Liste des langues séparées par des virgules utilisées comme langues de traduction cible. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::AddTargetLanguage et SpeechTranslationConfig ::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Nom de la voix du service de synthèse vocale du service cognitif. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez à la place SpeechTranslationConfig ::SetVoiceName. REMARQUE : Les noms vocaux valides sont disponibles ici.
SpeechServiceConnection_TranslationFeatures Fonctionnalités de traduction. Pour une utilisation interne.
SpeechServiceConnection_IntentRegion Région du service Language Understanding. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Mode de reconnaissance de Cognitive Services Speech Service. Peut être « INTERACTIVE », « CONVERSATION », « DICTATION ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne.
SpeechServiceConnection_RecoLanguage Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetSpeechRecognitionLanguage.
Speech_SessionId ID de session. Cet ID est un identificateur universellement unique (aka UUID) représentant une liaison spécifique d’un flux d’entrée audio et l’instance de reconnaissance vocale sous-jacente à laquelle elle est liée. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs ::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Paramètres de requête fournis par les utilisateurs. Ils sont passés au service en tant que paramètres de requête d’URL. Ajouté dans la version 1.5.0.
SpeechServiceConnection_RecoBackend Chaîne permettant de spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion est valide uniquement lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0.
SpeechServiceConnection_RecoModelName Nom du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0.
SpeechServiceConnection_RecoModelKey Cette propriété est déconseillée.
SpeechServiceConnection_RecoModelIniFile Chemin d’accès au fichier ini du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthLanguage Langue parlée à synthétiser (par exemple, en-US) ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthVoice Nom de la voix TTS à utiliser pour la synthèse vocale ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthOutputFormat Chaîne permettant de spécifier le format audio de sortie TTS ajouté dans la version 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indique si vous utilisez le format audio compressé pour la transmission audio de synthèse vocale. Cette propriété affecte uniquement lorsque SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie et que GStreamer est disponible, le Kit de développement logiciel (SDK) utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur « false » pour utiliser le format pcm brut pour la transmission sur le fil. Ajouté dans la version 1.16.0.
SpeechServiceConnection_SynthBackend Chaîne à spécifier le back-end TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths pour définir le serveur principal de synthèse hors connexion. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Chemin(s) du ou des fichiers de données pour le moteur de synthèse hors connexion ; valide uniquement lorsque le back-end de synthèse est hors connexion. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineVoice Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice et EmbeddedSpeechConfig ::GetSpeechSynthesisVoiceName. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthModelKey Cette propriété est déconseillée.
SpeechServiceConnection_VoicesListEndpoint Le point de terminaison d’API de liste des voix du service Speech Cognitive Services (URL). Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, le Kit de développement logiciel (SDK) le construit en fonction de la région/hôte/point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs Valeur du délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs Valeur du délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0.
SpeechServiceConnection_EnableAudioLogging Valeur booléenne spécifiant si la journalisation audio est activée dans le service ou non. Les journaux audio et de contenu sont stockés dans le stockage appartenant à Microsoft ou dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ByOS) avec la ressource Speech compatible avec Votre propre stockage( BYOS). Ajouté dans la version 1.5.0.
SpeechServiceConnection_LanguageIdMode Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez document d’identification linguistique. Ajouté dans la version 1.25.0.
SpeechServiceConnection_TranslationCategoryId Id de catégorie de traduction de connexion du service speech.
SpeechServiceConnection_AutoDetectSourceLanguages Détection automatique des langues sources ajoutées dans la version 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult Le résultat de détection automatique du langage source a été ajouté dans la version 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse Format de sortie de réponse cognitive Services Speech Service demandé (simple ou détaillé). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Niveau de profanité de sortie de réponse cognitive Services Speech Service demandé. Actuellement inutilisé.
SpeechServiceResponse_ProfanityOption Paramètre de profanité de sortie de réponse cognitive Services Speech Service demandé. Les valeurs autorisées sont « masquées », « supprimées » et « brutes ». Ajouté dans la version 1.5.0.
SpeechServiceResponse_PostProcessingOption Valeur de chaîne spécifiant l’option de post-traitement à utiliser par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold Nombre de fois où un mot doit être dans des résultats partiels à renvoyer. Ajouté dans la version 1.5.0.
SpeechServiceResponse_OutputFormatOption Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. Utilisation interne uniquement. Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestSnr Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal à bruit) dans le résultat de la réponse. Ajouté dans la version 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestWordBoundary Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Valeur booléenne spécifiant s’il faut demander la limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, viseme, etc.) à la lecture audio. Cela prend effet uniquement lorsque l’audio est lu via le Kit de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le SDK déclenche les événements à mesure qu’ils proviennent du service, ce qui peut être désynchronisée avec la lecture audio. Ajouté dans la version 1.31.0.
SpeechServiceResponse_JsonResult Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance.
SpeechServiceResponse_JsonErrorDetails Détails de l’erreur Cognitive Services Speech Service (au format JSON). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails ::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finals de la reconnaissance vocale/traduction/intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le Kit de développement logiciel (SDK) et le moment où le résultat final est reçu du service. Le SDK calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0.
SpeechServiceResponse_RecognitionBackend Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat.
SpeechServiceResponse_SynthesisFirstByteLatencyMs La synthèse vocale commence par une latence d’octet en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où le premier audio d’octets est disponible. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs Synthèse vocale toutes les latences d’octets en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où l’audio entier est synthétisé. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs Durée d’exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats des événements SynthesisCompleted. Cela mesure le temps total d’exécution de PropertyId ::AudioConfig_PlaybackBufferLengthInMs est rempli pour la synthèse terminée. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure le temps d’aller-retour du réseau. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats de synthèse vocale finale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisBackend Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception de l’événement SynthesisStarted ajouté dans la version 1.17.0.
SpeechServiceResponse_DiarizeIntermediateResults Détermine si les résultats intermédiaires contiennent l’identification de l’orateur.
CancellationDetails_Reason Raison de l’annulation. Actuellement inutilisé.
CancellationDetails_ReasonText Texte d’annulation. Actuellement inutilisé.
CancellationDetails_ReasonDetailedText Texte détaillé de l’annulation. Actuellement inutilisé.
LanguageUnderstandingServiceResponse_JsonResult Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Nom de l’appareil pour la capture audio. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromMicrophoneInput. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_NumberOfChannelsForCapture Nombre de canaux pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_SampleRateForCapture Taux d’échantillonnage (en Hz) pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_BitsPerSampleForCapture Nombre de bits de chaque échantillon pour la capture audio. Utilisation interne uniquement. REMARQUE : Cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_AudioSource Source audio. Les valeurs autorisées sont « Microphones », « Fichier » et « Stream ». Ajouté dans la version 1.3.0.
AudioConfig_DeviceNameForRender Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromSpeakerOutput. Ajouté dans la version 1.14.0.
AudioConfig_PlaybackBufferLengthInMs La longueur de la mémoire tampon de lecture en millisecondes est de 50 millisecondes par défaut.
AudioConfig_AudioProcessingOptions Options de traitement audio au format JSON.
Speech_LogFilename Nom de fichier pour écrire des journaux d’activité. Ajouté dans la version 1.4.0.
Speech_SegmentationSilenceTimeoutMs Durée du silence détecté, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée s’est terminée et génère un résultat final reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée parlée est beaucoup plus rapide ou plus lente que d’habitude et que le comportement de segmentation par défaut génère constamment des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être soigneusement configurée et le comportement résultant doit être soigneusement validé comme prévu.
Speech_SegmentationMaximumTimeMs Longueur maximale d’une expression parlée lors de l’utilisation de la stratégie de segmentation « Time ». À mesure que la longueur d’une expression parlée approche de cette valeur, la Speech_SegmentationSilenceTimeoutMs commence à être réduite jusqu’à ce que le délai d’expiration du silence de l’expression soit atteint ou que l’expression atteigne la longueur maximale.
Speech_SegmentationStrategy La stratégie utilisée pour déterminer quand une expression parlée a pris fin et qu’un résultat final reconnu doit être généré. Les valeurs autorisées sont « Default », « Time » et « Semantic ».
Conversation_ApplicationId Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0.
Conversation_DialogType Type de serveur principal de boîte de dialogue auquel se connecter. Ajouté dans la version 1.7.0.
Conversation_Initial_Silence_Timeout Délai d’expiration du silence pour l’écoute ajoutée dans la version 1.5.0.
Conversation_From_Id Id à utiliser sur les activités de reconnaissance vocale ajoutées dans la version 1.5.0.
Conversation_Conversation_Id ConversationId pour la session. Ajouté dans la version 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Liste séparée par des virgules d’ID de déploiement vocaux personnalisés. Ajouté dans la version 1.8.0.
Conversation_Speech_Activity_Template Modèle d’activité Speech, propriétés d’horodatage dans le modèle sur l’activité générée par le service pour la reconnaissance vocale. Ajouté dans la version 1.10.0.
Conversation_ParticipantId Identificateur de votre participant dans la conversation actuelle. Ajouté dans la version 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Il est identique à l’horodatage de présentation dans un flux de transport MPEG. Consultez https://en.wikipedia.org/wiki/Presentation_timestamp ajouté dans la version 1.5.0.
DataBuffer_UserId ID utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. Ajouté dans la version 1.5.0.
PronunciationAssessment_ReferenceText Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez le tableau paramètres d’évaluation de prononciation. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PronunciationAssessmentConfig ::Create ou PrononciationAssessmentConfig ::SetReferenceText. Ajouté dans la version 1.14.0.
PronunciationAssessment_GradingSystem Système de point pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_Granularity Granularité de l’évaluation de la prononciation (Phoneme, Word ou FullText). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_EnableMiscue Définit si vous activez le calcul incorrect. Avec cette option activée, les mots prononcés seront comparés au texte de référence et seront marqués avec omission/insertion en fonction de la comparaison. Le paramètre par défaut est False. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_PhonemeAlphabet Alphabet phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (valeur par défaut) et « IPA » dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetPhonemeAlphabet. Ajouté dans la version 1.20.0.
PronunciationAssessment_NBestPhonemeCount Nombre de phonèmes d’évaluation de prononciation nbest. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetNBestPhonemeCount. Ajouté dans la version 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Indique s’il faut activer l’évaluation de la prosodie. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableProsodyAssessment. Ajouté dans la version 1.33.0.
PronunciationAssessment_Json Chaîne json des paramètres d’évaluation de prononciation dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_Params Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.14.0.
PronunciationAssessment_ContentTopic Rubrique de contenu de l’évaluation de la prononciation. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableContentAssessmentWithTopic. Ajouté dans la version 1.33.0.
SpeakerRecognition_Api_Version Version de l’API back-end de reconnaissance de l’orateur. Cette propriété est ajoutée pour autoriser le test et l’utilisation des versions précédentes des API reconnaissance de l’orateur, le cas échéant. Ajouté dans la version 1.18.0.
SpeechTranslation_ModelName Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
SpeechTranslation_ModelKey Cette propriété est déconseillée.
KeywordRecognition_ModelName Nom d’un modèle à utiliser pour la reconnaissance de mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
KeywordRecognition_ModelKey Cette propriété est déconseillée.
EmbeddedSpeech_EnablePerformanceMetrics Activez la collection de métriques de performances vocales incorporées qui peuvent être utilisées pour évaluer la capacité d’un appareil à utiliser la reconnaissance vocale incorporée. Les données collectées sont incluses dans les résultats de scénarios spécifiques tels que la reconnaissance vocale. Le paramètre par défaut est « false ». Notez que les métriques peuvent ne pas être disponibles à partir de tous les scénarios vocaux incorporés.
SpeechSynthesisRequest_Pitch Hauteur du discours synthétisé.
SpeechSynthesisRequest_Rate Taux de la voix synthétisée.
SpeechSynthesisRequest_Volume Volume de la synthèse vocale.

Définit les ID de propriété speech. Modifié dans la version 1.4.0.

enum OutputFormat

Valeurs Descriptions
Simple
Détaillé

Format de sortie.

enum ProfanityOption

Valeurs Descriptions
Masqué Remplace les lettres en mots profanes par des caractères en étoile.
Enlevé Supprime les mots profanes.
Cru Ne fait rien à des mots profanes.

Supprime la profanité (jure) ou remplace les lettres de mots profanes par des étoiles. Ajouté dans la version 1.5.0.

énumération ResultReason

Valeurs Descriptions
NoMatch Indique que la parole n’a pas pu être reconnue. Vous trouverez plus d’informations dans l’objet NoMatchDetails.
Annulé Indique que la reconnaissance a été annulée. Vous trouverez plus de détails à l’aide de l’objet CancellationDetails.
Reconnaissance deSpeech Indique que le résultat de la reconnaissance vocale contient du texte d’hypothèse.
RecognizedSpeech Indique que le résultat de la reconnaissance vocale contient le texte final qui a été reconnu. La reconnaissance vocale est maintenant terminée pour cette expression.
ReconnaîtreIntent Indique que le résultat de l’intention contient le texte d’hypothèse et l’intention.
RecognizedIntent Indique que le résultat de l’intention contient le texte final et l’intention. La reconnaissance vocale et la détermination de l’intention sont désormais terminées pour cette expression.
Traduction deSpeech Indique que le résultat de la traduction contient du texte d’hypothèse et sa ou ses traductions.
TranslationSpeech Indique que le résultat de la traduction contient du texte final et des traductions correspondantes. La reconnaissance vocale et la traduction sont désormais terminées pour cette expression.
SynthesizingAudio Indique que le résultat audio synthétisé contient une quantité non nulle de données audio.
SynthesizingAudioCompleted Indique que l’audio synthétisé est maintenant terminé pour cette expression.
Reconnaissance deKeyword Indique que le résultat de la reconnaissance vocale contient le texte du mot clé (non vérifié). Ajouté dans la version 1.3.0.
RecognizedKeyword Indique que la reconnaissance du mot clé a terminé la reconnaissance du mot clé donné. Ajouté dans la version 1.3.0.
SynthesizingAudioStarted Indique que la synthèse vocale est maintenant démarrée dans la version 1.4.0.
TraductionparticipantSpeech Indique que le résultat de la transcription contient du texte d’hypothèse et sa ou ses traductions pour d’autres participants à la conversation. Ajouté dans la version 1.8.0.
TranslatedParticipantSpeech Indique que le résultat de la transcription contient du texte final et des traductions correspondantes pour les autres participants de la conversation. La reconnaissance vocale et la traduction sont désormais terminées pour cette expression. Ajouté dans la version 1.8.0.
TranslationInstantMessage Indique que le résultat de la transcription contient le ou les messages instantanés et les traductions correspondantes. Ajouté dans la version 1.8.0.
TranslatedParticipantInstantMessage Indique que le résultat de la transcription contient le message instantané pour les autres participants de la conversation et les traductions correspondantes. Ajouté dans la version 1.8.0.
InscrireVoiceProfile Indique que le profil vocal est en cours d’inscription et que les clients doivent envoyer plus d’audio pour créer un profil vocal. Ajouté dans la version 1.12.0.
EnrolledVoiceProfile Le profil vocal a été inscrit. Ajouté dans la version 1.12.0.
RecognizedSpeakers Indique la réussite de l’identification de certains orateurs. Ajouté dans la version 1.12.0.
RecognizedSpeaker Indique qu’un haut-parleur a été vérifié avec succès. Ajouté dans la version 1.12.0.
ResetVoiceProfile Indique qu’un profil vocal a été réinitialisé avec succès. Ajouté dans la version 1.12.0.
DeletedVoiceProfile Indique qu’un profil vocal a été supprimé avec succès. Ajouté dans la version 1.12.0.
VoicesListRetrieved Indique que la liste des voix a été récupérée avec succès. Ajouté dans la version 1.16.0.

Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

énumération CancellationReason

Valeurs Descriptions
Erreur Indique qu’une erreur s’est produite lors de la reconnaissance vocale.
EndOfStream Indique que la fin du flux audio a été atteinte.
CancelledByUser Indique que la demande a été annulée par l’utilisateur. Ajouté dans la version 1.14.0.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

énumération CancellationErrorCode

Valeurs Descriptions
NoError Aucune erreur. Si CancellationReason est EndOfStream, CancellationErrorCode est défini sur NoError.
AuthenticationFailure Indique une erreur d’authentification. Une erreur d’authentification se produit si la clé d’abonnement ou le jeton d’autorisation n’est pas valide, a expiré ou ne correspond pas à la région utilisée.
BadRequest Indique qu’un ou plusieurs paramètres de reconnaissance ne sont pas valides ou que le format audio n’est pas pris en charge.
TooManyRequests Indique que le nombre de requêtes parallèles a dépassé le nombre de transcriptions simultanées autorisées pour l’abonnement.
Interdit Indique que l’abonnement gratuit utilisé par la demande a dépassé le quota.
ConnectionFailure Indique une erreur de connexion.
ServiceTimeout Indique une erreur de délai d’attente lors de l’attente de la réponse du service.
ServiceError Indique qu’une erreur est retournée par le service.
ServiceUnavailable Indique que le service n’est actuellement pas disponible.
RuntimeError Indique une erreur d’exécution inattendue.
ServiceRedirectTemporary Indique que le service Speech demande temporairement une reconnexion à un autre point de terminaison.
ServiceRedirectPermanent Indique que le service Speech demande définitivement une reconnexion à un autre point de terminaison.
EmbeddedModelError Indique que le modèle de reconnaissance vocale incorporée (SR ou TTS) n’est pas disponible ou endommagé.

Définit le code d’erreur en cas d’erreur d’CancellationReason. Ajouté dans la version 1.1.0.

énumération NoMatchReason

Valeurs Descriptions
NotRecognized Indique que la voix a été détectée, mais pas reconnue.
InitialSilenceTimeout Indique que le début du flux audio contenait uniquement le silence et que le service a expiré en attente de parole.
InitialBabbleTimeout Indique que le début du flux audio contenait uniquement du bruit et que le service a expiré en attente de parole.
KeywordNotRecognized Indique que le mot clé repéré a été rejeté par le service de vérification de mot clé. Ajouté dans la version 1.5.0.
EndSilenceTimeout Indique que le flux audio contenait uniquement le silence après la dernière expression reconnue.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

enum ActivityJSONType

Valeurs Descriptions
Zéro
Objet
Tableau
Corde
Double
UInt
Int
Booléen

Définit les types possibles pour une valeur json d’activité. Ajouté dans la version 1.5.0.

enum SpeechSynthesisOutputFormat

Valeurs Descriptions
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus ajouté dans la version 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus ajouté dans la version 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus ajouté dans la version 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk ajouté dans la version 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw ajouté dans la version 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw ajouté dans la version 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio compressé par codec OPUS dans un conteneur WebM, avec une vitesse de transmission de 24 Ko/s, optimisée pour le scénario IoT. (Ajouté dans la version 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec une vitesse de transmission de 32 Kops. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec une vitesse de transmission de 48 Ko/ s. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec une vitesse de transmission de 24 Ko/s. (Ajouté dans la version 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Audio RAW PCM à 22050Hz taux d’échantillonnage et profondeur 16 bits. (Ajouté dans la version 1.22.0)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-PCM audio à 22050Hz taux d’échantillonnage et profondeur 16 bits, avec en-tête RIFF. (Ajouté dans la version 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Audio RAW PCM à 44100Hz taux d’échantillonnage et profondeur 16 bits. (Ajouté dans la version 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-PCM audio à 44100Hz taux d’échantillonnage et profondeur 16 bits, avec en-tête RIFF. (Ajouté dans la version 1.22.0)
AmrWb16000Hz amr-wb-16000hz AMR-WB audio à un taux d’échantillonnage de 16kHz. (Ajouté dans la version 1.24.0)
G72216Khz64Kbps g722-16khz-64kbps G.722 audio à 16kHz taux d’échantillonnage et débit de 64 Kops. (Ajouté dans la version 1.38.0)

Définit les formats audio de sortie vocale possibles. Mise à jour dans la version 1.19.0.

enum StreamStatus

Valeurs Descriptions
Inconnu L’état du flux de données audio est inconnu.
NoData Le flux de données audio ne contient aucune donnée.
PartialData Le flux de données audio contient des données partielles d’une requête speak.
AllData Le flux de données audio contient toutes les données d’une demande de parole.
Annulé Le flux de données audio a été annulé.

Définit l’état possible du flux de données audio. Ajouté dans la version 1.4.0.

enum ServicePropertyChannel

Valeurs Descriptions
UriQueryParameter Utilise le paramètre de requête URI pour passer les paramètres de propriété au service.
HttpHeader Utilise HttpHeader pour définir une clé/valeur dans un en-tête HTTP.

Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.5.0.

énumération VoiceProfileType

Valeurs Descriptions
TextIndependentIdentification Identification de l’orateur indépendant du texte.
TextDependentVerification Vérification de l’orateur dépendant du texte.
TextIndependentVerification Vérification indépendante du texte.

Définit les types de profil vocal.

enum RecognitionFactorScope

Valeurs Descriptions
PartialPhrase Un facteur de reconnaissance s’applique aux grammaires qui peuvent être référencées en tant qu’expressions partielles individuelles.

Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.

enum PronunciationAssessmentGradingSystem

Valeurs Descriptions
FivePoint Étalonnage à cinq points.
CentMark Cent marques.

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.14.0.

enum PrononciationAssessmentGranularity

Valeurs Descriptions
Phonème Affiche le score au niveau du texte intégral, du mot et du phonème.
Mot Affiche le score au niveau du texte intégral et du mot.
FullText Affiche le score au niveau du texte intégral uniquement.

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phoneme. Ajouté dans la version 1.14.0.

énumération SynthesisVoiceType

Valeurs Descriptions
OnlineNeural Voix neuronale en ligne.
OnlineStandard Voix standard en ligne.
OfflineNeural Voix neuronale hors connexion.
OfflineStandard Voix standard hors connexion.

Définit le type de voix de synthèse ajoutées dans la version 1.16.0.

énumération SynthesisVoiceGender

Valeurs Descriptions
Inconnu Sexe inconnu.
Femelle Voix féminine.
Mâle Voix masculine.

Définit le genre des voix de synthèse ajoutées dans la version 1.17.0.

enum SpeechSynthesisBoundaryType

Valeurs Descriptions
Mot Limite word.
Ponctuation Limite de ponctuation.
Phrase Limite de phrase.

Définit le type de limite de l’événement de limite de synthèse vocale ajouté dans la version 1.21.0.

enum SegmentationStrategy

Valeurs Descriptions
Faire défaut Utilisez la stratégie et les paramètres par défaut tels que déterminés par le service Speech. Utilisez dans la plupart des cas.
Heure Utilise une stratégie basée sur le temps où la quantité de silence entre la parole est utilisée pour déterminer quand générer un résultat final.
Sémantique Utilise un modèle IA pour déteriner la fin d’une expression parlée en fonction du contenu de l’expression.

La stratégie utilisée pour déterminer quand une expression parlée a pris fin et qu’un résultat final reconnu doit être généré. Les valeurs autorisées sont « Default », « Time » et « Semantic ».