Compartir a través de


PropertyId enum

Define los identificadores de propiedad de voz.

Campos

SpeechServiceConnection_Key = 0

Clave de suscripción de Cognitive Services Speech Service. Si usa un reconocedor de intenciones, debe especificar la clave de punto de conexión de LUIS para la aplicación de LUIS concreta. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

El punto de conexión de Speech Service (url) de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromEndpoint. NOTA: Este punto de conexión no es el mismo que el que se usa para obtener un token de acceso.

SpeechServiceConnection_Region = 2

La región de Speech Service de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

El token de autorización de Speech Service de Cognitive Services (también conocido como token de acceso). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

Tipo de autorización de Cognitive Services Speech Service. Actualmente no se está usando.

SpeechServiceConnection_EndpointId = 5

Identificador del punto de conexión de Speech Service de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.endpointId. NOTA: El identificador de punto de conexión está disponible en el Portal de Voz, que aparece en Detalles del punto de conexión.

SpeechServiceConnection_TranslationToLanguages = 6

Lista de idiomas separados por comas (formato BCP-47) usados como idiomas de traducción de destino. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Nombre de Cognitive Service Text to Speech Service Voice. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig.voiceName. NOTA: Los nombres de voz válidos se pueden encontrar aquí.

SpeechServiceConnection_TranslationFeatures = 8

Características de traducción.

SpeechServiceConnection_IntentRegion = 9

Región del servicio Language Understanding. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Nombre de host del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debería tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyPort = 11

Puerto del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debería tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

Nombre de usuario del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debería tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

Contraseña del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debería tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_RecoMode = 14

El modo de reconocimiento del servicio voz de Cognitive Services. Puede ser "INTERACTIVE", "CONVERSATION", "DICTATION". Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente.

SpeechServiceConnection_RecoLanguage = 15

Idioma hablado que se va a reconocer (en formato BCP-47). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

Identificador de sesión. Este identificador es un identificador único universal (también conocido como UUID) que representa un enlace específico de una secuencia de entrada de audio y la instancia de reconocimiento de voz subyacente a la que está enlazado. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Idioma hablado que se va a sintetizar (por ejemplo, en-US)

SpeechServiceConnection_SynthVoice = 18

Nombre de la voz de TTS que se va a usar para la síntesis de voz

SpeechServiceConnection_SynthOutputFormat = 19

Cadena para especificar el formato de audio de salida de TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Lista de idiomas separados por comas usados como posibles idiomas de origen Agregados en la versión 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

El formato de salida de respuesta solicitado de Cognitive Services Speech Service (simple o detallado). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

El nivel de palabra soece de respuesta de Cognitive Services Speech Service solicitado. Actualmente no se está usando.

SpeechServiceResponse_JsonResult = 23

Salida de respuesta de Speech Service de Cognitive Services (en formato JSON). Esta propiedad solo está disponible en objetos de resultado de reconocimiento.

SpeechServiceResponse_JsonErrorDetails = 24

Los detalles del error de Cognitive Services Speech Service (en formato JSON). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Motivo de cancelación. Actualmente no se está usando.

CancellationDetails_ReasonText = 26

Texto de cancelación. Actualmente no se está usando.

CancellationDetails_ReasonDetailedText = 27

Texto detallado de cancelación. Actualmente no se está usando.

LanguageUnderstandingServiceResponse_JsonResult = 28

Salida de respuesta de Language Understanding Service (en formato JSON). Disponible a través de IntentRecognitionResult

SpeechServiceConnection_Url = 29

Cadena de dirección URL creada a partir de la configuración de voz. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. NOTA: Se ha agregado en la versión 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Valor de tiempo de espera de silencio inicial (en milisegundos) usado por el servicio. Agregado en la versión 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Valor de tiempo de espera de silencio final (en milisegundos) usado por el servicio. Agregado en la versión 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Duración del silencio detectado, medido en milisegundos, después de lo cual la conversión de voz a texto determinará una frase hablada y generará un resultado reconocido final. La configuración de este tiempo de espera puede ser útil en situaciones en las que la entrada hablada sea significativamente más rápida o más lenta que el comportamiento de segmentación predeterminado y habitual produce resultados que son demasiado largos o demasiado cortos. Los valores de tiempo de espera de segmentación que son inadecuados o bajos pueden afectar negativamente a la precisión de la conversión de voz a texto; esta propiedad debe configurarse cuidadosamente y el comportamiento resultante debe validarse exhaustivamente según lo previsto.

Para obtener más información sobre la configuración de tiempo de espera que incluye la explicación de los comportamientos predeterminados, visite https://aka.ms/csspeech/timeouts.

Se agregó en la versión 1.21.0.

Speech_SegmentationMaximumTimeMs = 33

SegmentationMaximumTimeMs representa la longitud máxima de una frase hablada cuando se usa la estrategia de segmentación de tiempo. A medida que la longitud de una frase hablada se aproxima a este valor,

Speech_SegmentationStrategy = 34

SegmentationStrategy define la estrategia que se usa para determinar cuándo ha finalizado una frase hablada y se debe generar un resultado reconocido final. Los valores permitidos son "Default", "Time" y "Semantic".

Valores válidos:

  • "Valor predeterminado": usa la estrategia y la configuración predeterminadas según lo determinado por el servicio de voz. Adecuado para la mayoría de las situaciones.
  • "Tiempo": usa una estrategia basada en el tiempo en la que la cantidad de silencio entre la voz determina cuándo generar un resultado final.
  • "Semántica": usa un modelo de IA para determinar el final de una frase hablada en función del contenido de la frase.

Notas adicionales:

  • Al usar la estrategia de tiempo,
SpeechServiceConnection_EnableAudioLogging = 35

Valor booleano que especifica si el registro de audio está habilitado en el servicio o no. Los registros de audio y contenido se almacenan en el almacenamiento propiedad de Microsoft o en su propia cuenta de almacenamiento vinculada a su suscripción de Cognitive Services (Traiga su propio almacenamiento [BYOS]) habilitado para el recurso de voz). Los registros se quitarán después de 30 días. Agregado en la versión 1.7.0

SpeechServiceConnection_LanguageIdMode = 36

Modo de identificador de idioma de conexión del servicio de voz. Puede ser "AtStart" (valor predeterminado) o "Continuous". Consulte el documento de identificación de idioma https://aka.ms/speech/lid?pivots=programming-language-javascript para obtener más información. Agregado en la versión 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 37

Valor de cadena que representa la versión del punto de conexión deseado que se va a establecer como destino para el reconocimiento de voz. Agregado en la versión 1.21.0

SpeechServiceConnection_SpeakerIdMode = 38

/**

  • Valor de cadena del escenario o modo de reconocimiento del hablante actual (TextIndependentIdentification, etc.).
  • Se agregó en la versión 1.23.0
SpeechServiceResponse_ProfanityOption = 39

Configuración de palabra soece de salida de respuesta de Cognitive Services Speech Service solicitada. Los valores permitidos son "masked", "removed" y "raw". Se agregó en la versión 1.7.0.

SpeechServiceResponse_PostProcessingOption = 40

Valor de cadena que especifica qué opción posterior al procesamiento debe usar el servicio. Los valores permitidos son "TrueText". Agregado en la versión 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 41

Valor booleano que especifica si se deben incluir marcas de tiempo de nivel de palabra en el resultado de la respuesta. Agregado en la versión 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 42

Número de veces que una palabra debe estar en resultados parciales que se van a devolver. Agregado en la versión 1.7.0

SpeechServiceResponse_OutputFormatOption = 43

Valor de cadena que especifica la opción de formato de salida en el resultado de la respuesta. Solo uso interno. Se agregó en la versión 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 44

Valor booleano que se va a solicitar para estabilizar los resultados parciales de traducción omitiendo palabras al final. Se agregó en la versión 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 45

Valor booleano que especifica si se van a solicitar eventos de WordBoundary.

SpeechServiceResponse_RequestPunctuationBoundary = 46

Valor booleano que especifica si se va a solicitar el límite de puntuación en eventos de WordBoundary. El valor predeterminado es true.

SpeechServiceResponse_RequestSentenceBoundary = 47

Valor booleano que especifica si se va a solicitar el límite de oración en eventos de WordBoundary. El valor predeterminado es false.

SpeechServiceResponse_DiarizeIntermediateResults = 48

Determina si los resultados intermedios contienen identificación del hablante. Los valores permitidos son "true" o "false". Si se establece en "true", los resultados intermedios contendrán la identificación del hablante. El valor predeterminado si no se establece o establece en un valor no válido es "false". Actualmente solo se admite para escenarios que usan ConversationTranscriber".

Conversation_ApplicationId = 49

Identificador usado para conectarse al servicio back-end.

Conversation_DialogType = 50

Tipo de back-end de diálogo al que conectarse.

Conversation_Initial_Silence_Timeout = 51

Tiempo de espera de silencio para escuchar

Conversation_From_Id = 52

De Id para agregar a las actividades de reconocimiento de voz.

Conversation_Conversation_Id = 53

ConversationId para la sesión.

Conversation_Custom_Voice_Deployment_Ids = 54

Lista separada por comas de identificadores de implementación de voz personalizados.

Conversation_Speech_Activity_Template = 55

Plantilla de actividad de voz, propiedades de marca de la plantilla en la actividad generada por el servicio para voz.

Conversation_Request_Bot_Status_Messages = 56

Habilita o deshabilita la recepción de mensajes de estado de turno como se obtiene en el evento turnStatusReceived.

Conversation_Agent_Connection_Id = 57

Especifica el identificador de conexión que se va a proporcionar en el mensaje de configuración del agente, por ejemplo, un token de Direct Line para la autenticación de canal. Se agregó en la versión 1.15.1.

SpeechServiceConnection_Host = 58

Host (url) de Cognitive Services Speech Service. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromHost.

ConversationTranslator_Host = 59

Establezca el host para las llamadas de servicio en las llamadas rest de Conversation Translator y websocket.

ConversationTranslator_Name = 60

Opcionalmente, establezca el nombre para mostrar del host. Se usa al unirse a una conversación.

ConversationTranslator_CorrelationId = 61

Opcionalmente, establezca un valor para el encabezado de solicitud X-CorrelationId. Se usa para solucionar errores en los registros del servidor. Debe ser un guid válido.

ConversationTranslator_Token = 62

Establezca el token de conversación que se enviará al servicio de voz. Esto permite que el servicio llame desde el servicio de voz al servicio Conversation Translator para retransmitir reconocimientos. Para uso interno.

PronunciationAssessment_ReferenceText = 63

Texto de referencia del audio para la evaluación de pronunciación. Para ello y los siguientes parámetros de evaluación de pronunciación, consulte https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters para obtener más información. En circunstancias normales, no debería tener que usar esta propiedad directamente. Agregado en la versión 1.15.0

PronunciationAssessment_GradingSystem = 64

Sistema de puntos para la calibración de la puntuación de pronunciación (FivePoint o HundredMark). En circunstancias normales, no debería tener que usar esta propiedad directamente. Agregado en la versión 1.15.0

PronunciationAssessment_Granularity = 65

Granularidad de evaluación de pronunciación (Phoneme, Word o FullText). En circunstancias normales, no debería tener que usar esta propiedad directamente. Agregado en la versión 1.15.0

PronunciationAssessment_EnableMiscue = 66

Define si se habilita el cálculo de incorrectamente. Con esta opción habilitada, las palabras pronunciadas se compararán con el texto de referencia y se marcarán con omisión o inserción en función de la comparación. La configuración predeterminada es False. En circunstancias normales, no debería tener que usar esta propiedad directamente. Agregado en la versión 1.15.0

PronunciationAssessment_Json = 67

Cadena json de parámetros de evaluación de pronunciación En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.15.0

PronunciationAssessment_Params = 68

Parámetros de evaluación de pronunciación. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. Agregado en la versión 1.15.0

SpeakerRecognition_Api_Version = 69

Versión de Speaker Recognition API que se va a usar. Agregado en la versión 1.18.0

WebWorkerLoadType = 70

Especifica si se permite la carga de la dirección URL de datos para el trabajo web Los valores permitidos son "off" y "on". El valor predeterminado es "on". Agregado en la versión 1.32.0

TalkingAvatarService_WebRTC_SDP = 71

Protocolo de descripción de sesión webRTC del servicio avatar de conversación. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. Agregado en la versión 1.33.0