共用方式為


命名空間Microsoft::CognitiveServices::Speech

總結

成員 描述
enum PropertyId 定義語音屬性識別碼。 在 1.4.0 版中變更。
列舉 OutputFormat 輸出格式。
列舉 ProfanityOption 拿掉褻瀆(宣誓),或用星星取代褻瀆字的字母。 已在1.5.0版中新增。
列舉 ResultReason 指定可能會產生辨識結果的可能原因。
列舉 CancellationReason 定義可能取消辨識結果的可能原因。
列舉 CancellationErrorCode 定義當 CancellationReason 為 Error 時的錯誤碼。 已在1.1.0版中新增。
列舉 NoMatchReason 定義無法辨識辨識結果的可能原因。
列舉 ActivityJSONType 定義活動 json 值的可能型別。 已在1.5.0版中新增。
列舉 SpeechSynthesisOutputFormat 定義可能的語音合成輸出音訊格式。 在 1.19.0 版中更新。
列舉 StreamStatus 定義音訊數據流的可能狀態。 已在1.4.0版中新增。
列舉 ServicePropertyChannel 定義用來將屬性設定傳遞至服務的通道。 已在1.5.0版中新增。
列舉 VoiceProfileType 定義語音配置檔類型。
列舉 RecognitionFactorScope 定義套用辨識因數的範圍。
列舉發音AssessmentGradingSystem 定義發音分數校正的點系統;預設值為 FivePoint。 已在1.14.0版中新增。
列舉發音AssessmentGranularity 定義發音評估粒度;預設值為 Phoneme。 已在1.14.0版中新增。
列舉合成VoiceType 定義1.16.0版中新增的合成語音類型。
列舉合成VoiceGender 定義1.17.0版中新增的合成語音性別。
列舉 SpeechSynthesisBoundaryType 定義在 1.21.0 版中新增的語音合成界限事件的界限類型。
列舉分割Strategy 用來判斷口語詞組何時結束且應該產生最終辨識結果的策略。 允許的值為 「Default」、“ Time” 和 「Semantic」。
類別 AsyncRecognizer AsyncRecognizer 抽象基類。
類別 AudioDataStream 表示用來將音訊數據當做數據流操作的音訊數據流。 已在1.4.0版中新增。
類別 AutoDetectSourceLanguageConfig 定義 1.13.0 中更新之自動偵測來源設定的類別。
類別 AutoDetectSourceLanguageResult 包含自動偵測到的來源語言結果 1.8.0。
類別BaseAsyncRecognizer BaseAsyncRecognizer 類別。
類別 CancellationDetails 包含為何取消結果的詳細資訊。
類別 ClassLanguageModel 代表動態文法案例的文法清單。 已在1.7.0版中新增。
類別 Connection Connection 是一種 Proxy 類別,用於管理與指定辨識器之語音服務的連線。 根據預設,辨識器會視需要自主管理服務的連線。 Connection 類別會提供其他方法,讓使用者明確開啟或關閉連線,以及訂閱連線狀態變更。 使用 Connection 是選擇性的。 它適用於需要根據連線狀態微調應用程式行為的案例。 用戶可以選擇性地呼叫 Open() 以手動起始服務連線,再開始辨識與此連線相關聯的辨識器。 啟動辨識之後,呼叫 Open() 或 Close() 可能會失敗。 這不會影響辨識器或進行中的辨識。 連線可能會因為各種原因而中斷,辨識器一律會嘗試視需要重新建立連線,以確保進行中的作業。 在這些情況下,Connected/Disconnected 事件會指出連線狀態的變更。 已在 1.17.0 版中更新。
類別 ConnectionEventArgs 提供 ConnectionEvent 的數據。 已在1.2.0版中新增。
類別 ConnectionMessage ConnectionMessage 代表從語音服務傳送和接收的實作特定訊息。 這些訊息僅供偵錯之用,不應用於 Azure 認知服務語音服務的生產使用案例。 從語音服務傳送和接收的訊息可能會變更,而不通知。 這包括訊息內容、標頭、承載、排序等。已在1.10.0版中新增。
類別 ConnectionMessageEventArgs 提供 ConnectionMessageEvent 的數據。
類別 EmbeddedSpeechConfig 定義內嵌(離線)語音組態的類別。
類別 EventArgs 事件自變數的基類。
類別 EventSignal 用戶端可以連線到事件訊號來接收事件,或中斷事件訊號的連線,以停止接收事件。
類別 EventSignalBase 用戶端可以連線到事件訊號來接收事件,或中斷事件訊號的連線,以停止接收事件。
類別 Grammar 表示自定義語音辨識的基類文法。 已在1.5.0版中新增。
類別 GrammarList 代表動態文法案例的文法清單。 已在1.7.0版中新增。
類別 GrammarPhrase 代表使用者可說出的片語。 已在1.5.0版中新增。
類別 HybridSpeechConfig 定義語音辨識或語音合成混合式(雲端和內嵌)組態的類別。
類別 KeywordRecognitionEventArgs KeywordRecognizer所省略事件的類別。
類別 KeywordRecognitionModel 表示搭配 StartKeywordRecognitionAsync 方法使用的關鍵詞辨識模型。
類別 KeywordRecognitionResult 類別,定義由 KeywordRecognizer發出的結果。
類別 KeywordRecognizer 專門用來處理關鍵詞啟用的辨識器類型。
類別 NoMatchDetails 包含 NoMatch 辨識結果的詳細資訊。
類別 PersonalVoiceSynthesisRequest 類別,定義個人語音的語音合成要求(aka.ms/azureai/personal-voice)。 這個類別處於預覽狀態,而且可能會變更。 已在1.39.0版中新增。
類別 PhraseListGrammar 表示動態文法案例的片語清單文法。 已在1.5.0版中新增。
class PronunciationAssessmentConfig 定義1.14.0中新增發音評估組態的類別。
class PronunciationAssessmentResult 發音評估結果的類別。
類別發音ContentAssessmentResult 內容評估結果的類別。
類別 PropertyCollection 要從屬性集合擷取或設定屬性值的類別。
類別 RecognitionEventArgs 提供 RecognitionEvent 的數據。
類別 RecognitionResult 包含辨識作業結果的詳細資訊。
類別辨識器 辨識器基類。
類別 SessionEventArgs 會話事件自變數的基類。
類別 SmartHandle 智慧型句柄類別。
類別 SourceLanguageConfig 定義來源語言組態的類別,會在1.8.0中新增。
類別 SourceLanguageRecognizer 來源語言辨識器的類別。 您可以使用這個類別進行獨立語言偵測。 已在1.17.0版中新增。
類別 SpeechConfig 類別,定義語音/意圖辨識或語音合成的組態。
類別 SpeechRecognitionCanceledEventArgs 語音辨識已取消事件自變數的類別。
類別 SpeechRecognitionEventArgs 語音辨識事件自變數的類別。
類別 SpeechRecognitionModel 語音辨識模型資訊。
類別 SpeechRecognitionResult 語音辨識結果的基類。
類別 SpeechRecognizer 語音辨識器的類別。
類別 SpeechSynthesisBookmarkEventArgs 語音合成書籤事件自變數的類別。 已在1.16.0版中新增。
類別 SpeechSynthesisCancellationDetails 包含為何取消結果的詳細資訊。 已在1.4.0版中新增。
類別 SpeechSynthesisEventArgs 語音合成事件自變數的類別。 已在1.4.0版中新增。
類別 SpeechSynthesisRequest 定義語音合成要求的類別。 這個類別處於預覽狀態,而且可能會變更。 已在1.37.0版中新增。
類別 SpeechSynthesisResult 包含文字到語音合成結果的相關信息。 已在1.4.0版中新增。
類別 SpeechSynthesisVisemeEventArgs 語音合成viseme事件自變數的類別。 已在1.16.0版中新增。
類別 SpeechSynthesisWordBoundaryEventArgs 語音合成字邊界事件自變數的類別。 已在1.7.0版中新增。
類別 SpeechSynthesizer 語音合成器類別。 已在 1.14.0 版中更新。
類別 SpeechTranslationModel 語音翻譯模型資訊。
類別 SynthesisVoicesResult 包含語音合成器清單的結果相關信息。 已在1.16.0版中新增。
類別 VoiceInfo 包含 1.17.0 版中更新的合成語音資訊相關信息。

成員

enum PropertyId

描述
SpeechServiceConnection_Key 認知服務語音服務訂用帳戶金鑰。 如果您使用意圖辨識器,則必須指定特定 LUIS 應用程式的 LUIS 端點密鑰。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::FromSubscription
SpeechServiceConnection_Endpoint 認知服務語音服務端點 (url)。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::FromEndpoint。 注意:此端點與用來取得存取令牌的端點不同。
SpeechServiceConnection_Region 認知服務語音服務區域。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::FromSubscriptionSpeechConfig::FromEndpointSpeechConfig::FromHostSpeechConfig::FromAuthorizationToken
SpeechServiceAuthorization_Token 認知服務語音服務授權令牌(也稱為存取令牌)。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::FromAuthorizationTokenSpeechRecognizer::SetAuthorizationToken、IntentRecognizer::SetAuthorizationToken、TranslationRecognizer::SetAuthorizationToken。
SpeechServiceAuthorization_Type 認知服務語音服務授權類型。 目前未使用。
SpeechServiceConnection_EndpointId 認知服務自定義語音或自定義語音服務端點標識碼。在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetEndpointId。 注意:端點標識碼可在自定義語音入口網站中取得,列在 [端點詳細數據] 底下。
SpeechServiceConnection_Host 認知服務語音服務主機 (url)。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::FromHost
SpeechServiceConnection_ProxyHostName 用來連線到認知服務語音服務的 Proxy 伺服器的主機名。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetProxy。 注意:這個屬性標識碼已在1.1.0版中新增。
SpeechServiceConnection_ProxyPort 用來連線到認知服務語音服務的 Proxy 伺服器的埠。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetProxy。 注意:這個屬性標識碼已在1.1.0版中新增。
SpeechServiceConnection_ProxyUserName 用來連線到認知服務語音服務之 Proxy 伺服器的用戶名稱。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetProxy。 注意:這個屬性標識碼已在1.1.0版中新增。
SpeechServiceConnection_ProxyPassword 用來連線到認知服務語音服務之 Proxy 伺服器的密碼。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetProxy。 注意:這個屬性標識碼已在1.1.0版中新增。
SpeechServiceConnection_Url 從語音組態建置的 URL 字串。 此屬性是唯讀的。 SDK 正在內部使用它。 注意:已在1.5.0版中新增。
SpeechServiceConnection_ProxyHostBypass 指定不應該使用 Proxy 的主機清單。 此設定會覆寫所有其他組態。 主機名會以逗號分隔,並以不區分大小寫的方式比對。 不支援通配符。
SpeechServiceConnection_TranslationToLanguages 做為目標翻譯語言的逗號分隔語言清單。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechTranslationConfig::AddTargetLanguage 和 SpeechTranslationConfig::GetTargetLanguages。
SpeechServiceConnection_TranslationVoice 認知服務文字到語音服務語音的名稱。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechTranslationConfig::SetVoiceName。 注意:您可以在這裡找到有效的語音名稱
SpeechServiceConnection_TranslationFeatures 翻譯功能。 供內部使用。
SpeechServiceConnection_IntentRegion Language Understanding 服務區域。 在正常情況下,您不需要直接使用這個屬性。 請改用 LanguageUnderstandingModel。
SpeechServiceConnection_RecoMode 認知服務語音服務辨識模式。 可以是 “INTERACTIVE”、“CONVERSATION”、“DICTATION”。 此屬性是唯讀的。 SDK 正在內部使用它。
SpeechServiceConnection_RecoLanguage 要辨識的口語(BCP-47 格式)。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetSpeechRecognitionLanguage
Speech_SessionId 會話標識碼。此標識碼是通用唯一標識碼(也稱為 UUID),代表音訊輸入數據流的特定系結,以及它所系結的基礎語音辨識實例。 在正常情況下,您不需要直接使用這個屬性。 請改用 SessionEventArgs::SessionId
SpeechServiceConnection_UserDefinedQueryParameters 使用者提供的查詢參數。 它們會以 URL 查詢參數的形式傳遞至服務。 已在1.5.0版中新增。
SpeechServiceConnection_RecoBackend 指定要用於語音識別之後端的字串;允許的選項在在線和離線。 在正常情況下,您不應該直接使用這個屬性。 目前脫機選項只有在使用EmbeddedSpeechConfig時才有效。 已在1.19.0版中新增。
SpeechServiceConnection_RecoModelName 要用於語音辨識的模型名稱。 在正常情況下,您不應該直接使用這個屬性。 目前,只有在使用EmbeddedSpeechConfig時,才有效。 已在1.19.0版中新增。
SpeechServiceConnection_RecoModelKey 這個屬性已被取代。
SpeechServiceConnection_RecoModelIniFile 要用於語音辨識之模型 ini 檔案的路徑。 在正常情況下,您不應該直接使用這個屬性。 目前,只有在使用EmbeddedSpeechConfig時,才有效。 已在1.19.0版中新增。
SpeechServiceConnection_SynthLanguage 要合成的口語(例如 en-US)已於 1.4.0 版中新增。
SpeechServiceConnection_SynthVoice 要用於語音合成的 TTS 語音名稱已在 1.4.0 版中新增。
SpeechServiceConnection_SynthOutputFormat 指定在 1.4.0 版中新增 TTS 輸出音訊格式的字串。
SpeechServiceConnection_SynthEnableCompressedAudioTransmission 指出是否使用壓縮的音訊格式進行語音合成音訊傳輸。 此屬性只會影響當SpeechServiceConnection_SynthOutputFormat設定為 pcm 格式時。 如果未設定此屬性且 GStreamer 可用,SDK 會使用壓縮格式進行合成音訊傳輸,並將它譯碼。 您可以將此屬性設定為 「false」 ,以使用原始 pcm 格式在網路傳輸。 已在1.16.0版中新增。
SpeechServiceConnection_SynthBackend 要指定 TTS 後端的字串;有效的選項在在線和離線。 在正常情況下,您不需要直接使用這個屬性。 請改用 EmbeddedSpeechConfig::FromPathEmbeddedSpeechConfig::FromPaths,將合成後端設定為離線。 已在1.19.0版中新增。
SpeechServiceConnection_SynthOfflineDataPath 離線合成引擎的資料檔案路徑;只有在合成後端離線時才有效。 在正常情況下,您不需要直接使用這個屬性。 請改用 EmbeddedSpeechConfig::FromPathEmbeddedSpeechConfig::FromPaths。 已在1.19.0版中新增。
SpeechServiceConnection_SynthOfflineVoice 在正常情況下,用於語音合成的離線 TTS 語音名稱,您不應該直接使用這個屬性。 請改用 EmbeddedSpeechConfig::SetSpeechSynthesisVoiceEmbeddedSpeechConfig::GetSpeechSynthesisVoiceName。 已在1.19.0版中新增。
SpeechServiceConnection_SynthModelKey 這個屬性已被取代。
SpeechServiceConnection_VoicesListEndpoint 認知服務語音服務語音清單 API 端點(url)。 在正常情況下,您不需要指定此屬性,SDK 會根據 SpeechConfig的區域/主機/端點來建構此屬性。 已在1.16.0版中新增。
SpeechServiceConnection_InitialSilenceTimeoutMs 服務所使用的初始無訊息逾時值(以毫秒為單位)。 已在1.5.0版中新增。
SpeechServiceConnection_EndSilenceTimeoutMs 服務所使用的結束無聲逾時值(以毫秒為單位)。 已在1.5.0版中新增。
SpeechServiceConnection_EnableAudioLogging 布爾值,指定是否在服務中啟用音訊記錄。 音訊和內容記錄會儲存在Microsoft擁有的記憶體中,或儲存在連結到認知服務訂用帳戶的您自己的記憶體帳戶中(啟用您自己的記憶體(BYOS) 的語音資源中。 已在1.5.0版中新增。
SpeechServiceConnection_LanguageIdMode 語音服務連線語言標識碼模式。 可以是 “AtStart” (預設值),或 “Continuous”。 請參閱 語言識別 檔。 已在1.25.0中新增。
SpeechServiceConnection_TranslationCategoryId 語音服務連線翻譯 categoryId。
SpeechServiceConnection_AutoDetectSourceLanguages 在 1.8.0 版中新增的自動偵測來源語言。
SpeechServiceConnection_AutoDetectSourceLanguageResult 自動偵測來源語言結果已於 1.8.0 版中新增。
SpeechServiceResponse_RequestDetailedResultTrueFalse 要求的認知服務語音服務回應輸出格式(簡單或詳細)。 在正常情況下,您不需要直接使用這個屬性。 請改用 SpeechConfig::SetOutputFormat
SpeechServiceResponse_RequestProfanityFilterTrueFalse 要求的認知服務語音服務回應輸出不雅內容層級。 目前未使用。
SpeechServiceResponse_ProfanityOption 要求的認知服務語音服務回應輸出不雅內容設定。 允許的值為 「masked」、“ removed” 和 「raw」。 已在1.5.0版中新增。
SpeechServiceResponse_PostProcessingOption 字串值,指定服務應該使用哪個後置處理選項。 允許的值為 「TrueText」。 已在1.5.0版中新增。
SpeechServiceResponse_RequestWordLevelTimestamps 布爾值,指定是否要在響應結果中包含文字層級時間戳。 已在1.5.0版中新增。
SpeechServiceResponse_StablePartialResultThreshold 必須傳回部分結果的字組次數。 已在1.5.0版中新增。
SpeechServiceResponse_OutputFormatOption 字串值,指定回應結果中的輸出格式選項。 僅限內部使用。 已在1.5.0版中新增。
SpeechServiceResponse_RequestSnr 布爾值,指定是否要在響應結果中包含 SNR(訊號與雜訊比率)。 已在1.18.0版中新增。
SpeechServiceResponse_TranslationRequestStablePartialResult 布爾值,可藉由省略結尾的文字來要求穩定翻譯部分結果。 已在1.5.0版中新增。
SpeechServiceResponse_RequestWordBoundary 布爾值,指定是否要求 WordBoundary 事件。 已在1.21.0版中新增。
SpeechServiceResponse_RequestPunctuationBoundary 布爾值,指定是否要在 WordBoundary Events 中要求標點符號界限。 默認值為 true。 已在1.21.0版中新增。
SpeechServiceResponse_RequestSentenceBoundary 布爾值,指定是否要在 WordBoundary Events 中要求句子界限。 默認值為 false。 已在1.21.0版中新增。
SpeechServiceResponse_SynthesisEventsSyncToAudio 布爾值,指定 SDK 是否應該將合成元數據事件(例如文字界限、viseme 等)同步處理至音訊播放。 這隻會在透過 SDK 播放音訊時生效。 默認值為 true。 如果設定為 false,SDK 會在事件來自服務時引發事件,這可能會與音訊播放不同步。 已在1.31.0版中新增。
SpeechServiceResponse_JsonResult 認知服務語音服務回應輸出(JSON 格式)。 此屬性僅適用於辨識結果物件。
SpeechServiceResponse_JsonErrorDetails 認知服務語音服務錯誤詳細資料(JSON 格式)。 在正常情況下,您不需要直接使用這個屬性。 請改用 CancellationDetails::ErrorDetails
SpeechServiceResponse_RecognitionLatencyMs 以毫秒為單位的辨識延遲。 只讀,可在最終語音/翻譯/意圖結果上使用。 這會測量 SDK 收到音訊輸入,以及從服務接收最終結果的那一刻之間的延遲。 SDK 會計算最後一個音訊片段與參與最終結果之音訊輸入之間的時間差異,以及從語音服務接收最終結果的時間。 已在1.3.0版中新增。
SpeechServiceResponse_RecognitionBackend 辨識後端。 唯讀,可在語音辨識結果上使用。 這表示是否使用雲端(在線)或內嵌式(離線)辨識來產生結果。
SpeechServiceResponse_SynthesisFirstByteLatencyMs 語音合成第一個字節延遲以毫秒為單位。 唯讀,可在最終語音合成結果上使用。 這會測量合成開始處理,以及第一個字節音訊可供使用的那一刻之間的延遲。 已在1.17.0版中新增。
SpeechServiceResponse_SynthesisFinishLatencyMs 語音合成所有位元組延遲以毫秒為單位。 唯讀,可在最終語音合成結果上使用。 這會測量合成開始處理時,以及合成整個音訊的時刻之間的延遲。 已在1.17.0版中新增。
SpeechServiceResponse_SynthesisUnderrunTimeMs 語音合成的運行時間以毫秒為單位。 只讀,可在 SynthesisCompleted 事件的結果上使用。 這會測量從 PropertyId::AudioConfig_PlaybackBufferLengthInMs 填入到合成完成的總運行時間。 已在1.17.0版中新增。
SpeechServiceResponse_SynthesisConnectionLatencyMs 語音合成連接延遲以毫秒為單位。 唯讀,可在最終語音合成結果上使用。 這會測量何時開始處理合成,以及建立 HTTP/WebSocket 連線的時間之間的延遲。 已在1.26.0版中新增。
SpeechServiceResponse_SynthesisNetworkLatencyMs 語音合成網路等待時間以毫秒為單位。 唯讀,可在最終語音合成結果上使用。 這會測量網路往返時間。 已在1.26.0版中新增。
SpeechServiceResponse_SynthesisServiceLatencyMs 語音合成服務延遲以毫秒為單位。 唯讀,可在最終語音合成結果上使用。 這會測量服務處理時間以合成第一個字節的音訊。 已在1.26.0版中新增。
SpeechServiceResponse_SynthesisBackend 指出合成完成的後端。 唯讀,可在語音合成結果上使用,但 1.17.0 版中新增的 SynthesisStarted 事件的結果除外。
SpeechServiceResponse_DiarizeIntermediateResults 判斷中繼結果是否包含說話者識別。
CancellationDetails_Reason 取消原因。 目前未使用。
CancellationDetails_ReasonText 取消文字。 目前未使用。
CancellationDetails_ReasonDetailedText 取消詳細文字。 目前未使用。
LanguageUnderstandingServiceResponse_JsonResult Language Understanding 服務響應輸出 (JSON 格式)。 可透過 IntentRecognitionResult.Properties 取得。
AudioConfig_DeviceNameForCapture 音訊擷取的裝置名稱。 在正常情況下,您不需要直接使用這個屬性。 請改用 AudioConfig::FromMicrophoneInput。 注意:這個屬性標識碼已在 1.3.0 版中新增。
AudioConfig_NumberOfChannelsForCapture 音訊擷取的通道數目。 僅限內部使用。 注意:這個屬性標識碼已在 1.3.0 版中新增。
AudioConfig_SampleRateForCapture 音訊擷取的取樣率(以 Hz 為單位)。 僅限內部使用。 注意:這個屬性標識碼已在 1.3.0 版中新增。
AudioConfig_BitsPerSampleForCapture 音訊擷取的每個範例位數。 僅限內部使用。 注意:這個屬性標識碼已在 1.3.0 版中新增。
AudioConfig_AudioSource 音訊來源。 允許的值為 「Microphones」、“ File” 和 「Stream」。 已在1.3.0版中新增。
AudioConfig_DeviceNameForRender 音訊轉譯的裝置名稱。 在正常情況下,您不需要直接使用這個屬性。 請改用 AudioConfig::FromSpeakerOutput。 已在1.14.0版中新增。
AudioConfig_PlaybackBufferLengthInMs 以毫秒為單位的播放緩衝區長度,預設值為 50 毫秒。
AudioConfig_AudioProcessingOptions JSON 格式的音訊處理選項。
Speech_LogFilename 要寫入記錄的檔名。 已在1.4.0版中新增。
Speech_SegmentationSilenceTimeoutMs 偵測到的無聲持續時間,以毫秒為單位,之後語音轉換文字會判斷口語片語語組已結束,併產生最終的辨識結果。 設定此逾時可能會對語音輸入明顯更快或速度比平常慢的情況有所説明,且預設分割行為一致會產生太長或太短的結果。 不適當高或低的分割逾時值可能會對語音轉換文字精確度造成負面影響;應仔細設定這個屬性,並應如預期徹底驗證產生的行為。
Speech_SegmentationMaximumTimeMs 使用「時間」分割策略時,口語詞組的最大長度。 當口語片語詞組的長度接近此值時,Speech_SegmentationSilenceTimeoutMs會開始減少,直到達到片語組無聲逾時或片語組達到最大長度為止。
Speech_SegmentationStrategy 用來判斷口語詞組何時結束且應該產生最終辨識結果的策略。 允許的值為 「Default」、“ Time” 和 「Semantic」。
Conversation_ApplicationId 用來連線到後端服務的標識碼。 已在1.5.0版中新增。
Conversation_DialogType 要連接的對話框後端類型。 已在1.7.0版中新增。
Conversation_Initial_Silence_Timeout 在 1.5.0 版中新增的接聽無聲逾時。
Conversation_From_Id 要用於 1.5.0 版中新增的語音辨識活動標識碼。
Conversation_Conversation_Id 會話的 ConversationId。 已在1.8.0版中新增。
Conversation_Custom_Voice_Deployment_Ids 自訂語音部署標識碼的逗號分隔清單。 已在1.8.0版中新增。
Conversation_Speech_Activity_Template 語音活動範本、服務針對語音產生的活動,範本中的戳記屬性。 已在1.10.0版中新增。
Conversation_ParticipantId 您目前交談中的參與者標識碼。 已在1.13.0版中新增。
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp 使用提取/推送音訊輸入數據流時,用戶端所寫入之數據緩衝區的相關時間戳。 時間戳是64位值,解析度為90 kHz。 這與 MPEG 傳輸數據流中的簡報時間戳相同。 請參閱 1.5.0 版中新增 https://en.wikipedia.org/wiki/Presentation_timestamp
DataBuffer_UserId 使用提取/推送音訊輸入數據流時,與用戶端寫入的數據緩衝區相關聯的使用者標識符。 已在1.5.0版中新增。
PronunciationAssessment_ReferenceText 音訊的參考文字,用於發音評估。 如需此和下列發音評估參數,請參閱資料表 發音評估參數。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::Create發音AssessmentConfig::SetReferenceText。 已在1.14.0版中新增。
PronunciationAssessment_GradingSystem 發音分數校正的點系統(FivePoint 或 HundredMark)。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::Create。 已在1.14.0版中新增。
PronunciationAssessment_Granularity 發音評估粒度(Phoneme、Word 或 FullText)。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::Create。 已在1.14.0版中新增。
PronunciationAssessment_EnableMiscue 定義是否啟用錯誤計算。 啟用此功能后,會比較發音的文字與參考文字,並根據比較標示為省略/插入。 默認設定為 False。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::Create。 已在1.14.0版中新增。
PronunciationAssessment_PhonemeAlphabet 發音評估音素字母。 有效值為 “SAPI” (預設值) 和 “IPA” 在正常情況下,您不應該直接使用此屬性。 請改用 發音AssessmentConfig::SetPhonemeAlphabet。 已在1.20.0版中新增。
PronunciationAssessment_NBestPhonemeCount 發音評估 nbest phoneme 計數。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::SetNBestPhonemeCount。 已在1.20.0版中新增。
PronunciationAssessment_EnableProsodyAssessment 是否要啟用 Prosody 評定。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::EnableProsodyAssessment。 已在1.33.0版中新增。
PronunciationAssessment_Json 在正常情況下,發音評估參數的 json 字串,您不應該直接使用這個屬性。 請改用 發音AssessmentConfig::Create。 已在1.14.0版中新增。
PronunciationAssessment_Params 發音評估參數。 此屬性是唯讀的。 SDK 正在內部使用它。 已在1.14.0版中新增。
PronunciationAssessment_ContentTopic 發音評估的內容主題。 在正常情況下,您不需要直接使用這個屬性。 請改用 發音AssessmentConfig::EnableContentAssessmentWithTopic。 已在1.33.0版中新增。
SpeakerRecognition_Api_Version 說話者辨識後端 API 版本。 新增此屬性以允許在適用的情況下測試及使用舊版說話者辨識 API。 已在1.18.0版中新增。
SpeechTranslation_ModelName 要用於語音翻譯的模型名稱。 請勿直接使用這個屬性。 目前,只有在使用EmbeddedSpeechConfig時,才有效。
SpeechTranslation_ModelKey 這個屬性已被取代。
KeywordRecognition_ModelName 要用於關鍵詞辨識的模型名稱。 請勿直接使用這個屬性。 目前,只有在使用EmbeddedSpeechConfig時,才有效。
KeywordRecognition_ModelKey 這個屬性已被取代。
EmbeddedSpeech_EnablePerformanceMetrics 啟用內嵌語音效能計量的集合,可用來評估裝置使用內嵌語音的功能。 收集的數據包含在語音辨識等特定案例的結果中。 默認設定為 「false」。。 請注意,計量可能無法從所有內嵌語音案例取得。
SpeechSynthesisRequest_Pitch 合成語音的音調。
SpeechSynthesisRequest_Rate 合成語音的速率。
SpeechSynthesisRequest_Volume 合成語音的音量。

定義語音屬性識別碼。 在 1.4.0 版中變更。

enum OutputFormat

描述
簡單
詳細

輸出格式。

enum ProfanityOption

描述
蒙面 以星號字元取代粗話字中的字母。
刪除 拿掉粗話字。
對褻瀆的話不做任何事。

拿掉褻瀆(宣誓),或用星星取代褻瀆字的字母。 已在1.5.0版中新增。

enum ResultReason

描述
NoMatch 表示無法辨識語音。 您可以在 NoMatchDetails 物件中找到更多詳細數據。
取消 表示已取消辨識。 您可以使用 CancellationDetails 物件找到更多詳細數據。
RecognizingSpeech 表示語音結果包含假設文字。
RecognizedSpeech 表示語音結果包含已辨識的最終文字。 此片語現在已完成語音辨識。
RecognizingIntent 指出意圖結果包含假設文字和意圖。
RecognizedIntent 指出意圖結果包含最終文字和意圖。 此片語現在已完成語音辨識和意圖判斷。
翻譯Speech 表示翻譯結果包含假設文字及其翻譯。
TranslatedSpeech 表示翻譯結果包含最終文字和對應的翻譯。 此片語現在已完成語音辨識和翻譯。
合成Audio 表示合成的音訊結果包含非零數量的音訊數據。
合成AudioCompleted 表示此片語現在已完成合成的音訊。
RecognizingKeyword 指出語音結果包含(未驗證的)關鍵詞文字。 已在1.3.0版中新增。
RecognizedKeyword 表示關鍵詞辨識已完成辨識指定的關鍵詞。 已在1.3.0版中新增。
合成AudioStarted 表示語音合成現已在 1.4.0 版中啟動。
翻譯ParticipantSpeech 表示轉譯結果包含交談中其他參與者的假設文字及其翻譯。 已在1.8.0版中新增。
TranslatedParticipantSpeech 表示轉譯結果包含交談中其他參與者的最終文字和對應的翻譯。 此片語現在已完成語音辨識和翻譯。 已在1.8.0版中新增。
TranslatedInstantMessage 表示轉譯結果包含立即訊息和對應的翻譯。 已在1.8.0版中新增。
TranslatedParticipantInstantMessage 表示轉譯結果包含交談中其他參與者的立即訊息,以及對應的翻譯。 已在1.8.0版中新增。
EnrollingVoiceProfile 指出正在註冊語音配置檔,客戶需要傳送更多音訊來建立語音設置檔。 已在1.12.0版中新增。
EnrolledVoiceProfile 已註冊語音配置檔。 已在1.12.0版中新增。
RecognizedSpeakers 表示某些說話者的成功識別。 已在1.12.0版中新增。
RecognizedSpeaker 表示已成功驗證一個喇叭。 已在1.12.0版中新增。
ResetVoiceProfile 表示已成功重設語音配置檔。 已在1.12.0版中新增。
DeletedVoiceProfile 表示已成功刪除語音配置檔。 已在1.12.0版中新增。
VoicesListRetrieved 表示已成功擷取語音清單。 已在1.16.0版中新增。

指定可能會產生辨識結果的可能原因。

enum CancellationReason

描述
錯誤 表示語音辨識期間發生錯誤。
EndOfStream 表示已到達音訊數據流的結尾。
CancelledByUser 指出使用者已取消要求。 已在1.14.0版中新增。

定義可能取消辨識結果的可能原因。

enum CancellationErrorCode

描述
NoError 沒有錯誤。 如果 CancellationReason 是 EndOfStream,CancellationErrorCode 會設定為 NoError。
AuthenticationFailure 表示驗證錯誤。 如果訂用帳戶密鑰或授權令牌無效、過期或不符合所使用的區域,就會發生驗證錯誤。
BadRequest 表示一或多個辨識參數無效,或不支援音訊格式。
TooManyRequests 表示平行要求數目超過訂閱允許的並行轉譯數目。
禁止 表示要求所使用的免費訂用帳戶已用盡配額。
ConnectionFailure 表示連線錯誤。
ServiceTimeout 表示等候服務回應時的逾時錯誤。
ServiceError 表示服務傳回錯誤。
ServiceUnavailable 表示服務目前無法使用。
RuntimeError 表示非預期的運行時間錯誤。
ServiceRedirectTemporary 表示語音服務會暫時要求重新連線至不同的端點。
ServiceRedirectPermanent 表示語音服務會永久要求重新連線至不同的端點。
EmbeddedModelError 表示內嵌語音 (SR 或 TTS) 模型無法使用或損毀。

定義當 CancellationReason 為 Error 時的錯誤碼。 已在1.1.0版中新增。

enum NoMatchReason

描述
NotRecognized 表示偵測到語音,但無法辨識。
InitialSilenceTimeout 表示音訊數據流的開頭只包含無聲,且服務逾時等候語音。
InitialBabbleTimeout 表示音訊數據流的開頭只包含雜訊,而服務逾時等候語音。
KeywordNotRecognized 表示關鍵詞驗證服務已拒絕現成關鍵詞。 已在1.5.0版中新增。
EndSilenceTimeout 表示音訊數據流只包含最後一個辨識片語之後的無聲。

定義無法辨識辨識結果的可能原因。

enum ActivityJSONType

描述
物件
陣列
字串
UInt
Int
布爾

定義活動 json 值的可能型別。 已在1.5.0版中新增。

enum SpeechSynthesisOutputFormat

描述
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren 不受服務支援。 請勿使用此值。
Audio16Khz16KbpsMonoSiren 服務不支援 audio-16khz-16kbps-mono-siren。 請勿使用此值。
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus 已在 1.16.0 版中新增
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus 已在 1.16.0 版中新增
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus 已在 1.16.0 版中新增
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk 已在 1.17.0 版中新增
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw 已在 1.17.0 版中新增
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw 已在 1.17.0 版中新增
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus 音訊由 WebM 容器中的 OPUS 編解碼器壓縮,比特率為 24 kbps,已針對 IoT 案例優化。 (新增於1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus 無容器由 OPUS 編解碼器壓縮的音訊,比特率為 32kbps。 (1.20.0新增)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus 不具容器的 OPUS 編解碼器壓縮的音訊,比特率為 48kbps。 (1.20.0新增)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus 不具容器的 OPUS 編解碼器壓縮的音訊,比特率為 24kbps。 (1.20.0新增)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm 原始 PCM 音訊為 22050Hz 取樣率和 16 位深度。 (1.22.0新增)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM 音訊在 22050Hz 取樣率和 16 位深度,具有 RIFF 標頭。 (1.22.0新增)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm 原始 PCM 音訊,取樣率為 44100Hz 和 16 位深度。 (1.22.0新增)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM 音訊為 44100Hz 取樣率和 16 位深度,具有 RIFF 標頭。 (1.22.0新增)
AmrWb16000Hz amr-wb-16000hz AMR-WB 音訊以 16kHz 取樣率。 (新增於1.24.0)
G72216Khz64Kbps g722-16khz-64kbps G.722 音訊,速率為 16kHz 取樣率和 64kbps 比特率。 (新增於1.38.0)

定義可能的語音合成輸出音訊格式。 在 1.19.0 版中更新。

enum StreamStatus

描述
未知 音訊數據流狀態未知。
NoData 音訊數據流不包含任何數據。
PartialData 音訊數據流包含說話要求的部分數據。
AllData 音訊數據流包含說話要求的所有數據。
取消 音訊數據流已取消。

定義音訊數據流的可能狀態。 已在1.4.0版中新增。

enum ServicePropertyChannel

描述
UriQueryParameter 使用 URI 查詢參數將屬性設定傳遞至服務。
HttpHeader 使用 HttpHeader 在 HTTP 標頭中設定索引鍵/值。

定義用來將屬性設定傳遞至服務的通道。 已在1.5.0版中新增。

enum VoiceProfileType

描述
TextIndependentIdentification 與文字無關的說話者識別。
TextDependentVerification 文字相依說話者驗證。
TextIndependentVerification 與文字無關的驗證。

定義語音配置檔類型。

enum RecognitionFactorScope

描述
PartialPhrase 辨識因數會套用至可參考為個別部分片語的文法。

定義套用辨識因數的範圍。

enum 發音AssessmentGradingSystem

描述
FivePoint 五點校正。
HundredMark 百分。

定義發音分數校正的點系統;預設值為 FivePoint。 已在1.14.0版中新增。

enum 發音AssessmentGranularity

描述
音素 顯示全文檢索、文字和音素層級的分數。
顯示全文檢索和文字層級的分數。
FullText 僅顯示全文檢索層級的分數。

定義發音評估粒度;預設值為 Phoneme。 已在1.14.0版中新增。

enum SynthesisVoiceType

描述
OnlineNeural 在線神經語音。
OnlineStandard 在線標準語音。
OfflineNeural 離線神經語音。
OfflineStandard 離線標準語音。

定義1.16.0版中新增的合成語音類型。

enum SynthesisVoiceGender

描述
未知 性別未知。
女性 女性的聲音。
男性聲音。

定義1.17.0版中新增的合成語音性別。

enum SpeechSynthesisBoundaryType

描述
文字界限。
標點 標點符號界限。
句子界限。

定義在 1.21.0 版中新增的語音合成界限事件的界限類型。

enum 分割Strategy

描述
違約 使用語音服務所決定的預設策略和設定。 在大部分情況下使用。
時間 使用以時間為基礎的策略,其中語音之間的無聲量用來判斷何時產生最終結果。
語義 使用 AI 模型,根據片語片的內容來威懾口語片語組的結尾。

用來判斷口語詞組何時結束且應該產生最終辨識結果的策略。 允許的值為 「Default」、“ Time” 和 「Semantic」。