次の方法で共有


名前空間 Microsoft::CognitiveServices::Speech

概要

メンバーズ 説明
enum PropertyId を する 音声プロパティ ID を定義します。 バージョン 1.4.0 で変更されました。
列挙型 OutputFormat を する 出力形式。
enum ProfanityOption を する 不適切な表現 (悪口) を削除するか、不適切な単語の文字を星に置き換えます。 バージョン 1.5.0 で追加されました。
列挙型 ResultReason を する 認識結果が生成される可能性のある理由を指定します。
enum CancellationReason を する 認識結果が取り消される可能性がある理由を定義します。
enum CancellationErrorCode を する CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。
列挙型 NoMatchReason を する 認識結果が認識されない可能性がある理由を定義します。
enum ActivityJSONType を する アクティビティの json 値に使用できる型を定義します。 バージョン 1.5.0 で追加されました。
enum SpeechSynthesisOutputFormat を する 可能な音声合成出力オーディオ形式を定義します。 バージョン 1.19.0 で更新されました。
列挙型 StreamStatus を する オーディオ データ ストリームの使用可能な状態を定義します。 バージョン 1.4.0 で追加されました。
enum ServicePropertyChannel を する プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.5.0 で追加されました。
enum VoiceProfileType を する 音声プロファイルの種類を定義します。
enum RecognitionFactorScope を する 認識係数を適用するスコープを定義します。
Enum PronunciationAssessmentGradingSystem を する 発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.14.0 で追加されました。
enum PronunciationAssessmentGranularity 発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.14.0 で追加されました。
enum SynthesisVoiceType を する バージョン 1.16.0 で追加された合成音声の種類を定義します。
enum SynthesisVoiceGender を する バージョン 1.17.0 で追加された合成音声の性別を定義します。
enum SpeechSynthesisBoundaryType を する バージョン 1.21.0 で追加された音声合成境界イベントの境界の種類を定義します。
enum SegmentationStrategy を する 音声フレーズがいつ終了し、最終的な認識結果を生成するかを決定するために使用される戦略。 使用できる値は、"Default"、"Time"、および "Semantic" です。
クラス AsyncRecognizer を する AsyncRecognizer 抽象基底クラス。
クラス AudioDataStream オーディオ データをストリームとして操作するために使用されるオーディオ データ ストリームを表します。 バージョン 1.4.0 で追加されました。
クラス AutoDetectSourceLanguageConfig 自動検出ソース構成を定義するクラス 1.13.0 で更新されました。
クラス AutoDetectSourceLanguageResult 1.8.0 で追加された、自動検出されたソース言語の結果が含まれています。
クラス BaseAsyncRecognizer BaseAsyncRecognizer クラス。
クラス CancellationDetails 結果が取り消された理由に関する詳細情報が含まれます。
ClassLanguageModel クラスを する 動的文法シナリオの文法の一覧を表します。 バージョン 1.7.0 で追加されました。
クラス Connection Connection は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、Recognizer は、必要に応じてサービスへの接続を自律的に管理します。 Connection クラスには、ユーザーが接続を明示的に開いたり閉じたりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドが用意されています。 接続の使用は省略可能です。 これは、接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオを対象としています。 必要に応じて、Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、サービス接続を手動で開始できます。 認識を開始すると、Open() または Close() の呼び出しが失敗する可能性があります。 これは、認識エンジンや継続的な認識には影響しません。 接続はさまざまな理由で低下する可能性があります。認識エンジンは、継続的な操作を保証するために必要に応じて常に接続の再確立を試みます。 これらすべての場合、接続/切断イベントは接続状態の変更を示します。 バージョン 1.17.0 で更新されました。
クラス ConnectionEventArgs ConnectionEvent のデータを提供します。 バージョン 1.2.0 で追加されました。
クラス ConnectionMessage ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service の運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なしに変更されることがあります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.10.0 で追加されました。
クラス ConnectionMessageEventArgs ConnectionMessageEvent のデータを提供します。
クラス EmbeddedSpeechConfig 埋め込み (オフライン) 音声構成を定義するクラス。
クラス EventArgs イベント引数の基本クラス。
クラス EventSignal クライアントは、イベントシグナルに接続してイベントを受信するか、イベントシグナルから切断してイベントの受信を停止できます。
クラス EventSignalBase クライアントは、イベントシグナルに接続してイベントを受信するか、イベントシグナルから切断してイベントの受信を停止できます。
クラスの文法 音声認識をカスタマイズするための基本クラス文法を表します。 バージョン 1.5.0 で追加されました。
クラス GrammarList 動的文法シナリオの文法の一覧を表します。 バージョン 1.7.0 で追加されました。
クラス GrammarPhrase ユーザーが読み上げることができる語句を表します。 バージョン 1.5.0 で追加されました。
クラス HybridSpeechConfig 音声認識または音声合成用のハイブリッド (クラウドおよび埋め込み) 構成を定義するクラス。
クラス KeywordRecognitionEventArgs KeywordRecognizerによって送信されるイベントのクラス。
クラス KeywordRecognitionModel StartKeywordRecognitionAsync メソッドで使用されるキーワード認識モデルを表します。
クラス KeywordRecognitionResult KeywordRecognizerによって出力される結果を定義するクラス。
クラス KeywordRecognizer キーワードのアクティブ化のみを処理するために特化された認識エンジンの種類。
noMatchDetails クラスを する NoMatch 認識結果の詳細情報が含まれています。
PersonalVoiceSynthesisRequest クラスの 個人の音声 (aka.ms/azureai/personal-voice) の音声合成要求を定義するクラス。 このクラスはプレビュー段階であり、変更される可能性があります。 バージョン 1.39.0 で追加されました。
phraseListGrammar クラスを する 動的文法シナリオのフレーズ リスト文法を表します。 バージョン 1.5.0 で追加されました。
クラス の PronunciationAssessmentConfig 発音評価の構成を定義するクラスが 1.14.0 で追加されました。
クラス の PronunciationAssessmentResult 発音評価結果のクラス。
クラス PronunciationContentAssessmentResult コンテンツ評価結果のクラス。
クラス PropertyCollection プロパティ コレクションからプロパティ値を取得または設定するクラス。
クラス RecognitionEventArgs RecognitionEvent のデータを提供します。
クラス RecognitionResult 認識操作の結果に関する詳細情報が含まれます。
クラス Recognizer を する 認識エンジンの基本クラス。
クラス SessionEventArgs セッション イベント引数の基本クラス。
クラス SmartHandle スマート ハンドル クラス。
クラス SourceLanguageConfig 1.8.0 で追加されたソース言語の構成を定義するクラス。
クラス SourceLanguageRecognizer ソース言語認識エンジンのクラス。 このクラスは、スタンドアロン言語検出に使用できます。 バージョン 1.17.0 で追加されました。
SpeechConfig クラスを する 音声/意図認識、または音声合成の構成を定義するクラス。
クラス SpeechRecognitionCanceledEventArgs 音声認識のクラスがイベント引数を取り消しました。
クラス SpeechRecognitionEventArgs 音声認識イベント引数のクラス。
クラス SpeechRecognitionModel 音声認識モデルの情報。
クラス SpeechRecognitionResult 音声認識結果の基本クラス。
SpeechRecognizer クラスの 音声認識エンジンのクラス。
クラス SpeechSynthesisBookmarkEventArgs 音声合成ブックマーク イベント引数のクラス。 バージョン 1.16.0 で追加されました。
クラス SpeechSynthesisCancellationDetails 結果が取り消された理由に関する詳細情報が含まれます。 バージョン 1.4.0 で追加されました。
クラス SpeechSynthesisEventArgs 音声合成イベント引数のクラス。 バージョン 1.4.0 で追加されました。
クラス SpeechSynthesisRequest 音声合成要求を定義するクラス。 このクラスはプレビュー段階であり、変更される可能性があります。 バージョン 1.37.0 で追加されました。
クラス SpeechSynthesisResult テキスト読み上げ合成の結果に関する情報が含まれています。 バージョン 1.4.0 で追加されました。
クラス SpeechSynthesisVisemeEventArgs 音声合成の口形素イベント引数のクラス。 バージョン 1.16.0 で追加されました。
クラス SpeechSynthesisWordBoundaryEventArgs 音声合成ワード境界イベント引数のクラス。 バージョン 1.7.0 で追加されました。
クラス SpeechSynthesizer 音声シンセサイザーのクラス。 バージョン 1.14.0 で更新されました。
クラス SpeechTranslationModel 音声翻訳モデルの情報。
クラス SynthesisVoicesResult 音声シンセサイザーの音声リストからの結果に関する情報が含まれています。 バージョン 1.16.0 で追加されました。
クラス VoiceInfo バージョン 1.17.0 で更新された合成音声情報に関する情報が含まれています。

メンバーズ

enum PropertyId

価値観 説明
SpeechServiceConnection_Key Cognitive Services Speech Service サブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromSubscriptionを使用します。
SpeechServiceConnection_Endpoint Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromEndpointを使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。
SpeechServiceConnection_Region Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromSubscriptionSpeechConfig::FromEndpointSpeechConfig::FromHostSpeechConfig::FromAuthorizationTokenを使用します。
SpeechServiceAuthorization_Token Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれる)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromAuthorizationTokenSpeechRecognizer::SetAuthorizationToken、IntentRecognizer::SetAuthorizationToken、TranslationRecognizer::SetAuthorizationToken を使用します。
SpeechServiceAuthorization_Type Cognitive Services Speech Service 承認の種類。 現在使用されていません。
SpeechServiceConnection_EndpointId Cognitive Services Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetEndpointIdを使用します。 注: エンドポイント ID は、Custom Speech ポータルの [エンドポイントの詳細] の下に表示されます。
SpeechServiceConnection_Host Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromHostを使用します。
SpeechServiceConnection_ProxyHostName Cognitive Services Speech Service への接続に使用するプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyPort Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyUserName Cognitive Services Speech Service への接続に使用するプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyPassword Cognitive Services Speech Service への接続に使用するプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。
SpeechServiceConnection_Url 音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.5.0 で追加されました。
SpeechServiceConnection_ProxyHostBypass プロキシを使用しないホストの一覧を指定します。 この設定は、他のすべての構成をオーバーライドします。 ホスト名はコンマで区切られ、大文字と小文字は区別されません。 ワイルドカードはサポートされていません。
SpeechServiceConnection_TranslationToLanguages ターゲット翻訳言語として使用されるコンマ区切り言語の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::AddTargetLanguage と SpeechTranslationConfig::GetTargetLanguages を使用します。
SpeechServiceConnection_TranslationVoice Cognitive Service Text to Speech Service 音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechTranslationConfig::SetVoiceName を使用します。 注: 有効な音声名は、見つけることができます。
SpeechServiceConnection_TranslationFeatures 翻訳機能。 内部使用の場合。
SpeechServiceConnection_IntentRegion Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに LanguageUnderstandingModel を使用します。
SpeechServiceConnection_RecoMode Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。
SpeechServiceConnection_RecoLanguage 認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetSpeechRecognitionLanguageを使用します。
Speech_SessionId セッション ID。この ID は、オーディオ入力ストリームの特定のバインドと、それがバインドされている基になる音声認識インスタンスを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SessionEventArgs::SessionIdを使用します。
SpeechServiceConnection_UserDefinedQueryParameters ユーザーによって提供されるクエリ パラメーター。 これらは、URL クエリ パラメーターとしてサービスに渡されます。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_RecoBackend 音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_RecoModelName 音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_RecoModelKey このプロパティは非推奨です。
SpeechServiceConnection_RecoModelIniFile 音声認識に使用するモデルの ini ファイルへのパス。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthLanguage 合成する音声言語 (en-USなど) がバージョン 1.4.0 で追加されました。
SpeechServiceConnection_SynthVoice 音声合成に使用する TTS 音声の名前。バージョン 1.4.0 で追加されました。
SpeechServiceConnection_SynthOutputFormat バージョン 1.4.0 で追加された TTS 出力オーディオ形式を指定する文字列。
SpeechServiceConnection_SynthEnableCompressedAudioTransmission 音声合成オーディオ伝送に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ影響します。 このプロパティが設定されておらず、GStreamer が使用可能な場合、SDK は合成オーディオ転送に圧縮形式を使用し、デコードします。 このプロパティを "false" に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 バージョン 1.16.0 で追加されました。
SpeechServiceConnection_SynthBackend TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用して、合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthOfflineDataPath オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPathsを使用します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthOfflineVoice 音声合成に使用するオフライン TTS 音声の名前 通常の状況では、このプロパティを直接使用しないでください。 代わりに、EmbeddedSpeechConfig::SetSpeechSynthesisVoiceEmbeddedSpeechConfig::GetSpeechSynthesisVoiceNameを使用します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthModelKey このプロパティは非推奨です。
SpeechServiceConnection_VoicesListEndpoint Cognitive Services Speech Service 音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK は、SpeechConfigのリージョン/ホスト/エンドポイントに基づいてこのプロパティを構築します。 バージョン 1.16.0 で追加されました。
SpeechServiceConnection_InitialSilenceTimeoutMs サービスによって使用される初期無音タイムアウト値 (ミリ秒)。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_EndSilenceTimeoutMs サービスによって使用される終了無音タイムアウト値 (ミリ秒)。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_EnableAudioLogging サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされた独自のストレージ アカウント (BYOS (Bring Your Own Storage) 対応 Speech リソース) に格納されます。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_LanguageIdMode Speech Service 接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別 ドキュメント 参照してください。 1.25.0 で追加されました。
SpeechServiceConnection_TranslationCategoryId Speech Service 接続の翻訳 categoryId。
SpeechServiceConnection_AutoDetectSourceLanguages バージョン 1.8.0 で追加された自動検出ソース言語。
SpeechServiceConnection_AutoDetectSourceLanguageResult ソース言語の自動検出の結果がバージョン 1.8.0 で追加されました。
SpeechServiceResponse_RequestDetailedResultTrueFalse 要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetOutputFormatを使用します。
SpeechServiceResponse_RequestProfanityFilterTrueFalse 要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。
SpeechServiceResponse_ProfanityOption 要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、および "raw" です。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_PostProcessingOption サービスで使用する後処理オプションを指定する文字列値。 使用できる値は "TrueText" です。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestWordLevelTimestamps 応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_StablePartialResultThreshold 単語が部分的な結果に含まれている必要がある回数を返します。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_OutputFormatOption 応答結果の出力形式オプションを指定する文字列値。 内部使用のみ。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestSnr 応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました。
SpeechServiceResponse_TranslationRequestStablePartialResult 末尾の単語を省略して翻訳の部分的な結果を安定させるために要求するブール値。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestWordBoundary WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_RequestPunctuationBoundary WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_RequestSentenceBoundary WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_SynthesisEventsSyncToAudio SDK で合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期させるかどうかを指定するブール値。 これは、オーディオが SDK を介して再生された場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを起動します。これは、オーディオ再生と同期していない可能性があります。 バージョン 1.31.0 で追加されました。
SpeechServiceResponse_JsonResult Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。
SpeechServiceResponse_JsonErrorDetails Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、CancellationDetails::ErrorDetailsを使用します。
SpeechServiceResponse_RecognitionLatencyMs 認識の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声/翻訳/意図の結果で使用できます。 これにより、SDK によってオーディオ入力が受信されてから、サービスから最終的な結果が受信された時点までの待機時間が測定されます。 SDK は、最終的な結果に寄与するオーディオ入力からの最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 バージョン 1.3.0 で追加されました。
SpeechServiceResponse_RecognitionBackend 認識バックエンド。 読み取り専用。音声認識の結果で使用できます。 これは、結果を生成するためにクラウド (オンライン) または埋め込み (オフライン) 認識が使用されたかどうかを示します。
SpeechServiceResponse_SynthesisFirstByteLatencyMs 音声合成の最初のバイト待機時間 (ミリ秒)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、最初のバイト オーディオが使用可能になった時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisFinishLatencyMs 音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、オーディオ全体が合成された時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisUnderrunTimeMs 音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。SynthesisCompleted イベントの結果で使用できます。 これは、PropertyId::AudioConfig_PlaybackBufferLengthInMs が合成完了までの合計アンダーラン時間を測定します。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisConnectionLatencyMs 音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisNetworkLatencyMs 音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisServiceLatencyMs 音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、サービスの処理時間が測定され、オーディオの最初のバイトが合成されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisBackend 合成が完了したバックエンドを示します。 読み取り専用。音声合成の結果で使用できます。ただし、SynthesisStarted イベントの結果はバージョン 1.17.0 で追加されました。
SpeechServiceResponse_DiarizeIntermediateResults 中間結果に話者識別が含まれているかどうかを判断します。
CancellationDetails_Reason 取り消しの理由。 現在使用されていません。
CancellationDetails_ReasonText 取り消しテキスト。 現在使用されていません。
CancellationDetails_ReasonDetailedText 取り消しの詳細なテキスト。 現在使用されていません。
LanguageUnderstandingServiceResponse_JsonResult Language Understanding Service 応答出力 (JSON 形式)。 IntentRecognitionResult.Properties を介して使用できます。
AudioConfig_DeviceNameForCapture オーディオ キャプチャのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromMicrophoneInput を使用します。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。
AudioConfig_NumberOfChannelsForCapture オーディオ キャプチャのチャネルの数。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。
AudioConfig_SampleRateForCapture オーディオ キャプチャのサンプル レート (Hz 単位)。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。
AudioConfig_BitsPerSampleForCapture オーディオ キャプチャの各サンプルのビット数。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。
AudioConfig_AudioSource オーディオ ソース。 使用できる値は、"Microphones"、"File"、および "Stream" です。 バージョン 1.3.0 で追加されました。
AudioConfig_DeviceNameForRender オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromSpeakerOutput を使用します。 バージョン 1.14.0 で追加されました。
AudioConfig_PlaybackBufferLengthInMs 再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。
AudioConfig_AudioProcessingOptions JSON 形式のオーディオ処理オプション。
Speech_LogFilename ログを書き込むファイル名。 バージョン 1.4.0 で追加されました。
Speech_SegmentationSilenceTimeoutMs 検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な認識結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって一貫して長すぎる、または短すぎる結果が得られる場合に役立ちます。 不適切に高い値または低いセグメント化タイムアウト値は、音声テキスト変換の精度に悪影響を与える可能性があります。このプロパティは慎重に構成する必要があり、結果の動作は意図したとおりに徹底的に検証する必要があります。
Speech_SegmentationMaximumTimeMs "時間" セグメント化戦略を使用する場合の話し言葉の最大長。 音声フレーズの長さがこの値に近づくと、フレーズの無音タイムアウトに達するか、フレーズが最大長に達するまで、Speech_SegmentationSilenceTimeoutMsが減少し始めます。
Speech_SegmentationStrategy 音声フレーズがいつ終了し、最終的な認識結果を生成するかを決定するために使用される戦略。 使用できる値は、"Default"、"Time"、および "Semantic" です。
Conversation_ApplicationId バックエンド サービスへの接続に使用される識別子。 バージョン 1.5.0 で追加されました。
Conversation_DialogType 接続するダイアログ バックエンドの種類。 バージョン 1.7.0 で追加されました。
Conversation_Initial_Silence_Timeout リッスンの無音タイムアウト バージョン 1.5.0 で追加されました。
Conversation_From_Id 音声認識アクティビティで使用する ID から、バージョン 1.5.0 で追加されました。
Conversation_Conversation_Id セッションの ConversationId。 バージョン 1.8.0 で追加されました。
Conversation_Custom_Voice_Deployment_Ids カスタム音声展開 ID のコンマ区切りの一覧。 バージョン 1.8.0 で追加されました。
Conversation_Speech_Activity_Template 音声アクティビティ テンプレート。サービスによって生成された音声アクティビティのテンプレート内のプロパティにスタンプを付けます。 バージョン 1.10.0 で追加されました。
Conversation_ParticipantId 現在の会話の参加者識別子。 バージョン 1.13.0 で追加されました。
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Pull/Push オーディオ入力ストリームを使用する場合にクライアントによって書き込まれるデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 これは、MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 バージョン 1.5.0 で追加された https://en.wikipedia.org/wiki/Presentation_timestamp を参照してください。
DataBuffer_UserId Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれるデータ バッファーに関連付けられているユーザー ID。 バージョン 1.5.0 で追加されました。
PronunciationAssessment_ReferenceText 発音評価用のオーディオの参照テキスト。 これと次の発音評価パラメーターについては、発音評価パラメーター 表を参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Create または PronunciationAssessmentConfig::SetReferenceTextを使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_GradingSystem 発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_Granularity 発音評価の粒度 (Phoneme、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_EnableMiscue その他の計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略/挿入でマークされます。 既定の設定は False です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_PhonemeAlphabet 発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::SetPhonemeAlphabetを使用します。 バージョン 1.20.0 で追加されました。
PronunciationAssessment_NBestPhonemeCount 発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::SetNBestPhonemeCountを使用します。 バージョン 1.20.0 で追加されました。
PronunciationAssessment_EnableProsodyAssessment プロソディ評価を有効にするかどうかを指定します。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::EnableProsodyAssessmentを使用します。 バージョン 1.33.0 で追加されました。
PronunciationAssessment_Json 発音評価パラメーターの json 文字列通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_Params 発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_ContentTopic 発音評価のコンテンツ トピック。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::EnableContentAssessmentWithTopicを使用します。 バージョン 1.33.0 で追加されました。
SpeakerRecognition_Api_Version Speaker Recognition バックエンド API のバージョン。 このプロパティは、以前のバージョンの Speaker Recognition API (該当する場合) のテストと使用を許可するために追加されます。 バージョン 1.18.0 で追加されました。
SpeechTranslation_ModelName 音声翻訳に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
SpeechTranslation_ModelKey このプロパティは非推奨です。
KeywordRecognition_ModelName キーワード認識に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
KeywordRecognition_ModelKey このプロパティは非推奨です。
EmbeddedSpeech_EnablePerformanceMetrics 埋め込み音声を使用するデバイスの機能を評価するために使用できる埋め込み音声パフォーマンス メトリックの収集を有効にします。 収集されたデータは、音声認識などの特定のシナリオの結果に含まれます。 既定の設定は "false" です。 すべての埋め込み音声シナリオからメトリックを使用できない場合があることに注意してください。
SpeechSynthesisRequest_Pitch 合成された音声のピッチ。
SpeechSynthesisRequest_Rate 合成された音声の速度。
SpeechSynthesisRequest_Volume 合成された音声の音量。

音声プロパティ ID を定義します。 バージョン 1.4.0 で変更されました。

enum OutputFormat

価値観 説明
簡単
詳しい

出力形式。

enum ProfanityOption

価値観 説明
マスク 不適切な単語の文字をスター文字に置き換えます。
削除 不適切な単語を削除します。
不適切な言葉には何もしません。

不適切な表現 (悪口) を削除するか、不適切な単語の文字を星に置き換えます。 バージョン 1.5.0 で追加されました。

enum ResultReason

価値観 説明
NoMatch 音声を認識できなかったことを示します。 詳細については、NoMatchDetails オブジェクトを参照してください。
キャンセル 認識が取り消されたことを示します。 詳細については、CancellationDetails オブジェクトを使用して確認できます。
RecognizingSpeech 音声結果に仮説テキストが含まれていることを示します。
RecognizedSpeech 音声結果に、認識された最終的なテキストが含まれていることを示します。 これで、この語句に対する音声認識が完了しました。
RecognizingIntent 意図の結果に仮説のテキストと意図が含まれていることを示します。
RecognizedIntent 意図の結果に最終的なテキストと意図が含まれていることを示します。 これで、音声認識と意図の決定がこのフレーズに対して完了しました。
TranslatingSpeech 翻訳結果に仮説テキストとその翻訳が含まれていることを示します。
TranslatedSpeech 翻訳結果に最終的なテキストと対応する翻訳が含まれていることを示します。 これで、音声認識と翻訳がこのフレーズに対して完了しました。
SynthesizingAudio 合成されたオーディオ結果に、0 以外の量のオーディオ データが含まれていることを示します。
SynthesizingAudioCompleted 合成されたオーディオがこのフレーズに対して完了したことを示します。
RecognizingKeyword 音声結果に (未確認の) キーワード テキストが含まれていることを示します。 バージョン 1.3.0 で追加されました。
RecognizedKeyword 指定されたキーワードの認識が完了したことを示します。 バージョン 1.3.0 で追加されました。
SynthesizingAudioStarted 音声合成がバージョン 1.4.0 で追加され開始されたことを示します。
TranslatingParticipantSpeech 文字起こし結果に、会話内の他の参加者の仮説テキストとその翻訳が含まれていることを示します。 バージョン 1.8.0 で追加されました。
TranslatedParticipantSpeech 文字起こしの結果に、会話の他の参加者の最終的なテキストと対応する翻訳が含まれていることを示します。 これで、音声認識と翻訳がこのフレーズに対して完了しました。 バージョン 1.8.0 で追加されました。
TranslatedInstantMessage 文字起こしの結果にインスタント メッセージと対応する翻訳が含まれていることを示します。 バージョン 1.8.0 で追加されました。
TranslatedParticipantInstantMessage 文字起こしの結果に、会話内の他の参加者と対応する翻訳のインスタント メッセージが含まれていることを示します。 バージョン 1.8.0 で追加されました。
EnrollingVoiceProfile 音声プロファイルが登録中であり、顧客は音声プロファイルを作成するためにさらに音声を送信する必要があることを示します。 バージョン 1.12.0 で追加されました。
EnrolledVoiceProfile 音声プロファイルが登録されています。 バージョン 1.12.0 で追加されました。
RecognizedSpeakers 一部のスピーカーが正常に識別されたことを示します。 バージョン 1.12.0 で追加されました。
RecognizedSpeaker 1 人の話者が正常に検証されたことを示します。 バージョン 1.12.0 で追加されました。
ResetVoiceProfile 音声プロファイルが正常にリセットされたことを示します。 バージョン 1.12.0 で追加されました。
DeletedVoiceProfile 音声プロファイルが正常に削除されたことを示します。 バージョン 1.12.0 で追加されました。
VoicesListRetrieved 音声リストが正常に取得されたことを示します。 バージョン 1.16.0 で追加されました。

認識結果が生成される可能性のある理由を指定します。

enum CancellationReason

価値観 説明
エラー 音声認識中にエラーが発生したことを示します。
EndOfStream オーディオ ストリームの末尾に達したことを示します。
CancelledByUser 要求がユーザーによって取り消されたことを示します。 バージョン 1.14.0 で追加されました。

認識結果が取り消される可能性がある理由を定義します。

enum CancellationErrorCode

価値観 説明
NoError エラーなし。 CancellationReason が EndOfStream の場合、CancellationErrorCode は NoError に設定されます。
AuthenticationFailure 認証エラーを示します。 サブスクリプション キーまたは承認トークンが無効であるか、有効期限が切れているか、使用されているリージョンと一致しない場合、認証エラーが発生します。
BadRequest 1 つ以上の認識パラメーターが無効であるか、オーディオ形式がサポートされていないことを示します。
TooManyRequests 並列要求の数が、サブスクリプションで許可されている同時文字起こしの数を超えたことを示します。
禁じられた 要求によって使用される無料のサブスクリプションがクォータを使い果たしたことを示します。
ConnectionFailure 接続エラーを示します。
ServiceTimeout サービスからの応答を待機中にタイムアウト エラーが発生したことを示します。
ServiceError サービスによってエラーが返されることを示します。
ServiceUnavailable サービスが現在使用できないことを示します。
RuntimeError 予期しないランタイム エラーを示します。
ServiceRedirectTemporary Speech Service が別のエンドポイントへの再接続を一時的に要求することを示します。
ServiceRedirectPermanent Speech Service が別のエンドポイントへの再接続を永続的に要求することを示します。
EmbeddedModelError 埋め込み音声 (SR または TTS) モデルが使用できないか破損していることが示されます。

CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。

enum NoMatchReason

価値観 説明
NotRecognized 音声が検出されたが認識されなかったことを示します。
InitialSilenceTimeout オーディオ ストリームの開始に無音のみが含まれており、サービスが音声を待機してタイムアウトしたことを示します。
InitialBabbleTimeout オーディオ ストリームの開始にノイズのみが含まれており、サービスが音声を待機してタイムアウトしたことを示します。
KeywordNotRecognized スポットされたキーワードがキーワード検証サービスによって拒否されたことを示します。 バージョン 1.5.0 で追加されました。
EndSilenceTimeout オーディオ ストリームに、最後に認識された語句の後に無音のみが含まれていることを示します。

認識結果が認識されない可能性がある理由を定義します。

enum ActivityJSONType

価値観 説明
ヌル
オブジェクト
配列
UInt
Int
ブーリアン

アクティビティの json 値に使用できる型を定義します。 バージョン 1.5.0 で追加されました。

enum SpeechSynthesisOutputFormat

価値観 説明
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren サービスでサポートされていません。 この値は使用しないでください。
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren サービスでサポートされていません。 この値は使用しないでください。
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus バージョン 1.16.0 で追加
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus バージョン 1.16.0 で追加
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus バージョン 1.16.0 で追加
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk バージョン 1.17.0 で追加
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw バージョン 1.17.0 で追加
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw バージョン 1.17.0 で追加
Webm24Khz16Bit24KbpsMonoOpus WebM コンテナー内の OPUS コーデックによって圧縮された webm-24khz-16bit-24kbps-mono-opus Audio。ビットレートは 24 kbps で、IoT シナリオ用に最適化されています。 (1.19.0 で追加)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio compressed by OPUS codec without container, with bitrate of 32kbps. (1.20.0 で追加)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio compressed by OPUS codec without container, with bitrate of 48kbps. (1.20.0 で追加)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Audio compressed by OPUS codec without container, with bitrate of 24kbps. (1.20.0 で追加)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Raw PCM audio at 22050Hz サンプリング レートおよび 16 ビット深度。 (1.22.0 で追加)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM オーディオ (22050Hz サンプリング レートと 16 ビット深度、RIFF ヘッダー付き)。 (1.22.0 で追加)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Raw PCM audio at 44100Hz サンプリング レートおよび 16 ビット深度。 (1.22.0 で追加)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM オーディオ (44100Hz サンプリング レート、16 ビット深度、RIFF ヘッダー付き)。 (1.22.0 で追加)
AmrWb16000Hz amr-wb-16000hz AMR-WB オーディオ (16kHz サンプリング レート)。 (1.24.0 で追加)
G72216Khz64Kbps g722-16khz-64kbps G.722 オーディオ (16kHz サンプリング レートおよび 64 kbps ビットレート)。 (1.38.0 で追加)

可能な音声合成出力オーディオ形式を定義します。 バージョン 1.19.0 で更新されました。

enum StreamStatus

価値観 説明
不明 オーディオ データ ストリームの状態が不明です。
NoData オーディオ データ ストリームにデータが含まれています。
PartialData オーディオ データ ストリームには、読み上げ要求の部分的なデータが含まれています。
AllData オーディオ データ ストリームには、読み上げ要求のすべてのデータが含まれます。
キャンセル オーディオ データ ストリームが取り消されました。

オーディオ データ ストリームの使用可能な状態を定義します。 バージョン 1.4.0 で追加されました。

enum ServicePropertyChannel

価値観 説明
UriQueryParameter URI クエリ パラメーターを使用して、プロパティ設定をサービスに渡します。
HttpHeader HttpHeader を使用して HTTP ヘッダーにキー/値を設定します。

プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.5.0 で追加されました。

enum VoiceProfileType

価値観 説明
TextIndependentIdentification テキストに依存しない話者識別。
TextDependentVerification テキスト依存の話者検証。
TextIndependentVerification テキストに依存しない検証。

音声プロファイルの種類を定義します。

enum RecognitionFactorScope

価値観 説明
PartialPhrase 認識係数は、個々の部分フレーズとして参照できる文法に適用されます。

認識係数を適用するスコープを定義します。

enum PronunciationAssessmentGradingSystem

価値観 説明
FivePoint 5 点校正。
HundredMark 100 のマーク。

発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.14.0 で追加されました。

enum PronunciationAssessmentGranularity

価値観 説明
音素 フルテキスト、単語、音素レベルのスコアを表示します。
言葉 フルテキストレベルとワードレベルのスコアを表示します。
FullText フルテキスト レベルでのみスコアを表示します。

発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.14.0 で追加されました。

enum SynthesisVoiceType

価値観 説明
OnlineNeural オンライン ニューラル音声。
OnlineStandard オンライン標準音声。
OfflineNeural オフライン ニューラル音声。
OfflineStandard オフラインの標準音声。

バージョン 1.16.0 で追加された合成音声の種類を定義します。

enum SynthesisVoiceGender

価値観 説明
不明 性別不明。
女性 女性の声。
男性 男声。

バージョン 1.17.0 で追加された合成音声の性別を定義します。

enum SpeechSynthesisBoundaryType

価値観 説明
言葉 単語の境界。
句読点 句読点の境界。
文の境界。

バージョン 1.21.0 で追加された音声合成境界イベントの境界の種類を定義します。

enum SegmentationStrategy

価値観 説明
デフォルト Speech Service によって決定される既定の戦略と設定を使用します。 ほとんどの状況で使用します。
時間 最終的な結果を生成するタイミングを決定するために音声間の無音の量を使用する時間ベースの戦略を使用します。
セマンティック AI モデルを使用して、フレーズの内容に基づいて音声フレーズの末尾を抑制します。

音声フレーズがいつ終了し、最終的な認識結果を生成するかを決定するために使用される戦略。 使用できる値は、"Default"、"Time"、および "Semantic" です。