次の方法で共有


class Intent::IntentRecognizer

class Intent::IntentRecognizer
  : public AsyncRecognizer< IntentRecognitionResult, IntentRecognitionEventArgs, IntentRecognitionCanceledEventArgs >

IntentRecognizer は、音声テキスト変換認識の実行に加えて、話者の意図に関する構造化された情報を抽出します。これは、専用の意図トリガーを使用してさらにアクションを実行するために使用できます (IntentTrigger参照)。

メンバーズ

プロパティ

構文: public PropertyCollection & Properties;

この IntentRecognizer に対して定義されているプロパティとその値のコレクション。

IntentRecognizer

構文: public inline explicit IntentRecognizer ( SPXRECOHANDLE hreco );

内部コンストラクター。 指定されたハンドルを使用して新しいインスタンスを作成します。

パラメーター

  • hreco Recognizer ハンドル。

~IntentRecognizer

構文: public inline ~IntentRecognizer ( );

デストラクタ

RecognizeOnceAsync

構文: public inline virtual std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( );

意図認識を開始し、1 つの発話が認識された後に返します。 1 つの発話の最後は、最後に無音をリッスンするか、最大約 30 秒のオーディオが処理されるまで待機することによって決定されます。 タスクは、結果として認識テキストを返します。 注: RecognizeOnceAsync() は 1 つの発話のみを返すので、コマンドやクエリなどの単一ショット認識にのみ適しています。 実行時間の長いマルチ発話認識の場合は、代わりに StartContinuousRecognitionAsync() を使用してください。

収益

非同期意図認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。

RecognizeOnceAsync

構文: public inline std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( std::string text );

意図認識を開始し、渡されたテキストから結果を生成します。 これは、音声入力が IntentRecognizer に関連付けられていないテストやその他の場合に便利です。 注: インテント サービスは現在これをサポートしていないため、オフラインパターンマッチングまたは完全一致インテントに対してのみ有効です。

パラメーター

  • text 評価するテキスト。

収益

非同期意図認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。

StartContinuousRecognitionAsync

構文: public inline virtual std::future< void > StartContinuousRecognitionAsync ( );

継続的な意図認識操作を非同期的に開始します。

収益

空の未来。

StopContinuousRecognitionAsync

構文: public inline virtual std::future< void > StopContinuousRecognitionAsync ( );

継続的な継続的な意図認識操作を非同期的に終了します。

収益

空の未来。

StartKeywordRecognitionAsync

構文: public inline virtual std::future< void > StartKeywordRecognitionAsync ( std::shared_ptr< KeywordRecognitionModel > model );

キーワード認識操作を非同期的に開始します。

パラメーター

  • model 使用するキーワード モデルを指定します。

収益

空の未来。

StopKeywordRecognitionAsync

構文: public inline virtual std::future< void > StopKeywordRecognitionAsync ( );

キーワード認識操作を非同期的に終了します。

収益

空の未来。

AddIntent

構文: public inline void AddIntent ( const std::string & simplePhrase );

特定のユーザーの意図を示す、ユーザーが話す可能性のある単純なフレーズを追加します。 この単純な語句は、中かっこで囲まれたパターンを含め、エンティティにすることができます。 "{checkboxName} チェック ボックスをクリックする" などです。

パラメーター

  • simplePhrase 意図に対応する語句。

認識されると、IntentRecognitionResult の IntentId プロパティは、ここで指定した simplePhrase と一致します。 エンティティが指定され、一致した場合は、IntentResult->GetEntities() 呼び出しで使用できます。

AddIntent

構文: public inline void AddIntent ( const std::string & simplePhrase , const std::string & intentId );

特定のユーザーの意図を示す、ユーザーが話す可能性のある単純なフレーズを追加します。 この単純な語句は、中かっこで囲まれたパターンを含め、エンティティにすることができます。 "{checkboxName} チェック ボックスをクリックする" などです。

パラメーター

  • simplePhrase 意図に対応する語句。

  • intentId IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列です。

認識されると、結果の意図 ID はここで指定した ID と一致します。 エンティティが指定され、一致した場合は、IntentResult->GetEntities() 呼び出しで使用できます。

AddIntent

構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName );

指定した Language Understanding モデルから名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName は無視されます。

パラメーター

  • model 意図を含む言語理解モデル。

  • intentName 言語理解モデルから含める 1 つの意図の名前。

認識されると、IntentRecognitionResult の IntentId プロパティには、ここで指定した intentName が含まれます。

AddIntent

構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName , const std::string & intentId );

指定した Language Understanding モデルから名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName と intentId は無視されます。

パラメーター

  • model 意図を含む言語理解モデル。

  • intentName 言語理解モデルから含める 1 つの意図の名前。

  • intentId IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列です。

AddAllIntents

構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model );

指定した Language Understanding モデルからすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。

パラメーター

  • model 意図を含む言語理解モデル。

認識されると、IntentRecognitionResult の IntentId プロパティには、認識された意図の名前が含まれます。

AddAllIntents

構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentId );

指定した Language Understanding モデルからすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。

パラメーター

  • model 意図を含む言語理解モデル。

  • intentId IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID です。

AddIntent

構文: public inline void AddIntent ( std::shared_ptr< IntentTrigger > trigger , const std::string & intentId );

指定した IntentTrigger を追加します。

パラメーター

  • 意図に対応する IntentTrigger を trigger します。

  • intentId IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID です。

SetAuthorizationToken

構文: public inline void SetAuthorizationToken ( const std::string & token );

サービスへの接続に使用する承認トークンを設定します。 注: 呼び出し元は、承認トークンが有効であることを確認する必要があります。 承認トークンの有効期限が切れる前に、呼び出し元はこのセッターを新しい有効なトークンで呼び出して更新する必要があります。 そうしないと、認識中に認識エンジンでエラーが発生します。

パラメーター

  • token 承認トークンを表す文字列です。

GetAuthorizationToken

構文: public inline std::string GetAuthorizationToken ( );

承認トークンを取得します。

収益

承認トークン

ApplyLanguageModels

構文: public inline bool ApplyLanguageModels ( const std::vector< std::shared_ptr< LanguageUnderstandingModel > > & collection );

言語理解モデルのコレクションを取得し、それらのコピーを作成し、認識エンジンに適用します。 このアプリケーションは、言語理解モデルの種類に応じて異なる時間に発生します。 単純な言語モデルはほぼすぐにアクティブになりますが、LUIS を利用する言語理解モデルは次の音声ターンでアクティブになります。 これにより、以前に適用されたすべてのモデルが置き換えられます。

パラメーター

  • collection LanguageUnderstandingModels への共有ポインターのベクトル。

収益

True の 場合、モデルの適用が直ちに有効になります。 それ以外の場合は false。

FromConfig

構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< SpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );

音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーは、この関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。

パラメーター

  • 音声構成 speechConfig します。

  • オーディオ構成を audioInput します。

収益

意図認識エンジンのインスタンス。

FromConfig

構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< EmbeddedSpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );

埋め込まれた音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーは、この関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。 バージョン 1.19.0 で追加されました。

パラメーター

  • speechConfig 埋め込み音声構成。

  • オーディオ構成を audioInput します。

収益

意図認識エンジンのインスタンス。

BaseType

構文: typedef BaseType;