class Intent::IntentRecognizer
class Intent::IntentRecognizer
: public AsyncRecognizer< IntentRecognitionResult, IntentRecognitionEventArgs, IntentRecognitionCanceledEventArgs >
IntentRecognizer は、音声テキスト変換認識の実行に加えて、話者の意図に関する構造化された情報を抽出します。これは、専用の意図トリガーを使用してさらにアクションを実行するために使用できます (IntentTrigger
メンバーズ
プロパティ
構文: public PropertyCollection & Properties;
この IntentRecognizer に対して定義されているプロパティとその値のコレクション。
IntentRecognizer
構文: public inline explicit IntentRecognizer ( SPXRECOHANDLE hreco );
内部コンストラクター。 指定されたハンドルを使用して新しいインスタンスを作成します。
パラメーター
-
hreco
Recognizer ハンドル。
~IntentRecognizer
構文: public inline ~IntentRecognizer ( );
デストラクタ
RecognizeOnceAsync
構文: public inline virtual std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( );
意図認識を開始し、1 つの発話が認識された後に返します。 1 つの発話の最後は、最後に無音をリッスンするか、最大約 30 秒のオーディオが処理されるまで待機することによって決定されます。 タスクは、結果として認識テキストを返します。 注: RecognizeOnceAsync() は 1 つの発話のみを返すので、コマンドやクエリなどの単一ショット認識にのみ適しています。 実行時間の長いマルチ発話認識の場合は、代わりに StartContinuousRecognitionAsync() を使用してください。
収益
非同期意図認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。
RecognizeOnceAsync
構文: public inline std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( std::string text );
意図認識を開始し、渡されたテキストから結果を生成します。 これは、音声入力が IntentRecognizer に関連付けられていないテストやその他の場合に便利です。 注: インテント サービスは現在これをサポートしていないため、オフラインパターンマッチングまたは完全一致インテントに対してのみ有効です。
パラメーター
-
text
評価するテキスト。
収益
非同期意図認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。
StartContinuousRecognitionAsync
構文: public inline virtual std::future< void > StartContinuousRecognitionAsync ( );
継続的な意図認識操作を非同期的に開始します。
収益
空の未来。
StopContinuousRecognitionAsync
構文: public inline virtual std::future< void > StopContinuousRecognitionAsync ( );
継続的な継続的な意図認識操作を非同期的に終了します。
収益
空の未来。
StartKeywordRecognitionAsync
構文: public inline virtual std::future< void > StartKeywordRecognitionAsync ( std::shared_ptr< KeywordRecognitionModel > model );
キーワード認識操作を非同期的に開始します。
パラメーター
-
model
使用するキーワード モデルを指定します。
収益
空の未来。
StopKeywordRecognitionAsync
構文: public inline virtual std::future< void > StopKeywordRecognitionAsync ( );
キーワード認識操作を非同期的に終了します。
収益
空の未来。
AddIntent
構文: public inline void AddIntent ( const std::string & simplePhrase );
特定のユーザーの意図を示す、ユーザーが話す可能性のある単純なフレーズを追加します。 この単純な語句は、中かっこで囲まれたパターンを含め、エンティティにすることができます。 "{checkboxName} チェック ボックスをクリックする" などです。
パラメーター
-
simplePhrase
意図に対応する語句。
認識されると、IntentRecognitionResult の IntentId プロパティは、ここで指定した simplePhrase と一致します。 エンティティが指定され、一致した場合は、IntentResult->GetEntities() 呼び出しで使用できます。
AddIntent
構文: public inline void AddIntent ( const std::string & simplePhrase , const std::string & intentId );
特定のユーザーの意図を示す、ユーザーが話す可能性のある単純なフレーズを追加します。 この単純な語句は、中かっこで囲まれたパターンを含め、エンティティにすることができます。 "{checkboxName} チェック ボックスをクリックする" などです。
パラメーター
simplePhrase
意図に対応する語句。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列です。
認識されると、結果の意図 ID はここで指定した ID と一致します。 エンティティが指定され、一致した場合は、IntentResult->GetEntities() 呼び出しで使用できます。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName );
指定した Language Understanding モデルから名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName は無視されます。
パラメーター
model
意図を含む言語理解モデル。intentName
言語理解モデルから含める 1 つの意図の名前。
認識されると、IntentRecognitionResult の IntentId プロパティには、ここで指定した intentName が含まれます。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName , const std::string & intentId );
指定した Language Understanding モデルから名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName と intentId は無視されます。
パラメーター
model
意図を含む言語理解モデル。intentName
言語理解モデルから含める 1 つの意図の名前。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列です。
AddAllIntents
構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model );
指定した Language Understanding モデルからすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。
パラメーター
-
model
意図を含む言語理解モデル。
認識されると、IntentRecognitionResult の IntentId プロパティには、認識された意図の名前が含まれます。
AddAllIntents
構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentId );
指定した Language Understanding モデルからすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。
パラメーター
model
意図を含む言語理解モデル。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID です。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< IntentTrigger > trigger , const std::string & intentId );
指定した IntentTrigger を追加します。
パラメーター
意図に対応する IntentTrigger を
trigger
します。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID です。
SetAuthorizationToken
構文: public inline void SetAuthorizationToken ( const std::string & token );
サービスへの接続に使用する承認トークンを設定します。 注: 呼び出し元は、承認トークンが有効であることを確認する必要があります。 承認トークンの有効期限が切れる前に、呼び出し元はこのセッターを新しい有効なトークンで呼び出して更新する必要があります。 そうしないと、認識中に認識エンジンでエラーが発生します。
パラメーター
-
token
承認トークンを表す文字列です。
GetAuthorizationToken
構文: public inline std::string GetAuthorizationToken ( );
承認トークンを取得します。
収益
承認トークン
ApplyLanguageModels
構文: public inline bool ApplyLanguageModels ( const std::vector< std::shared_ptr< LanguageUnderstandingModel > > & collection );
言語理解モデルのコレクションを取得し、それらのコピーを作成し、認識エンジンに適用します。 このアプリケーションは、言語理解モデルの種類に応じて異なる時間に発生します。 単純な言語モデルはほぼすぐにアクティブになりますが、LUIS を利用する言語理解モデルは次の音声ターンでアクティブになります。 これにより、以前に適用されたすべてのモデルが置き換えられます。
パラメーター
-
collection
LanguageUnderstandingModels への共有ポインターのベクトル。
収益
True の 場合、モデルの適用が直ちに有効になります。 それ以外の場合は false。
FromConfig
構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< SpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );
音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーは、この関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。
パラメーター
音声構成
speechConfig
します。オーディオ構成を
audioInput
します。
収益
意図認識エンジンのインスタンス。
FromConfig
構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< EmbeddedSpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );
埋め込まれた音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーは、この関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。 バージョン 1.19.0 で追加されました。
パラメーター
speechConfig
埋め込み音声構成。オーディオ構成を
audioInput
します。
収益
意図認識エンジンのインスタンス。
BaseType
構文: typedef BaseType;