KeywordTokenizer interface
Emite toda a entrada como um único token. Este tokenizador é implementado com o Apache Lucene.
Propriedades
max |
O comprimento máximo do token. A predefinição é 256. Os tokens com mais tempo do que o comprimento máximo são divididos. O comprimento máximo do token que pode ser utilizado é de 300 carateres. Valor predefinido: 256. |
name | O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres. |
odatatype | Discriminador Polimórfico |
Detalhes de Propriedade
maxTokenLength
O comprimento máximo do token. A predefinição é 256. Os tokens com mais tempo do que o comprimento máximo são divididos. O comprimento máximo do token que pode ser utilizado é de 300 carateres. Valor predefinido: 256.
maxTokenLength?: number
Valor de Propriedade
number
name
O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres.
name: string
Valor de Propriedade
string
odatatype
Discriminador Polimórfico
odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"
Valor de Propriedade
"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"