ClassicTokenizer interface
Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Esse tokenizer é implementado usando o Apache Lucene.
- Extends
Propriedades
max |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
odatatype | Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser |
Propriedades herdadas
name | O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
Detalhes da propriedade
maxTokenLength
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.
maxTokenLength?: number
Valor da propriedade
number
odatatype
Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Valor da propriedade
"#Microsoft.Azure.Search.ClassicTokenizer"
Detalhes das propriedades herdadas
name
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres.
name: string
Valor da propriedade
string
Herdado deBaseLexicalTokenizer.name