Apostrophe
|
Remove todos os caracteres após um apóstrofo (incluindo o próprio apóstrofo). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
|
ArabicNormalization
|
Um filtro de token que aplica o normalizador em árabe para normalizar a ortografia. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
|
AsciiFolding
|
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
|
CjkBigram
|
Forma bigrams de termos CJK gerados do criador de token padrão. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
|
CjkWidth
|
Normaliza as diferenças de largura CJK. Dobra as variantes ASCII de largura total no latim básico equivalente e variantes Katakana de meia largura no Kana equivalente. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
|
Classic
|
Remove possessivos em inglês e de acrônimos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
|
CommonGram
|
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
|
EdgeNGram
|
Gera n-gramas dos tamanhos fornecidos começando na frente ou na parte traseira de um token de entrada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
|
Elision
|
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
|
GermanNormalization
|
Normaliza caracteres alemães de acordo com a heurística do algoritmo alemão2 bola de neve. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
|
HindiNormalization
|
Normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
|
IndicNormalization
|
Normaliza a representação Unicode do texto nos idiomas indianos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
|
KeywordRepeat
|
Emite cada token de entrada duas vezes, uma vez como palavra-chave e uma vez como não palavra-chave. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
|
KStem
|
Um filtro kstem de alto desempenho para o inglês. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
|
Length
|
Remove palavras muito longas ou muito curtas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
|
Limit
|
Limita o número de tokens durante a indexação. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
|
Lowercase
|
Normaliza o texto do token para letras minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
|
NGram
|
Gera n-gramas de determinados tamanhos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
|
PersianNormalization
|
Aplica a normalização para persa. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
|
Phonetic
|
Crie tokens para correspondências fonéticas. Consulte https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
|
PorterStem
|
Usa o algoritmo de lematização Porter para transformar o fluxo de token. Consulte http://tartarus.org/~martin/PorterStemmer.
|
Reverse
|
Inverte a cadeia de caracteres do token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
|
ScandinavianFoldingNormalization
|
Dobra os caracteres escandinavos åÅäæÄÆ->a e öÖøØ->o. Também discrimina o uso de vogais duplas aa, ae, SOL, oe e oo, deixando apenas o primeiro deles. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
|
ScandinavianNormalization
|
Normaliza o uso de caracteres escandinavos intercambiáveis. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
|
Shingle
|
Cria combinações de tokens como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
|
Snowball
|
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
|
SoraniNormalization
|
Normaliza a representação Unicode de texto Sorani. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
|
Stemmer
|
Filtro de lematização específico da linguagem. Consulte https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
|
Stopwords
|
Remove palavras irrelevantes de um fluxo de tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
|
Trim
|
Corta o espaço em branco à esquerda e à direita de uma cadeia de tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
|
Truncate
|
Trunca os termos para um comprimento específico. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
|
Unique
|
Filtra os tokens com o mesmo texto como o token anterior. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
|
Uppercase
|
Normaliza o texto do token para letras maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
|
WordDelimiter
|
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras.
|