Indexes - Analyze
Mostra como um analisador divide o texto em tokens.
POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2024-07-01
Parâmetros do URI
Name | Em | Necessário | Tipo | Description |
---|---|---|---|---|
endpoint
|
path | True |
string |
A URL do ponto de extremidade do serviço de pesquisa. |
index
|
path | True |
string |
O nome do índice para o qual testar um analisador. |
api-version
|
query | True |
string |
Versão da API do cliente. |
Cabeçalho do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
x-ms-client-request-id |
string uuid |
O ID de rastreamento enviado com a solicitação para ajudar com a depuração. |
Corpo do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
text | True |
string |
O texto para dividir em tokens. |
analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
||
charFilters |
Uma lista opcional de filtros de caracteres para usar ao quebrar o texto determinado. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
tokenFilters |
Uma lista opcional de filtros de token para usar ao quebrar o texto fornecido. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
tokenizer |
O nome do tokenizador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
Respostas
Name | Tipo | Description |
---|---|---|
200 OK | ||
Other Status Codes |
Resposta de erro. |
Exemplos
SearchServiceIndexAnalyze
Pedido de amostra
POST https://myservice.search.windows.net/indexes('hotels')/search.analyze?api-version=2024-07-01
{
"text": "Text to analyze",
"analyzer": "standard.lucene"
}
Resposta da amostra
{
"tokens": [
{
"token": "text",
"startOffset": 0,
"endOffset": 4,
"position": 0
},
{
"token": "to",
"startOffset": 5,
"endOffset": 7,
"position": 1
},
{
"token": "analyze",
"startOffset": 8,
"endOffset": 15,
"position": 2
}
]
}
Definições
Name | Description |
---|---|
Analyzed |
Informações sobre um token retornado por um analisador. |
Analyze |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
Analyze |
O resultado do teste de um analisador em texto. |
Char |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. |
Error |
O erro de gerenciamento de recursos informações adicionais. |
Error |
O detalhe do erro. |
Error |
Resposta de erro |
Lexical |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
Lexical |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. |
Token |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. |
AnalyzedTokenInfo
Informações sobre um token retornado por um analisador.
Name | Tipo | Description |
---|---|---|
endOffset |
integer |
O índice do último caractere do token no texto de entrada. |
position |
integer |
A posição do token no texto de entrada em relação a outros tokens. O primeiro token no texto de entrada tem a posição 0, o próximo tem a posição 1 e assim por diante. Dependendo do analisador usado, alguns tokens podem ter a mesma posição, por exemplo, se forem sinônimos uns dos outros. |
startOffset |
integer |
O índice do primeiro caractere do token no texto de entrada. |
token |
string |
O token retornado pelo analisador. |
AnalyzeRequest
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.
Name | Tipo | Description |
---|---|---|
analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
|
charFilters |
Uma lista opcional de filtros de caracteres para usar ao quebrar o texto determinado. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
text |
string |
O texto para dividir em tokens. |
tokenFilters |
Uma lista opcional de filtros de token para usar ao quebrar o texto fornecido. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
tokenizer |
O nome do tokenizador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
AnalyzeResult
O resultado do teste de um analisador em texto.
Name | Tipo | Description |
---|---|---|
tokens |
A lista de tokens retornados pelo analisador especificado na solicitação. |
CharFilterName
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
html_strip |
string |
Um filtro de caracteres que tenta remover construções HTML. Visualizar https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
ErrorAdditionalInfo
O erro de gerenciamento de recursos informações adicionais.
Name | Tipo | Description |
---|---|---|
info |
object |
As informações adicionais. |
type |
string |
O tipo de informação adicional. |
ErrorDetail
O detalhe do erro.
Name | Tipo | Description |
---|---|---|
additionalInfo |
O erro informações adicionais. |
|
code |
string |
O código de erro. |
details |
Os detalhes do erro. |
|
message |
string |
A mensagem de erro. |
target |
string |
O destino do erro. |
ErrorResponse
Resposta de erro
Name | Tipo | Description |
---|---|---|
error |
O objeto de erro. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
ar.lucene |
string |
Analisador de Lucene para árabe. |
ar.microsoft |
string |
Microsoft analyzer para árabe. |
bg.lucene |
string |
Lucene analisador para búlgaro. |
bg.microsoft |
string |
Microsoft analyzer para búlgaro. |
bn.microsoft |
string |
Microsoft analyzer para Bangla. |
ca.lucene |
string |
Lucene analisador para catalão. |
ca.microsoft |
string |
Microsoft analyzer para catalão. |
cs.lucene |
string |
Lucene analisador para checo. |
cs.microsoft |
string |
Microsoft analyzer para checo. |
da.lucene |
string |
Lucene analisador para dinamarquês. |
da.microsoft |
string |
Microsoft analyzer para dinamarquês. |
de.lucene |
string |
Lucene analisador para alemão. |
de.microsoft |
string |
Microsoft analyzer para alemão. |
el.lucene |
string |
Analisador de Lucene para grego. |
el.microsoft |
string |
Microsoft analyzer para grego. |
en.lucene |
string |
Analisador Lucene para Inglês. |
en.microsoft |
string |
Microsoft analyzer para inglês. |
es.lucene |
string |
Analisador Lucene para espanhol. |
es.microsoft |
string |
Microsoft analyzer para espanhol. |
et.microsoft |
string |
Microsoft analyzer para estónio. |
eu.lucene |
string |
Analisador Lucene para basco. |
fa.lucene |
string |
Analisador de Lucene para persa. |
fi.lucene |
string |
Analisador de Lucene para finlandês. |
fi.microsoft |
string |
Microsoft analyzer para finlandês. |
fr.lucene |
string |
Analisador Lucene para francês. |
fr.microsoft |
string |
Microsoft analyzer para francês. |
ga.lucene |
string |
Lucene analisador para irlandês. |
gl.lucene |
string |
Lucene analisador para galego. |
gu.microsoft |
string |
Microsoft analyzer para Gujarati. |
he.microsoft |
string |
Microsoft analyzer para hebraico. |
hi.lucene |
string |
Analisador de Lucene para Hindi. |
hi.microsoft |
string |
Microsoft analyzer para Hindi. |
hr.microsoft |
string |
Microsoft analyzer para croata. |
hu.lucene |
string |
Lucene analisador para húngaro. |
hu.microsoft |
string |
Microsoft analyzer para húngaro. |
hy.lucene |
string |
Analisador de Lucene para arménio. |
id.lucene |
string |
Analisador de Lucene para indonésio. |
id.microsoft |
string |
Microsoft analyzer para indonésio (Bahasa). |
is.microsoft |
string |
Microsoft analyzer para islandês. |
it.lucene |
string |
Analisador Lucene para italiano. |
it.microsoft |
string |
Microsoft analyzer para italiano. |
ja.lucene |
string |
Analisador Lucene para japonês. |
ja.microsoft |
string |
Microsoft analyzer para japonês. |
keyword |
string |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
kn.microsoft |
string |
Microsoft analyzer para Kannada. |
ko.lucene |
string |
Analisador Lucene para coreano. |
ko.microsoft |
string |
Microsoft analyzer para coreano. |
lt.microsoft |
string |
Microsoft analyzer para lituano. |
lv.lucene |
string |
Analisador Lucene para letão. |
lv.microsoft |
string |
Microsoft analyzer para letão. |
ml.microsoft |
string |
Microsoft analyzer para Malayalam. |
mr.microsoft |
string |
Analisador Microsoft para Marathi. |
ms.microsoft |
string |
Microsoft analyzer para malaio (latim). |
nb.microsoft |
string |
Analisador Microsoft para norueguês (Bokmål). |
nl.lucene |
string |
Analisador Lucene para holandês. |
nl.microsoft |
string |
Microsoft analyzer para holandês. |
no.lucene |
string |
Analisador Lucene para norueguês. |
pa.microsoft |
string |
Microsoft analyzer para Punjabi. |
pattern |
string |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
pl.lucene |
string |
Analisador de Lucene para polaco. |
pl.microsoft |
string |
Microsoft analyzer para polonês. |
pt-BR.lucene |
string |
Analisador Lucene para Português (Brasil). |
pt-BR.microsoft |
string |
Microsoft analyzer para Português (Brasil). |
pt-PT.lucene |
string |
Analisador de Lucene para Português (Portugal). |
pt-PT.microsoft |
string |
Microsoft analyzer para Português (Portugal). |
ro.lucene |
string |
Lucene analisador para romeno. |
ro.microsoft |
string |
Microsoft analyzer para romeno. |
ru.lucene |
string |
Lucene analisador para russo. |
ru.microsoft |
string |
Microsoft analyzer para russo. |
simple |
string |
Divide o texto em letras não escritas e converte-as em minúsculas. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
sk.microsoft |
string |
Microsoft analyzer para eslovaco. |
sl.microsoft |
string |
Microsoft analyzer para esloveno. |
sr-cyrillic.microsoft |
string |
Microsoft analyzer para sérvio (cirílico). |
sr-latin.microsoft |
string |
Microsoft analyzer para sérvio (latim). |
standard.lucene |
string |
Analisador Lucene padrão. |
standardasciifolding.lucene |
string |
Analisador padrão ASCII Folding Lucene. Visualizar https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
stop |
string |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
sv.lucene |
string |
Lucene analisador para sueco. |
sv.microsoft |
string |
Microsoft analyzer para sueco. |
ta.microsoft |
string |
Microsoft analyzer para Tamil. |
te.microsoft |
string |
Microsoft analyzer para Telugu. |
th.lucene |
string |
Lucene analisador para tailandês. |
th.microsoft |
string |
Microsoft analyzer para tailandês. |
tr.lucene |
string |
Lucene analisador para turco. |
tr.microsoft |
string |
Microsoft analyzer para turco. |
uk.microsoft |
string |
Microsoft analyzer para ucraniano. |
ur.microsoft |
string |
Microsoft analyzer para Urdu. |
vi.microsoft |
string |
Microsoft analyzer para vietnamita. |
whitespace |
string |
Um analisador que usa o tokenizador de espaço em branco. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
zh-Hans.lucene |
string |
Analisador Lucene para chinês (simplificado). |
zh-Hans.microsoft |
string |
Microsoft analyzer para chinês (simplificado). |
zh-Hant.lucene |
string |
Analisador de Lucene para chinês (tradicional). |
zh-Hant.microsoft |
string |
Microsoft analyzer para chinês (tradicional). |
LexicalTokenizerName
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
classic |
string |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
edgeNGram |
string |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Visualizar https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
keyword_v2 |
string |
Emite toda a entrada como um único token. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
letter |
string |
Divide o texto em letras não-letras. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html |
lowercase |
string |
Divide o texto em letras não escritas e converte-as em minúsculas. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html |
microsoft_language_stemming_tokenizer |
string |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
microsoft_language_tokenizer |
string |
Divide o texto usando regras específicas do idioma. |
nGram |
string |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
path_hierarchy_v2 |
string |
Tokenizador para hierarquias semelhantes a caminhos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
pattern |
string |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
standard_v2 |
string |
Analisador padrão de Lucene; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
uax_url_email |
string |
Tokeniza urls e e-mails como um token. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
whitespace |
string |
Divide o texto no espaço em branco. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html |
TokenFilterName
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.