Indexes - Create Or Update
Cria um novo índice de pesquisa ou atualiza um índice, se ele já existir.
PUT {endpoint}/indexes('{indexName}')?api-version=2024-07-01
PUT {endpoint}/indexes('{indexName}')?allowIndexDowntime={allowIndexDowntime}&api-version=2024-07-01
Parâmetros do URI
Name | Em | Necessário | Tipo | Description |
---|---|---|---|---|
endpoint
|
path | True |
string |
A URL do ponto de extremidade do serviço de pesquisa. |
index
|
path | True |
string |
A definição do índice a ser criado ou atualizado. |
api-version
|
query | True |
string |
Versão da API do cliente. |
allow
|
query |
boolean |
Permite que novos analisadores, tokenizadores, filtros de token ou filtros char sejam adicionados a um índice colocando o índice offline por pelo menos alguns segundos. Isso faz com que temporariamente a indexação e as solicitações de consulta falhem. O desempenho e a disponibilidade de gravação do índice podem ser prejudicados por vários minutos após a atualização do índice, ou por mais tempo para índices muito grandes. |
Cabeçalho do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
x-ms-client-request-id |
string uuid |
O ID de rastreamento enviado com a solicitação para ajudar com a depuração. |
|
If-Match |
string |
Define a condição If-Match. A operação será executada somente se o ETag no servidor corresponder a esse valor. |
|
If-None-Match |
string |
Define a condição If-None-Match. A operação será executada somente se o ETag no servidor não corresponder a esse valor. |
|
Prefer | True |
string |
Para solicitações HTTP PUT, instrui o serviço a retornar o recurso criado/atualizado com êxito. |
Corpo do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
fields | True |
Os campos do índice. |
|
name | True |
string |
O nome do índice. |
@odata.etag |
string |
O ETag do índice. |
|
analyzers | LexicalAnalyzer[]: |
Os analisadores para o índice. |
|
charFilters | CharFilter[]: |
Os filtros de caracteres para o índice. |
|
corsOptions |
Opções para controlar o Cross-Origin Resource Sharing (CORS) para o índice. |
||
defaultScoringProfile |
string |
O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada. |
|
encryptionKey |
Uma descrição de uma chave de criptografia que você cria no Cofre de Chaves do Azure. Essa chave é usada para fornecer um nível adicional de criptografia em repouso para seus dados quando você quiser garantia total de que ninguém, nem mesmo a Microsoft, pode descriptografar seus dados. Depois de ter encriptado os seus dados, estes permanecerão sempre encriptados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como null. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Os seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados em ou após 1º de janeiro de 2019. |
||
scoringProfiles |
Os perfis de pontuação para o índice. |
||
semantic |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
||
similarity | Similarity: |
O tipo de algoritmo de semelhança a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de semelhança só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se null, o algoritmo ClassicSimilarity é usado. |
|
suggesters |
As sugestões para o índice. |
||
tokenFilters |
TokenFilter[]:
|
O token filtra o índice. |
|
tokenizers | LexicalTokenizer[]: |
Os tokenizadores para o índice. |
|
vectorSearch |
Contém opções de configuração relacionadas à pesquisa vetorial. |
Respostas
Name | Tipo | Description |
---|---|---|
200 OK | ||
201 Created | ||
Other Status Codes |
Resposta de erro. |
Exemplos
SearchServiceCreateOrUpdateIndex
Pedido de amostra
PUT https://myservice.search.windows.net/indexes('hotels')?allowIndexDowntime=False&api-version=2024-07-01
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"key": true,
"searchable": false
},
{
"name": "baseRate",
"type": "Edm.Double"
},
{
"name": "description",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile",
"searchable": true,
"retrievable": true
},
{
"name": "description_fr",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false,
"analyzer": "fr.lucene"
},
{
"name": "hotelName",
"type": "Edm.String"
},
{
"name": "category",
"type": "Edm.String"
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"analyzer": "tagsAnalyzer"
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean"
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean"
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset"
},
{
"name": "rating",
"type": "Edm.Int32"
},
{
"name": "location",
"type": "Edm.GeographyPoint"
}
],
"scoringProfiles": [
{
"name": "geo",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": null
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw"
},
{
"name": "myAlgorithm",
"algorithm": "myExhaustive"
}
],
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"m": 4,
"metric": "cosine"
}
},
{
"name": "myExhaustive",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
]
}
}
Resposta da amostra
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "baseRate",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile",
"synonymMaps": []
},
{
"name": "description_fr",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "fr.lucene",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "hotelName",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": false,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "tagsAnalyzer",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "rating",
"type": "Edm.Int32",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "location",
"type": "Edm.GeographyPoint",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "geo",
"functionAggregation": "sum",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"tokenizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": null
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "myExhaustive",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw"
},
{
"name": "myAlgorithm",
"algorithm": "myExhaustive"
}
]
}
}
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "baseRate",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile",
"synonymMaps": []
},
{
"name": "description_fr",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "fr.lucene",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "hotelName",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": false,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "tagsAnalyzer",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "rating",
"type": "Edm.Int32",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "location",
"type": "Edm.GeographyPoint",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "geo",
"functionAggregation": "sum",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"tokenizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": null
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "myExhaustive",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw"
},
{
"name": "myAlgorithm",
"algorithm": "myExhaustive"
}
]
}
}
Definições
Name | Description |
---|---|
Ascii |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene. |
Azure |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Cofre de Chaves do Azure. |
Azure |
Permite gerar uma incorporação vetorial para uma determinada entrada de texto usando o recurso Azure OpenAI. |
Azure |
O nome do modelo de IA aberta do Azure que será chamado. |
Azure |
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure. |
Azure |
Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta. |
Binary |
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta. |
BM25Similarity |
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
Char |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. |
Cjk |
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene. |
Cjk |
Scripts que podem ser ignorados por CjkBigramTokenFilter. |
Classic |
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
Classic |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene. |
Common |
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene. |
Cors |
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice. |
Custom |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador. |
Dictionary |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene. |
Distance |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
Distance |
Fornece valores de parâmetros para uma função de pontuação de distância. |
Edge |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
Edge |
Especifica de que lado da entrada um n-grama deve ser gerado. |
Edge |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
Edge |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene. |
Elision |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene. |
Error |
O erro de gerenciamento de recursos informações adicionais. |
Error |
O detalhe do erro. |
Error |
Resposta de erro |
Exhaustive |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
Exhaustive |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial. |
Freshness |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
Freshness |
Fornece valores de parâmetro para uma função de pontuação de frescor. |
Hnsw |
Contém os parâmetros específicos para o algoritmo HNSW. |
Hnsw |
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa. |
Input |
Mapeamento de campo de entrada para uma habilidade. |
Keep |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene. |
Keyword |
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene. |
Keyword |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
Keyword |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
Length |
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene. |
Lexical |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
Lexical |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. |
Limit |
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene. |
Lucene |
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. |
Lucene |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
Lucene |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
Magnitude |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
Magnitude |
Fornece valores de parâmetros para uma função de pontuação de magnitude. |
Mapping |
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência de padrão mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene. |
Microsoft |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
Microsoft |
Divide o texto usando regras específicas do idioma. |
Microsoft |
Lista os idiomas suportados pelo tokenizador de derivação de idioma da Microsoft. |
Microsoft |
Lista os idiomas suportados pelo tokenizador de idiomas da Microsoft. |
NGram |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
NGram |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
NGram |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene. |
Output |
Mapeamento de campo de saída para uma habilidade. |
Path |
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene. |
Pattern |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene. |
Pattern |
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene. |
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene. |
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene. |
Pattern |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene. |
Phonetic |
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter. |
Phonetic |
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene. |
Prioritized |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas. |
Regex |
Define sinalizadores que podem ser combinados para controlar como expressões regulares são usadas no analisador de padrões e no tokenizador de padrões. |
Scalar |
Contém os parâmetros específicos da Quantização Escalar. |
Scalar |
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta. |
Scoring |
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação. |
Scoring |
Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos. |
Scoring |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
Search |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
Search |
Define o tipo de dados de um campo em um índice de pesquisa. |
Search |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
Search |
Limpa a propriedade identity de uma fonte de dados. |
Search |
Especifica a identidade a ser usada por uma fonte de dados. |
Search |
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos. |
Semantic |
Define uma configuração específica a ser usada no contexto de recursos semânticos. |
Semantic |
Um campo que é usado como parte da configuração semântica. |
Semantic |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
Shingle |
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene. |
Snowball |
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene. |
Snowball |
O idioma a ser usado para um filtro de token do Snowball. |
Stemmer |
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. |
Stemmer |
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. |
Stemmer |
A linguagem a ser usada para um filtro de token de lematizador. |
Stop |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene. |
Stopwords |
Identifica uma lista predefinida de palavras paradas específicas do idioma. |
Stopwords |
Remove palavras de parada de um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
Suggester |
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice. |
Suggester |
Um valor que indica as capacidades do sugestionador. |
Synonym |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
Tag |
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags. |
Tag |
Fornece valores de parâmetro para uma função de pontuação de tag. |
Text |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
Token |
Representa classes de caracteres nas quais um filtro de token pode operar. |
Token |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. |
Truncate |
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene. |
Uax |
Tokeniza urls e e-mails como um token. Este tokenizador é implementado usando Apache Lucene. |
Unique |
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene. |
Vector |
O formato de codificação para interpretar o conteúdo do campo vetorial. |
Vector |
Contém opções de configuração relacionadas à pesquisa vetorial. |
Vector |
O algoritmo usado para indexação e consulta. |
Vector |
A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado. |
Vector |
O método de compactação usado para indexação e consulta. |
Vector |
O tipo de dados quantizados de valores vetoriais compactados. |
Vector |
Define uma combinação de configurações a serem usadas com a pesquisa vetorial. |
Vector |
O método de vetorização a ser usado durante o tempo de consulta. |
Web |
Especifica as propriedades para conexão a um vetorizador definido pelo usuário. |
Web |
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades. |
Word |
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene. |
AsciiFoldingTokenFilter
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
preserveOriginal |
boolean |
False |
Um valor que indica se o token original será mantido. O padrão é false. |
AzureActiveDirectoryApplicationCredentials
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Cofre de Chaves do Azure.
Name | Tipo | Description |
---|---|---|
applicationId |
string |
Uma ID de Aplicativo AAD que recebeu as permissões de acesso necessárias ao Cofre da Chave do Azure que deve ser usada ao criptografar seus dados em repouso. A ID do aplicativo não deve ser confundida com a ID do objeto do seu aplicativo AAD. |
applicationSecret |
string |
A chave de autenticação do aplicativo AAD especificado. |
AzureOpenAIEmbeddingSkill
Permite gerar uma incorporação vetorial para uma determinada entrada de texto usando o recurso Azure OpenAI.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de habilidade. |
apiKey |
string |
Chave de API do recurso OpenAI do Azure designado. |
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. |
context |
string |
Representa o nível no qual as operações ocorrem, como a raiz do documento ou o conteúdo do documento (por exemplo, /document ou /document/content). O padrão é /document. |
deploymentId |
string |
ID da implantação do modelo OpenAI do Azure no recurso designado. |
description |
string |
A descrição da habilidade que descreve as entradas, saídas e uso da habilidade. |
dimensions |
integer |
O número de dimensões que as incorporações de saída resultantes devem ter. Suportado apenas em text-embedding-3 e modelos posteriores. |
inputs |
As entradas das habilidades podem ser uma coluna no conjunto de dados de origem ou a saída de uma habilidade a montante. |
|
modelName |
O nome do modelo de incorporação implantado no caminho deploymentId fornecido. |
|
name |
string |
O nome da habilidade que a identifica exclusivamente dentro do conjunto de habilidades. Uma habilidade sem nome definido receberá um nome padrão de seu índice baseado em 1 na matriz de habilidades, prefixada com o caractere '#'. |
outputs |
A saída de uma habilidade é um campo em um índice de pesquisa ou um valor que pode ser consumido como uma entrada por outra habilidade. |
|
resourceUri |
string |
O URI do recurso Azure OpenAI. |
AzureOpenAIModelName
O nome do modelo de IA aberta do Azure que será chamado.
Name | Tipo | Description |
---|---|---|
text-embedding-3-large |
string |
|
text-embedding-3-small |
string |
|
text-embedding-ada-002 |
string |
AzureOpenAIParameters
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.
Name | Tipo | Description |
---|---|---|
apiKey |
string |
Chave de API do recurso OpenAI do Azure designado. |
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. |
deploymentId |
string |
ID da implantação do modelo OpenAI do Azure no recurso designado. |
modelName |
O nome do modelo de incorporação implantado no caminho deploymentId fornecido. |
|
resourceUri |
string |
O URI do recurso Azure OpenAI. |
AzureOpenAIVectorizer
Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta.
Name | Tipo | Description |
---|---|---|
azureOpenAIParameters | AzureOpenAIParameters: |
Contém os parâmetros específicos para a vetorização de incorporação do Azure OpenAI. |
kind |
string:
azure |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa vetorial. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
BinaryQuantizationVectorSearchCompressionConfiguration
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta.
Name | Tipo | Default value | Description |
---|---|---|---|
defaultOversampling |
number |
Fator de sobreamostragem padrão. A sobreamostragem solicitará internamente mais documentos (especificados por este multiplicador) na pesquisa inicial. Isso aumenta o conjunto de resultados que serão reclassificados usando pontuações de similaridade recalculadas de vetores de precisão total. O valor mínimo é 1, o que significa que não há sobreamostragem (1x). Este parâmetro só pode ser definido quando rerankWithOriginalVectors é true. Valores mais altos melhoram a recuperação em detrimento da latência. |
|
kind |
string:
binary |
O nome do tipo de método de compactação que está sendo configurado para uso com pesquisa vetorial. |
|
name |
string |
O nome a ser associado a essa configuração específica. |
|
rerankWithOriginalVectors |
boolean |
True |
Se definido como true, uma vez obtido o conjunto ordenado de resultados calculados usando vetores compactados, eles serão reclassificados novamente recalculando as pontuações de similaridade de precisão total. Isso melhorará a recuperação em detrimento da latência. |
BM25Similarity
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
|
b |
number |
Esta propriedade controla como o comprimento de um documento afeta a pontuação de relevância. Por padrão, um valor de 0,75 é usado. Um valor de 0,0 significa que nenhuma normalização de comprimento é aplicada, enquanto um valor de 1,0 significa que a pontuação é totalmente normalizada pelo comprimento do documento. |
k1 |
number |
Esta propriedade controla a função de dimensionamento entre a frequência de termo de cada termo correspondente e a pontuação de relevância final de um par documento-consulta. Por padrão, um valor de 1,2 é usado. Um valor de 0,0 significa que a pontuação não escala com um aumento na frequência de termo. |
CharFilterName
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
html_strip |
string |
Um filtro de caracteres que tenta remover construções HTML. Visualizar https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
ignoreScripts |
Os scripts a serem ignorados. |
||
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
outputUnigrams |
boolean |
False |
Um valor que indica se os unigramas e bigramas devem ser produzidos (se verdadeiro) ou apenas bigramas (se falso). O padrão é false. |
CjkBigramTokenFilterScripts
Scripts que podem ser ignorados por CjkBigramTokenFilter.
Name | Tipo | Description |
---|---|---|
han |
string |
Ignore o script Han ao formar bigramas de termos CJK. |
hangul |
string |
Ignore o script Hangul ao formar bigramas de termos CJK. |
hiragana |
string |
Ignore o script Hiragana ao formar bigramas de termos CJK. |
katakana |
string |
Ignore o script Katakana ao formar bigramas de termos CJK. |
ClassicSimilarity
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ClassicTokenizer
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
CommonGramTokenFilter
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
commonWords |
string[] |
O conjunto de palavras comuns. |
|
ignoreCase |
boolean |
False |
Um valor que indica se a correspondência de palavras comuns não diferenciará maiúsculas de minúsculas. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
queryMode |
boolean |
False |
Um valor que indica se o filtro de token está no modo de consulta. Quando no modo de consulta, o filtro de token gera bigramas e, em seguida, remove palavras comuns e termos únicos seguidos por uma palavra comum. O padrão é false. |
CorsOptions
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice.
Name | Tipo | Description |
---|---|---|
allowedOrigins |
string[] |
A lista de origens a partir das quais o código JavaScript terá acesso ao seu índice. Pode conter uma lista de hosts do formato {protocol}://{fully-qualified-domain-name}[:{port#}], ou um único '*' para permitir todas as origens (não recomendado). |
maxAgeInSeconds |
integer |
A duração durante a qual os navegadores devem armazenar em cache as respostas de comprovação do CORS. O padrão é 5 minutos. |
CustomAnalyzer
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de analisador. |
charFilters |
Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado pelo tokenizador. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados. |
|
name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
tokenFilters |
Uma lista de filtros de token usados para filtrar ou modificar os tokens gerados por um tokenizador. Por exemplo, você pode especificar um filtro minúsculo que converta todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados. |
|
tokenizer |
O nome do tokenizador a ser usado para dividir o texto contínuo em uma sequência de tokens, como quebrar uma frase em palavras. |
DictionaryDecompounderTokenFilter
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
maxSubwordSize |
integer |
15 |
O tamanho máximo da subpalavra. Apenas subpalavras mais curtas do que isso são produzidas. O padrão é 15. O máximo é de 300. |
minSubwordSize |
integer |
2 |
O tamanho mínimo da subpalavra. Apenas subpalavras maiores do que isso são produzidas. O padrão é 2. O máximo é de 300. |
minWordSize |
integer |
5 |
O tamanho mínimo da palavra. Apenas palavras mais longas do que isso são processadas. O padrão é 5. O máximo é de 300. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
onlyLongestMatch |
boolean |
False |
Um valor que indica se apenas a subpalavra correspondente mais longa deve ser adicionada à saída. O padrão é false. |
wordList |
string[] |
A lista de palavras contra as quais corresponder. |
DistanceScoringFunction
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.
Name | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
distance |
Valores de parâmetros para a função de pontuação de distância. |
|
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
type |
string:
distance |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, frescor, distância e etiqueta. O tipo de função deve ser minúsculo. |
DistanceScoringParameters
Fornece valores de parâmetros para uma função de pontuação de distância.
Name | Tipo | Description |
---|---|---|
boostingDistance |
number |
A distância em quilómetros do local de referência onde termina o alcance de reforço. |
referencePointParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar o local de referência. |
EdgeNGramTokenFilter
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
side | front |
Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal". |
EdgeNGramTokenFilterSide
Especifica de que lado da entrada um n-grama deve ser gerado.
Name | Tipo | Description |
---|---|---|
back |
string |
Especifica que o n-grama deve ser gerado a partir da parte traseira da entrada. |
front |
string |
Especifica que o n-grama deve ser gerado a partir da frente da entrada. |
EdgeNGramTokenFilterV2
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
side | front |
Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal". |
EdgeNGramTokenizer
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
tokenChars |
Classes de caracteres para manter nos tokens. |
ElisionTokenFilter
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
articles |
string[] |
O conjunto de artigos a remover. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
ErrorAdditionalInfo
O erro de gerenciamento de recursos informações adicionais.
Name | Tipo | Description |
---|---|---|
info |
object |
As informações adicionais. |
type |
string |
O tipo de informação adicional. |
ErrorDetail
O detalhe do erro.
Name | Tipo | Description |
---|---|---|
additionalInfo |
O erro informações adicionais. |
|
code |
string |
O código de erro. |
details |
Os detalhes do erro. |
|
message |
string |
A mensagem de erro. |
target |
string |
O destino do erro. |
ErrorResponse
Resposta de erro
Name | Tipo | Description |
---|---|---|
error |
O objeto de erro. |
ExhaustiveKnnParameters
Contém os parâmetros específicos para o algoritmo KNN exaustivo.
Name | Tipo | Description |
---|---|---|
metric |
A métrica de semelhança a ser usada para comparações vetoriais. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.
Name | Tipo | Description |
---|---|---|
exhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
|
kind |
string:
exhaustive |
O nome do tipo de algoritmo que está sendo configurado para uso com pesquisa vetorial. |
name |
string |
O nome a ser associado a essa configuração específica. |
FreshnessScoringFunction
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.
Name | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
freshness |
Valores de parâmetros para a função de pontuação de frescor. |
|
interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
type |
string:
freshness |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, frescor, distância e etiqueta. O tipo de função deve ser minúsculo. |
FreshnessScoringParameters
Fornece valores de parâmetro para uma função de pontuação de frescor.
Name | Tipo | Description |
---|---|---|
boostingDuration |
string |
O período de expiração após o qual o impulsionamento será interrompido para um documento específico. |
HnswParameters
Contém os parâmetros específicos para o algoritmo HNSW.
Name | Tipo | Default value | Description |
---|---|---|---|
efConstruction |
integer |
400 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de índice. O aumento deste parâmetro pode melhorar a qualidade do índice, em detrimento do aumento do tempo de indexação. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos. |
efSearch |
integer |
500 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de pesquisa. Aumentar este parâmetro pode melhorar os resultados da pesquisa, em detrimento de uma pesquisa mais lenta. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos. |
m |
integer |
4 |
O número de ligações bidirecionais criadas para cada novo elemento durante a construção. Aumentar esse valor de parâmetro pode melhorar a recuperação e reduzir os tempos de recuperação para conjuntos de dados com alta dimensionalidade intrínseca às custas do aumento do consumo de memória e do tempo de indexação mais longo. |
metric |
A métrica de semelhança a ser usada para comparações vetoriais. |
HnswVectorSearchAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa.
Name | Tipo | Description |
---|---|---|
hnswParameters |
Contém os parâmetros específicos do algoritmo HNSW. |
|
kind |
string:
hnsw |
O nome do tipo de algoritmo que está sendo configurado para uso com pesquisa vetorial. |
name |
string |
O nome a ser associado a essa configuração específica. |
InputFieldMappingEntry
Mapeamento de campo de entrada para uma habilidade.
Name | Tipo | Description |
---|---|---|
inputs |
As entradas recursivas usadas ao criar um tipo complexo. |
|
name |
string |
O nome da entrada. |
source |
string |
A fonte da entrada. |
sourceContext |
string |
O contexto de origem usado para selecionar entradas recursivas. |
KeepTokenFilter
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
keepWords |
string[] |
A lista de palavras a manter. |
|
keepWordsCase |
boolean |
False |
Um valor que indica se todas as palavras devem ser minúsculas primeiro. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordMarkerTokenFilter
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
ignoreCase |
boolean |
False |
Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O padrão é false. |
keywords |
string[] |
Uma lista de palavras para marcar como palavras-chave. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizer
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
bufferSize |
integer |
256 |
O tamanho do buffer de leitura em bytes. O padrão é 256. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizerV2
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxTokenLength |
integer |
256 |
O comprimento máximo do token. O padrão é 256. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LengthTokenFilter
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
max |
integer |
300 |
O comprimento máximo em caracteres. O padrão e máximo é 300. |
min |
integer |
0 |
O comprimento mínimo em caracteres. O padrão é 0. O máximo é de 300. Deve ser menor que o valor de max. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
ar.lucene |
string |
Analisador de Lucene para árabe. |
ar.microsoft |
string |
Microsoft analyzer para árabe. |
bg.lucene |
string |
Lucene analisador para búlgaro. |
bg.microsoft |
string |
Microsoft analyzer para búlgaro. |
bn.microsoft |
string |
Microsoft analyzer para Bangla. |
ca.lucene |
string |
Lucene analisador para catalão. |
ca.microsoft |
string |
Microsoft analyzer para catalão. |
cs.lucene |
string |
Lucene analisador para checo. |
cs.microsoft |
string |
Microsoft analyzer para checo. |
da.lucene |
string |
Lucene analisador para dinamarquês. |
da.microsoft |
string |
Microsoft analyzer para dinamarquês. |
de.lucene |
string |
Lucene analisador para alemão. |
de.microsoft |
string |
Microsoft analyzer para alemão. |
el.lucene |
string |
Analisador de Lucene para grego. |
el.microsoft |
string |
Microsoft analyzer para grego. |
en.lucene |
string |
Analisador Lucene para Inglês. |
en.microsoft |
string |
Microsoft analyzer para inglês. |
es.lucene |
string |
Analisador Lucene para espanhol. |
es.microsoft |
string |
Microsoft analyzer para espanhol. |
et.microsoft |
string |
Microsoft analyzer para estónio. |
eu.lucene |
string |
Analisador Lucene para basco. |
fa.lucene |
string |
Analisador de Lucene para persa. |
fi.lucene |
string |
Analisador de Lucene para finlandês. |
fi.microsoft |
string |
Microsoft analyzer para finlandês. |
fr.lucene |
string |
Analisador Lucene para francês. |
fr.microsoft |
string |
Microsoft analyzer para francês. |
ga.lucene |
string |
Lucene analisador para irlandês. |
gl.lucene |
string |
Lucene analisador para galego. |
gu.microsoft |
string |
Microsoft analyzer para Gujarati. |
he.microsoft |
string |
Microsoft analyzer para hebraico. |
hi.lucene |
string |
Analisador de Lucene para Hindi. |
hi.microsoft |
string |
Microsoft analyzer para Hindi. |
hr.microsoft |
string |
Microsoft analyzer para croata. |
hu.lucene |
string |
Lucene analisador para húngaro. |
hu.microsoft |
string |
Microsoft analyzer para húngaro. |
hy.lucene |
string |
Analisador de Lucene para arménio. |
id.lucene |
string |
Analisador de Lucene para indonésio. |
id.microsoft |
string |
Microsoft analyzer para indonésio (Bahasa). |
is.microsoft |
string |
Microsoft analyzer para islandês. |
it.lucene |
string |
Analisador Lucene para italiano. |
it.microsoft |
string |
Microsoft analyzer para italiano. |
ja.lucene |
string |
Analisador Lucene para japonês. |
ja.microsoft |
string |
Microsoft analyzer para japonês. |
keyword |
string |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
kn.microsoft |
string |
Microsoft analyzer para Kannada. |
ko.lucene |
string |
Analisador Lucene para coreano. |
ko.microsoft |
string |
Microsoft analyzer para coreano. |
lt.microsoft |
string |
Microsoft analyzer para lituano. |
lv.lucene |
string |
Analisador Lucene para letão. |
lv.microsoft |
string |
Microsoft analyzer para letão. |
ml.microsoft |
string |
Microsoft analyzer para Malayalam. |
mr.microsoft |
string |
Analisador Microsoft para Marathi. |
ms.microsoft |
string |
Microsoft analyzer para malaio (latim). |
nb.microsoft |
string |
Analisador Microsoft para norueguês (Bokmål). |
nl.lucene |
string |
Analisador Lucene para holandês. |
nl.microsoft |
string |
Microsoft analyzer para holandês. |
no.lucene |
string |
Analisador Lucene para norueguês. |
pa.microsoft |
string |
Microsoft analyzer para Punjabi. |
pattern |
string |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
pl.lucene |
string |
Analisador de Lucene para polaco. |
pl.microsoft |
string |
Microsoft analyzer para polonês. |
pt-BR.lucene |
string |
Analisador Lucene para Português (Brasil). |
pt-BR.microsoft |
string |
Microsoft analyzer para Português (Brasil). |
pt-PT.lucene |
string |
Analisador de Lucene para Português (Portugal). |
pt-PT.microsoft |
string |
Microsoft analyzer para Português (Portugal). |
ro.lucene |
string |
Lucene analisador para romeno. |
ro.microsoft |
string |
Microsoft analyzer para romeno. |
ru.lucene |
string |
Lucene analisador para russo. |
ru.microsoft |
string |
Microsoft analyzer para russo. |
simple |
string |
Divide o texto em letras não escritas e converte-as em minúsculas. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
sk.microsoft |
string |
Microsoft analyzer para eslovaco. |
sl.microsoft |
string |
Microsoft analyzer para esloveno. |
sr-cyrillic.microsoft |
string |
Microsoft analyzer para sérvio (cirílico). |
sr-latin.microsoft |
string |
Microsoft analyzer para sérvio (latim). |
standard.lucene |
string |
Analisador Lucene padrão. |
standardasciifolding.lucene |
string |
Analisador padrão ASCII Folding Lucene. Visualizar https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
stop |
string |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
sv.lucene |
string |
Lucene analisador para sueco. |
sv.microsoft |
string |
Microsoft analyzer para sueco. |
ta.microsoft |
string |
Microsoft analyzer para Tamil. |
te.microsoft |
string |
Microsoft analyzer para Telugu. |
th.lucene |
string |
Lucene analisador para tailandês. |
th.microsoft |
string |
Microsoft analyzer para tailandês. |
tr.lucene |
string |
Lucene analisador para turco. |
tr.microsoft |
string |
Microsoft analyzer para turco. |
uk.microsoft |
string |
Microsoft analyzer para ucraniano. |
ur.microsoft |
string |
Microsoft analyzer para Urdu. |
vi.microsoft |
string |
Microsoft analyzer para vietnamita. |
whitespace |
string |
Um analisador que usa o tokenizador de espaço em branco. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
zh-Hans.lucene |
string |
Analisador Lucene para chinês (simplificado). |
zh-Hans.microsoft |
string |
Microsoft analyzer para chinês (simplificado). |
zh-Hant.lucene |
string |
Analisador de Lucene para chinês (tradicional). |
zh-Hant.microsoft |
string |
Microsoft analyzer para chinês (tradicional). |
LexicalTokenizerName
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
Name | Tipo | Description |
---|---|---|
classic |
string |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
edgeNGram |
string |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Visualizar https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
keyword_v2 |
string |
Emite toda a entrada como um único token. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
letter |
string |
Divide o texto em letras não-letras. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html |
lowercase |
string |
Divide o texto em letras não escritas e converte-as em minúsculas. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html |
microsoft_language_stemming_tokenizer |
string |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
microsoft_language_tokenizer |
string |
Divide o texto usando regras específicas do idioma. |
nGram |
string |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
path_hierarchy_v2 |
string |
Tokenizador para hierarquias semelhantes a caminhos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
pattern |
string |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
standard_v2 |
string |
Analisador padrão de Lucene; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
uax_url_email |
string |
Tokeniza urls e e-mails como um token. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
whitespace |
string |
Divide o texto no espaço em branco. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html |
LimitTokenFilter
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
consumeAllTokens |
boolean |
False |
Um valor que indica se todos os tokens da entrada devem ser consumidos, mesmo que maxTokenCount seja atingido. O padrão é false. |
maxTokenCount |
integer |
1 |
O número máximo de tokens a produzir. O padrão é 1. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardAnalyzer
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de analisador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
stopwords |
string[] |
Uma lista de palavras-chave. |
LuceneStandardTokenizer
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardTokenizerV2
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MagnitudeScoringFunction
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.
Name | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
magnitude |
Valores de parâmetros para a função de pontuação de magnitude. |
|
type |
string:
magnitude |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, frescor, distância e etiqueta. O tipo de função deve ser minúsculo. |
MagnitudeScoringParameters
Fornece valores de parâmetros para uma função de pontuação de magnitude.
Name | Tipo | Description |
---|---|---|
boostingRangeEnd |
number |
O valor de campo no qual o impulsionamento termina. |
boostingRangeStart |
number |
O valor do campo no qual o impulsionamento começa. |
constantBoostBeyondRange |
boolean |
Um valor que indica se deve ser aplicado um impulso constante para valores de campo além do valor final do intervalo; O padrão é false. |
MappingCharFilter
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência de padrão mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro char. |
mappings |
string[] |
Uma lista de mapeamentos do seguinte formato: "a=>b" (todas as ocorrências do caractere "a" serão substituídas pelo caractere "b"). |
name |
string |
O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageStemmingTokenizer
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false. |
language |
A língua a utilizar. O padrão é inglês. |
||
maxTokenLength |
integer |
255 |
O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageTokenizer
Divide o texto usando regras específicas do idioma.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false. |
language |
A língua a utilizar. O padrão é inglês. |
||
maxTokenLength |
integer |
255 |
O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftStemmingTokenizerLanguage
Lista os idiomas suportados pelo tokenizador de derivação de idioma da Microsoft.
Name | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona o tokenizador de derivação da Microsoft para árabe. |
bangla |
string |
Seleciona o tokenizador de derivação da Microsoft para Bangla. |
bulgarian |
string |
Seleciona o tokenizador de derivação da Microsoft para búlgaro. |
catalan |
string |
Seleciona o tokenizador de derivação da Microsoft para catalão. |
croatian |
string |
Seleciona o tokenizador de derivação da Microsoft para croata. |
czech |
string |
Seleciona o tokenizador de derivação da Microsoft para tcheco. |
danish |
string |
Seleciona o tokenizador de derivação da Microsoft para dinamarquês. |
dutch |
string |
Seleciona o tokenizador de derivação da Microsoft para holandês. |
english |
string |
Seleciona o tokenizador de derivação da Microsoft para inglês. |
estonian |
string |
Seleciona o tokenizador de derivação da Microsoft para estoniano. |
finnish |
string |
Seleciona o tokenizador de derivação da Microsoft para finlandês. |
french |
string |
Seleciona o tokenizador de derivação da Microsoft para francês. |
german |
string |
Seleciona o tokenizador de derivação da Microsoft para alemão. |
greek |
string |
Seleciona o tokenizador de derivação da Microsoft para grego. |
gujarati |
string |
Seleciona o tokenizador de derivação da Microsoft para Gujarati. |
hebrew |
string |
Seleciona o tokenizador de derivação da Microsoft para hebraico. |
hindi |
string |
Seleciona o tokenizador de derivação da Microsoft para Hindi. |
hungarian |
string |
Seleciona o tokenizador de derivação da Microsoft para húngaro. |
icelandic |
string |
Seleciona o tokenizador de derivação da Microsoft para islandês. |
indonesian |
string |
Seleciona o tokenizador de derivação da Microsoft para indonésio. |
italian |
string |
Seleciona o tokenizador de derivação da Microsoft para italiano. |
kannada |
string |
Seleciona o tokenizador de derivação da Microsoft para Kannada. |
latvian |
string |
Seleciona o tokenizador de derivação da Microsoft para letão. |
lithuanian |
string |
Seleciona o tokenizador de derivação da Microsoft para lituano. |
malay |
string |
Seleciona o tokenizador de derivação da Microsoft para malaio. |
malayalam |
string |
Seleciona o tokenizador de derivação da Microsoft para Malayalam. |
marathi |
string |
Seleciona o tokenizador de derivação da Microsoft para Marathi. |
norwegianBokmaal |
string |
Seleciona o tokenizador de derivação da Microsoft para norueguês (Bokmål). |
polish |
string |
Seleciona o tokenizador de derivação da Microsoft para polonês. |
portuguese |
string |
Seleciona o tokenizador de derivação da Microsoft para português. |
portugueseBrazilian |
string |
Seleciona o tokenizador de derivação da Microsoft para português (Brasil). |
punjabi |
string |
Seleciona o tokenizador de derivação da Microsoft para Punjabi. |
romanian |
string |
Seleciona o tokenizador de derivação da Microsoft para romeno. |
russian |
string |
Seleciona o tokenizador de derivação da Microsoft para russo. |
serbianCyrillic |
string |
Seleciona o tokenizador de derivação da Microsoft para sérvio (cirílico). |
serbianLatin |
string |
Seleciona o tokenizador de derivação da Microsoft para sérvio (latim). |
slovak |
string |
Seleciona o tokenizador de derivação da Microsoft para eslovaco. |
slovenian |
string |
Seleciona o tokenizador de derivação da Microsoft para esloveno. |
spanish |
string |
Seleciona o tokenizador de derivação da Microsoft para espanhol. |
swedish |
string |
Seleciona o tokenizador de derivação da Microsoft para sueco. |
tamil |
string |
Seleciona o tokenizador de derivação da Microsoft para Tamil. |
telugu |
string |
Seleciona o tokenizador de derivação da Microsoft para Telugu. |
turkish |
string |
Seleciona o tokenizador de derivação da Microsoft para turco. |
ukrainian |
string |
Seleciona o tokenizador de derivação da Microsoft para ucraniano. |
urdu |
string |
Seleciona o tokenizador de derivação da Microsoft para Urdu. |
MicrosoftTokenizerLanguage
Lista os idiomas suportados pelo tokenizador de idiomas da Microsoft.
Name | Tipo | Description |
---|---|---|
bangla |
string |
Seleciona o tokenizador da Microsoft para Bangla. |
bulgarian |
string |
Seleciona o tokenizador da Microsoft para búlgaro. |
catalan |
string |
Seleciona o tokenizador da Microsoft para catalão. |
chineseSimplified |
string |
Seleciona o tokenizador da Microsoft para chinês (simplificado). |
chineseTraditional |
string |
Seleciona o tokenizador da Microsoft para chinês (tradicional). |
croatian |
string |
Seleciona o tokenizador da Microsoft para croata. |
czech |
string |
Seleciona o tokenizador da Microsoft para tcheco. |
danish |
string |
Seleciona o tokenizador da Microsoft para dinamarquês. |
dutch |
string |
Seleciona o tokenizador da Microsoft para holandês. |
english |
string |
Seleciona o tokenizador da Microsoft para inglês. |
french |
string |
Seleciona o tokenizador da Microsoft para francês. |
german |
string |
Seleciona o tokenizador da Microsoft para alemão. |
greek |
string |
Seleciona o tokenizador da Microsoft para grego. |
gujarati |
string |
Seleciona o tokenizador da Microsoft para Gujarati. |
hindi |
string |
Seleciona o tokenizador da Microsoft para Hindi. |
icelandic |
string |
Seleciona o tokenizador da Microsoft para islandês. |
indonesian |
string |
Seleciona o tokenizador da Microsoft para indonésio. |
italian |
string |
Seleciona o tokenizador da Microsoft para italiano. |
japanese |
string |
Seleciona o tokenizador da Microsoft para japonês. |
kannada |
string |
Seleciona o tokenizador da Microsoft para Kannada. |
korean |
string |
Seleciona o tokenizador da Microsoft para coreano. |
malay |
string |
Seleciona o tokenizador da Microsoft para malaio. |
malayalam |
string |
Seleciona o tokenizador da Microsoft para Malayalam. |
marathi |
string |
Seleciona o tokenizador da Microsoft para Marathi. |
norwegianBokmaal |
string |
Seleciona o tokenizador da Microsoft para norueguês (Bokmål). |
polish |
string |
Seleciona o tokenizador da Microsoft para polonês. |
portuguese |
string |
Seleciona o tokenizador da Microsoft para português. |
portugueseBrazilian |
string |
Seleciona o tokenizador da Microsoft para português (Brasil). |
punjabi |
string |
Seleciona o tokenizador da Microsoft para Punjabi. |
romanian |
string |
Seleciona o tokenizador da Microsoft para romeno. |
russian |
string |
Seleciona o tokenizador da Microsoft para russo. |
serbianCyrillic |
string |
Seleciona o tokenizador da Microsoft para sérvio (cirílico). |
serbianLatin |
string |
Seleciona o tokenizador da Microsoft para sérvio (latim). |
slovenian |
string |
Seleciona o tokenizador da Microsoft para esloveno. |
spanish |
string |
Seleciona o tokenizador da Microsoft para espanhol. |
swedish |
string |
Seleciona o tokenizador da Microsoft para sueco. |
tamil |
string |
Seleciona o tokenizador da Microsoft para Tamil. |
telugu |
string |
Seleciona o tokenizador da Microsoft para Telugu. |
thai |
string |
Seleciona o tokenizador da Microsoft para tailandês. |
ukrainian |
string |
Seleciona o tokenizador da Microsoft para ucraniano. |
urdu |
string |
Seleciona o tokenizador da Microsoft para Urdu. |
vietnamese |
string |
Seleciona o tokenizador da Microsoft para vietnamita. |
NGramTokenFilter
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenFilterV2
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenizer
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
minGram |
integer |
1 |
O comprimento mínimo de n-gramas. O padrão é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
tokenChars |
Classes de caracteres para manter nos tokens. |
OutputFieldMappingEntry
Mapeamento de campo de saída para uma habilidade.
Name | Tipo | Description |
---|---|---|
name |
string |
O nome da saída definida pela habilidade. |
targetName |
string |
O nome de destino da saída. É opcional e padrão para nomear. |
PathHierarchyTokenizerV2
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
delimiter |
string |
/ |
O caractere delimitador a ser usado. O padrão é "/". |
maxTokenLength |
integer |
300 |
O comprimento máximo do token. O padrão e máximo é 300. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
replacement |
string |
/ |
Um valor que, se definido, substitui o caractere delimitador. O padrão é "/". |
reverse |
boolean |
False |
Um valor que indica se os tokens devem ser gerados em ordem inversa. O padrão é false. |
skip |
integer |
0 |
O número de tokens iniciais a serem ignorados. O padrão é 0. |
PatternAnalyzer
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de analisador. |
|
flags |
Sinalizadores de expressão regular. |
||
lowercase |
boolean |
True |
Um valor que indica se os termos devem ser minúsculos. O padrão é true. |
name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
stopwords |
string[] |
Uma lista de palavras-chave. |
PatternCaptureTokenFilter
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
patterns |
string[] |
Uma lista de padrões a serem comparados a cada token. |
|
preserveOriginal |
boolean |
True |
Um valor que indica se o token original deve ser retornado, mesmo que um dos padrões corresponda. O padrão é true. |
PatternReplaceCharFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro char. |
name |
string |
O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
pattern |
string |
Um padrão de expressão regular. |
replacement |
string |
O texto de substituição. |
PatternReplaceTokenFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
pattern |
string |
Um padrão de expressão regular. |
replacement |
string |
O texto de substituição. |
PatternTokenizer
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
flags |
Sinalizadores de expressão regular. |
||
group |
integer |
-1 |
O ordinal baseado em zero do grupo correspondente no padrão de expressão regular a ser extraído em tokens. Use -1 se quiser usar o padrão inteiro para dividir a entrada em tokens, independentemente dos grupos correspondentes. O padrão é -1. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
PhoneticEncoder
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.
Name | Tipo | Description |
---|---|---|
beiderMorse |
string |
Codifica um token em um valor Beider-Morse. |
caverphone1 |
string |
Codifica um token em um valor Caverphone 1.0. |
caverphone2 |
string |
Codifica um token em um valor Caverphone 2.0. |
cologne |
string |
Codifica um token em um valor fonético de Colônia. |
doubleMetaphone |
string |
Codifica um token em um valor de metafone duplo. |
haasePhonetik |
string |
Codifica um token usando o refinamento Haase do algoritmo Kölner Phonetik. |
koelnerPhonetik |
string |
Codifica um token usando o algoritmo Kölner Phonetik. |
metaphone |
string |
Codifica um token em um valor de metafone. |
nysiis |
string |
Codifica um token em um valor NYSIIS. |
refinedSoundex |
string |
Codifica um token em um valor Refined Soundex. |
soundex |
string |
Codifica um token em um valor Soundex. |
PhoneticTokenFilter
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
encoder | metaphone |
O codificador fonético a ser usado. O padrão é "metafone". |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
replace |
boolean |
True |
Um valor que indica se os tokens codificados devem substituir os tokens originais. Se false, tokens codificados são adicionados como sinônimos. O padrão é true. |
PrioritizedFields
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas.
Name | Tipo | Description |
---|---|---|
prioritizedContentFields |
Define os campos de conteúdo a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter texto em linguagem natural. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo. |
|
prioritizedKeywordsFields |
Define os campos de palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter uma lista de palavras-chave. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo. |
|
titleField |
Define o campo de título a ser usado para classificação semântica, legendas, destaques e respostas. Se não tiver um campo de título no índice, deixe-o em branco. |
RegexFlags
Define sinalizadores que podem ser combinados para controlar como expressões regulares são usadas no analisador de padrões e no tokenizador de padrões.
Name | Tipo | Description |
---|---|---|
CANON_EQ |
string |
Permite a equivalência canônica. |
CASE_INSENSITIVE |
string |
Permite a correspondência que não diferencia maiúsculas de minúsculas. |
COMMENTS |
string |
Permite espaço em branco e comentários no padrão. |
DOTALL |
string |
Ativa o modo dotall. |
LITERAL |
string |
Permite a análise literal do padrão. |
MULTILINE |
string |
Habilita o modo multilinha. |
UNICODE_CASE |
string |
Permite dobragem de maiúsculas e minúsculas com reconhecimento de Unicode. |
UNIX_LINES |
string |
Ativa o modo de linhas Unix. |
ScalarQuantizationParameters
Contém os parâmetros específicos da Quantização Escalar.
Name | Tipo | Description |
---|---|---|
quantizedDataType |
O tipo de dados quantizados de valores vetoriais compactados. |
ScalarQuantizationVectorSearchCompressionConfiguration
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta.
Name | Tipo | Default value | Description |
---|---|---|---|
defaultOversampling |
number |
Fator de sobreamostragem padrão. A sobreamostragem solicitará internamente mais documentos (especificados por este multiplicador) na pesquisa inicial. Isso aumenta o conjunto de resultados que serão reclassificados usando pontuações de similaridade recalculadas de vetores de precisão total. O valor mínimo é 1, o que significa que não há sobreamostragem (1x). Este parâmetro só pode ser definido quando rerankWithOriginalVectors é true. Valores mais altos melhoram a recuperação em detrimento da latência. |
|
kind |
string:
scalar |
O nome do tipo de método de compactação que está sendo configurado para uso com pesquisa vetorial. |
|
name |
string |
O nome a ser associado a essa configuração específica. |
|
rerankWithOriginalVectors |
boolean |
True |
Se definido como true, uma vez obtido o conjunto ordenado de resultados calculados usando vetores compactados, eles serão reclassificados novamente recalculando as pontuações de similaridade de precisão total. Isso melhorará a recuperação em detrimento da latência. |
scalarQuantizationParameters |
Contém os parâmetros específicos da Quantização Escalar. |
ScoringFunctionAggregation
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.
Name | Tipo | Description |
---|---|---|
average |
string |
Aumente as pontuações pela média de todos os resultados da função de pontuação. |
firstMatching |
string |
Aumente as pontuações usando a primeira função de pontuação aplicável no perfil de pontuação. |
maximum |
string |
Aumente as pontuações pelo máximo de todos os resultados da função de pontuação. |
minimum |
string |
Aumente as pontuações pelo mínimo de todos os resultados da função de pontuação. |
sum |
string |
Aumente as pontuações pela soma de todos os resultados da função de pontuação. |
ScoringFunctionInterpolation
Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos.
Name | Tipo | Description |
---|---|---|
constant |
string |
Aumenta as pontuações por um fator constante. |
linear |
string |
Aumenta as pontuações em uma quantidade linearmente decrescente. Esta é a interpolação padrão para funções de pontuação. |
logarithmic |
string |
Aumenta as pontuações em uma quantidade que diminui logaritmicamente. Os impulsos diminuem rapidamente para pontuações mais altas e mais lentamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags. |
quadratic |
string |
Aumenta as pontuações em uma quantidade que diminui quadraticamente. Os impulsos diminuem lentamente para pontuações mais altas e mais rapidamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags. |
ScoringProfile
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.
Name | Tipo | Description |
---|---|---|
functionAggregation |
Um valor que indica como os resultados de funções de pontuação individuais devem ser combinados. O padrão é "Soma". Ignorado se não houver funções de pontuação. |
|
functions | ScoringFunction[]: |
A coleção de funções que influenciam a pontuação de documentos. |
name |
string |
O nome do perfil de pontuação. |
text |
Parâmetros que aumentam a pontuação com base em correspondências de texto em determinados campos de índice. |
SearchField
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.
Name | Tipo | Description |
---|---|---|
analyzer |
O nome do analisador a ser usado para o campo. Essa opção pode ser usada apenas com campos pesquisáveis e não pode ser definida junto com searchAnalyzer ou indexAnalyzer. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos. |
|
dimensions |
integer |
A dimensionalidade do campo vetorial. |
facetable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas de facetas. Normalmente usado em uma apresentação de resultados de pesquisa que inclui contagem de visitas por categoria (por exemplo, pesquisar câmeras digitais e ver acessos por marca, por megapixels, por preço e assim por diante). Esta propriedade deve ser nula para campos complexos. Os campos do tipo Edm.GeographyPoint ou Collection(Edm.GeographyPoint) não podem ser facial. O padrão é verdadeiro para todos os outros campos simples. |
fields |
Uma lista de subcampos se este for um campo do tipo Edm.ComplexType ou Collection(Edm.ComplexType). Deve ser nulo ou vazio para campos simples. |
|
filterable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas $filter. Filtrável difere de pesquisável em como as cadeias de caracteres são manipuladas. Os campos do tipo Edm.String ou Collection(Edm.String) que podem ser filtrados não sofrem quebra de palavras, portanto, as comparações são apenas para correspondências exatas. Por exemplo, se você definir tal campo f como "dia ensolarado", $filter=f eq 'ensolarado' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. Esta propriedade deve ser nula para campos complexos. O padrão é true para campos simples e null para campos complexos. |
indexAnalyzer |
O nome do analisador usado no momento da indexação para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com searchAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos. |
|
key |
boolean |
Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice deve ser escolhido como o campo chave e deve ser do tipo Edm.String. Os campos-chave podem ser usados para pesquisar documentos diretamente e atualizar ou excluir documentos específicos. O padrão é false para campos simples e null para campos complexos. |
name |
string |
O nome do campo, que deve ser exclusivo dentro da coleção de campos do campo de índice ou pai. |
retrievable |
boolean |
Um valor que indica se o campo pode ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se quiser usar um campo (por exemplo, margem) como filtro, classificação ou mecanismo de pontuação, mas não quiser que o campo fique visível para o usuário final. Essa propriedade deve ser true para campos chave e deve ser nula para campos complexos. Esta propriedade pode ser alterada em campos existentes. A habilitação dessa propriedade não causa nenhum aumento nos requisitos de armazenamento de índice. O padrão é true para campos simples, false para campos vetoriais e null para campos complexos. |
searchAnalyzer |
O nome do analisador usado no momento da pesquisa para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com o indexAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Este analisador pode ser atualizado em um campo existente. Deve ser nulo para campos complexos. |
|
searchable |
boolean |
Um valor que indica se o campo pode ser pesquisado em texto completo. Isso significa que ele passará por análises, como quebra de palavras durante a indexação. Se você definir um campo pesquisável para um valor como "dia ensolarado", internamente ele será dividido nos tokens individuais "ensolarado" e "dia". Isso permite pesquisas de texto completo para esses termos. Os campos do tipo Edm.String ou Collection(Edm.String) são pesquisáveis por padrão. Essa propriedade deve ser false para campos simples de outros tipos de dados que não sejam de cadeia de caracteres e deve ser nula para campos complexos. Nota: os campos pesquisáveis consomem espaço extra no índice para acomodar versões tokenizadas adicionais do valor do campo para pesquisas de texto completo. Se quiser economizar espaço no índice e não precisar de um campo para ser incluído nas pesquisas, defina pesquisável como false. |
sortable |
boolean |
Um valor que indica se o campo deve ser referenciado em expressões $orderby. Por padrão, o mecanismo de pesquisa classifica os resultados por pontuação, mas em muitas experiências os usuários vão querer classificar por campos nos documentos. Um campo simples só pode ser classificado se tiver um único valor (tem um único valor no âmbito do documento principal). Os campos de recolha simples não podem ser ordenados, uma vez que têm vários valores. Subcampos simples de coleções complexas também são multivalorados e, portanto, não podem ser classificados. Isso é verdade se é um campo pai imediato, ou um campo ancestral, essa é a coleção complexa. Campos complexos não podem ser classificáveis e a propriedade sortable deve ser nula para esses campos. O padrão para classificável é true para campos simples de valor único, false para campos simples de vários valores e null para campos complexos. |
stored |
boolean |
Um valor imutável que indica se o campo será persistido separadamente no disco para ser retornado em um resultado de pesquisa. Você pode desativar essa opção se não planeja retornar o conteúdo do campo em uma resposta de pesquisa para economizar na sobrecarga de armazenamento. Isso só pode ser definido durante a criação do índice e somente para campos vetoriais. Esta propriedade não pode ser alterada para campos existentes ou definida como false para novos campos. Se essa propriedade for definida como false, a propriedade 'retrievable' também deverá ser definida como false. Essa propriedade deve ser true ou unset para campos chave, para novos campos e para campos não vetoriais, e deve ser nula para campos complexos. A desativação dessa propriedade reduzirá os requisitos de armazenamento do índice. O padrão é true para campos vetoriais. |
synonymMaps |
string[] |
Uma lista dos nomes dos mapas de sinónimos a associar a este campo. Esta opção só pode ser usada com campos pesquisáveis. Atualmente, apenas um mapa de sinônimo por campo é suportado. A atribuição de um mapa de sinônimo a um campo garante que os termos de consulta direcionados a esse campo sejam expandidos no momento da consulta usando as regras no mapa de sinônimos. Este atributo pode ser alterado em campos existentes. Deve ser nulo ou uma coleção vazia para campos complexos. |
type |
O tipo de dados do campo. |
|
vectorEncoding |
O formato de codificação para interpretar o conteúdo do campo. |
|
vectorSearchProfile |
string |
O nome do perfil de pesquisa vetorial que especifica o algoritmo e o vetorizador a serem usados ao pesquisar o campo vetorial. |
SearchFieldDataType
Define o tipo de dados de um campo em um índice de pesquisa.
Name | Tipo | Description |
---|---|---|
Edm.Boolean |
string |
Indica que um campo contém um valor booleano (true ou false). |
Edm.Byte |
string |
Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.Byte). |
Edm.ComplexType |
string |
Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos. |
Edm.DateTimeOffset |
string |
Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. |
Edm.Double |
string |
Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. |
Edm.GeographyPoint |
string |
Indica que um campo contém uma geolocalização em termos de longitude e latitude. |
Edm.Half |
string |
Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado com Collection(Edm.Half). |
Edm.Int16 |
string |
Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado com Collection(Edm.Int16). |
Edm.Int32 |
string |
Indica que um campo contém um inteiro assinado de 32 bits. |
Edm.Int64 |
string |
Indica que um campo contém um inteiro assinado de 64 bits. |
Edm.SByte |
string |
Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.SByte). |
Edm.Single |
string |
Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado com Collection(Edm.Single). |
Edm.String |
string |
Indica que um campo contém uma cadeia de caracteres. |
SearchIndex
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.
Name | Tipo | Description |
---|---|---|
@odata.etag |
string |
O ETag do índice. |
analyzers | LexicalAnalyzer[]: |
Os analisadores para o índice. |
charFilters | CharFilter[]: |
Os filtros de caracteres para o índice. |
corsOptions |
Opções para controlar o Cross-Origin Resource Sharing (CORS) para o índice. |
|
defaultScoringProfile |
string |
O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada. |
encryptionKey |
Uma descrição de uma chave de criptografia que você cria no Cofre de Chaves do Azure. Essa chave é usada para fornecer um nível adicional de criptografia em repouso para seus dados quando você quiser garantia total de que ninguém, nem mesmo a Microsoft, pode descriptografar seus dados. Depois de ter encriptado os seus dados, estes permanecerão sempre encriptados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como null. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Os seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados em ou após 1º de janeiro de 2019. |
|
fields |
Os campos do índice. |
|
name |
string |
O nome do índice. |
scoringProfiles |
Os perfis de pontuação para o índice. |
|
semantic |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
|
similarity | Similarity: |
O tipo de algoritmo de semelhança a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de semelhança só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se null, o algoritmo ClassicSimilarity é usado. |
suggesters |
As sugestões para o índice. |
|
tokenFilters |
TokenFilter[]:
|
O token filtra o índice. |
tokenizers | LexicalTokenizer[]: |
Os tokenizadores para o índice. |
vectorSearch |
Contém opções de configuração relacionadas à pesquisa vetorial. |
SearchIndexerDataNoneIdentity
Limpa a propriedade identity de uma fonte de dados.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de identidade. |
SearchIndexerDataUserAssignedIdentity
Especifica a identidade a ser usada por uma fonte de dados.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de identidade. |
userAssignedIdentity |
string |
A ID de recurso do Azure totalmente qualificada de uma identidade gerenciada atribuída ao usuário normalmente no formato "/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" que deveria ter sido atribuída ao serviço de pesquisa. |
SearchResourceEncryptionKey
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.
Name | Tipo | Description |
---|---|---|
accessCredentials |
Credenciais opcionais do Azure Ative Directory usadas para acessar seu Cofre da Chave do Azure. Não é necessário se estiver usando a identidade gerenciada. |
|
keyVaultKeyName |
string |
O nome da sua chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso. |
keyVaultKeyVersion |
string |
A versão da chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso. |
keyVaultUri |
string |
O URI do seu Cofre da Chave do Azure, também conhecido como nome DNS, que contém a chave a ser usada para criptografar seus dados em repouso. Um exemplo de URI pode ser |
SemanticConfiguration
Define uma configuração específica a ser usada no contexto de recursos semânticos.
Name | Tipo | Description |
---|---|---|
name |
string |
O nome da configuração semântica. |
prioritizedFields |
Descreve os campos de título, conteúdo e palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Pelo menos uma das três subpropriedades (titleField, priorizdKeywordsFields e priorizdContentFields) precisa ser definida. |
SemanticField
Um campo que é usado como parte da configuração semântica.
Name | Tipo | Description |
---|---|---|
fieldName |
string |
SemanticSettings
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.
Name | Tipo | Description |
---|---|---|
configurations |
As configurações semânticas para o índice. |
|
defaultConfiguration |
string |
Permite definir o nome de uma configuração semântica padrão em seu índice, tornando opcional transmiti-lo como um parâmetro de consulta sempre. |
ShingleTokenFilter
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
filterToken |
string |
_ |
A cadeia de caracteres a ser inserida para cada posição na qual não há token. O padrão é um sublinhado ("_"). |
maxShingleSize |
integer |
2 |
O tamanho máximo da telha. O valor padrão e mínimo é 2. |
minShingleSize |
integer |
2 |
O tamanho mínimo da telha. O valor padrão e mínimo é 2. Deve ser menor que o valor de maxShingleSize. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
outputUnigrams |
boolean |
True |
Um valor que indica se o fluxo de saída conterá os tokens de entrada (unigramas), bem como telhas. O padrão é true. |
outputUnigramsIfNoShingles |
boolean |
False |
Um valor que indica a saída de unigramas para os momentos em que não há telhas disponíveis. Essa propriedade tem precedência quando outputUnigrams é definido como false. O padrão é false. |
tokenSeparator |
string |
A cadeia de caracteres a ser usada ao unir tokens adjacentes para formar uma telha. O padrão é um único espaço (" "). |
SnowballTokenFilter
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
language |
A língua a utilizar. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
SnowballTokenFilterLanguage
O idioma a ser usado para um filtro de token do Snowball.
Name | Tipo | Description |
---|---|---|
armenian |
string |
Seleciona o tokenizador Lucene Snowball para armênio. |
basque |
string |
Seleciona o tokenizador Lucene Snowball para basco. |
catalan |
string |
Seleciona o tokenizador Lucene Snowball para catalão. |
danish |
string |
Seleciona o tokenizador Lucene Snowball para dinamarquês. |
dutch |
string |
Seleciona o tokenizador Lucene Snowball para holandês. |
english |
string |
Seleciona o tokenizador de derivação Lucene Snowball para inglês. |
finnish |
string |
Seleciona o tokenizador de derivação Lucene Snowball para finlandês. |
french |
string |
Seleciona o tokenizador Lucene Snowball para francês. |
german |
string |
Seleciona o tokenizador Lucene Snowball para alemão. |
german2 |
string |
Seleciona o tokenizador de derivação Lucene Snowball que usa o algoritmo variante alemão. |
hungarian |
string |
Seleciona o tokenizador Lucene Snowball para húngaro. |
italian |
string |
Seleciona o tokenizador Lucene Snowball para italiano. |
kp |
string |
Seleciona o tokenizador de derivação Lucene Snowball para holandês que usa o algoritmo de derivação Kraaij-Pohlmann. |
lovins |
string |
Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação Lovins. |
norwegian |
string |
Seleciona o tokenizador Lucene Snowball para norueguês. |
porter |
string |
Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação de Porter. |
portuguese |
string |
Seleciona o tokenizador Lucene Snowball para português. |
romanian |
string |
Seleciona o tokenizador Lucene Snowball para romeno. |
russian |
string |
Seleciona o tokenizador Lucene Snowball para russo. |
spanish |
string |
Seleciona o tokenizador Lucene Snowball para espanhol. |
swedish |
string |
Seleciona o tokenizador Lucene Snowball para sueco. |
turkish |
string |
Seleciona o tokenizador Lucene Snowball para turco. |
StemmerOverrideTokenFilter
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
rules |
string[] |
Uma lista de regras derivadas no seguinte formato: "word => stem", por exemplo: "ran => run". |
StemmerTokenFilter
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
language |
A língua a utilizar. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
StemmerTokenFilterLanguage
A linguagem a ser usada para um filtro de token de lematizador.
Name | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona o tokenizador de derivação Lucene para árabe. |
armenian |
string |
Seleciona o tokenizador de derivação Lucene para armênio. |
basque |
string |
Seleciona o tokenizador Lucene para basco. |
brazilian |
string |
Seleciona o tokenizador de derivação Lucene para português (Brasil). |
bulgarian |
string |
Seleciona o tokenizador de derivação Lucene para búlgaro. |
catalan |
string |
Seleciona o tokenizador Lucene para catalão. |
czech |
string |
Seleciona o tokenizador de derivação Lucene para tcheco. |
danish |
string |
Seleciona o tokenizador de derivação Lucene para dinamarquês. |
dutch |
string |
Seleciona o tokenizador de derivação Lucene para holandês. |
dutchKp |
string |
Seleciona o tokenizador de derivação Lucene para holandês que usa o algoritmo de derivação Kraaij-Pohlmann. |
english |
string |
Seleciona o tokenizador de derivação Lucene para inglês. |
finnish |
string |
Seleciona o tokenizador de derivação Lucene para finlandês. |
french |
string |
Seleciona o tokenizador de derivação Lucene para francês. |
galician |
string |
Seleciona o tokenizador Lucene para galego. |
german |
string |
Seleciona o tokenizador de derivação Lucene para alemão. |
german2 |
string |
Seleciona o tokenizador de derivação Lucene que usa o algoritmo variante alemão. |
greek |
string |
Seleciona o tokenizador Lucene para grego. |
hindi |
string |
Seleciona o tokenizador de derivação Lucene para Hindi. |
hungarian |
string |
Seleciona o tokenizador Lucene para húngaro. |
indonesian |
string |
Seleciona o tokenizador de derivação Lucene para indonésio. |
irish |
string |
Seleciona o tokenizador Lucene stemming para irlandês. |
italian |
string |
Seleciona o tokenizador de derivação Lucene para italiano. |
latvian |
string |
Seleciona o tokenizador de derivação Lucene para letão. |
lightEnglish |
string |
Seleciona o tokenizador de derivação Lucene para inglês que faz derivação leve. |
lightFinnish |
string |
Seleciona o tokenizador de derivação Lucene para finlandês que faz derivação leve. |
lightFrench |
string |
Seleciona o tokenizador de derivação Lucene para francês que faz derivação leve. |
lightGerman |
string |
Seleciona o tokenizador de derivação Lucene para alemão que faz derivação leve. |
lightHungarian |
string |
Seleciona o tokenizador Lucene stemming para húngaro que faz derivação leve. |
lightItalian |
string |
Seleciona o tokenizador Lucene stemming para italiano que faz derivação leve. |
lightNorwegian |
string |
Seleciona o tokenizador de derivação Lucene para norueguês (Bokmål) que faz derivação leve. |
lightNynorsk |
string |
Seleciona o tokenizador de derivação Lucene para norueguês (Nynorsk) que faz derivação leve. |
lightPortuguese |
string |
Seleciona o tokenizador Lucene stemming para português que faz derivação leve. |
lightRussian |
string |
Seleciona o tokenizador de derivação Lucene para russo que faz derivação leve. |
lightSpanish |
string |
Seleciona o tokenizador de derivação Lucene para espanhol que faz derivação leve. |
lightSwedish |
string |
Seleciona o tokenizador de derivação Lucene para sueco que faz derivação leve. |
lovins |
string |
Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Lovins. |
minimalEnglish |
string |
Seleciona o tokenizador de derivação Lucene para inglês que faz o mínimo de derivação. |
minimalFrench |
string |
Seleciona o tokenizador Lucene stemming para francês que faz o mínimo de derivação. |
minimalGalician |
string |
Seleciona o tokenizador Lucene stemming para galego que faz o mínimo de derivação. |
minimalGerman |
string |
Seleciona o tokenizador de derivação Lucene para alemão que faz o mínimo de derivação. |
minimalNorwegian |
string |
Seleciona o tokenizador Lucene stemming para norueguês (Bokmål) que faz o mínimo de derivação. |
minimalNynorsk |
string |
Seleciona o tokenizador Lucene stemming para norueguês (Nynorsk) que faz o mínimo de derivação. |
minimalPortuguese |
string |
Seleciona o tokenizador Lucene stemming para português que faz o mínimo de derivação. |
norwegian |
string |
Seleciona o tokenizador Lucene stemming para norueguês (Bokmål). |
porter2 |
string |
Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Porter2. |
portuguese |
string |
Seleciona o tokenizador Lucene para português. |
portugueseRslp |
string |
Seleciona o tokenizador de derivação Lucene para português que usa o algoritmo de derivação RSLP. |
possessiveEnglish |
string |
Seleciona o tokenizador de derivação Lucene para o inglês que remove possessivos finais das palavras. |
romanian |
string |
Seleciona o tokenizador de derivação Lucene para romeno. |
russian |
string |
Seleciona o tokenizador de derivação Lucene para russo. |
sorani |
string |
Seleciona o tokenizador de derivação Lucene para Sorani. |
spanish |
string |
Seleciona o tokenizador de derivação Lucene para espanhol. |
swedish |
string |
Seleciona o tokenizador de derivação Lucene para sueco. |
turkish |
string |
Seleciona o tokenizador de derivação Lucene para turco. |
StopAnalyzer
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene.
Name | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de analisador. |
name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
stopwords |
string[] |
Uma lista de palavras-chave. |
StopwordsList
Identifica uma lista predefinida de palavras paradas específicas do idioma.
Name | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona a lista de palavras paradas para árabe. |
armenian |
string |
Seleciona a lista de palavras paradas para armênio. |
basque |
string |
Seleciona a lista de palavras paradas para basco. |
brazilian |
string |
Seleciona a lista de palavras paradas para Português (Brasil). |
bulgarian |
string |
Seleciona a lista de palavras paradas para búlgaro. |
catalan |
string |
Seleciona a lista de palavras paradas para catalão. |
czech |
string |
Seleciona a lista de palavras paradas para tcheco. |
danish |
string |
Seleciona a lista de palavras paradas para dinamarquês. |
dutch |
string |
Seleciona a lista de palavras paradas para holandês. |
english |
string |
Seleciona a lista de palavras paradas para inglês. |
finnish |
string |
Seleciona a lista de palavras paradas para finlandês. |
french |
string |
Seleciona a lista de palavras paradas para francês. |
galician |
string |
Seleciona a lista de palavras paradas para galego. |
german |
string |
Seleciona a lista de palavras paradas para alemão. |
greek |
string |
Seleciona a lista de palavras paradas para grego. |
hindi |
string |
Seleciona a lista de palavras paradas para hindi. |
hungarian |
string |
Seleciona a lista de palavras paradas para húngaro. |
indonesian |
string |
Seleciona a lista de palavras paradas para indonésio. |
irish |
string |
Seleciona a lista de palavras paradas para irlandês. |
italian |
string |
Seleciona a lista de palavras paradas para italiano. |
latvian |
string |
Seleciona a lista de palavras paradas para letão. |
norwegian |
string |
Seleciona a lista de palavras paradas para norueguês. |
persian |
string |
Seleciona a lista de palavras paradas para persa. |
portuguese |
string |
Seleciona a lista de palavras paradas para português. |
romanian |
string |
Seleciona a lista de palavras paradas para romeno. |
russian |
string |
Seleciona a lista de palavras paradas para russo. |
sorani |
string |
Seleciona a lista de palavras paradas para Sorani. |
spanish |
string |
Seleciona a lista de palavras paradas para espanhol. |
swedish |
string |
Seleciona a lista de palavras paradas para sueco. |
thai |
string |
Seleciona a lista de palavras paradas para tailandês. |
turkish |
string |
Seleciona a lista de palavras paradas para turco. |
StopwordsTokenFilter
Remove palavras de parada de um fluxo de token. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
ignoreCase |
boolean |
False |
Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
removeTrailing |
boolean |
True |
Um valor que indica se o último termo de pesquisa deve ser ignorado se for uma palavra de interrupção. O padrão é true. |
stopwords |
string[] |
A lista de palavras-chave. Esta propriedade e a propriedade stopwords list não podem ser definidas. |
|
stopwordsList | english |
Uma lista predefinida de palavras de paragem a utilizar. Esta propriedade e a propriedade stopwords não podem ser definidas. O padrão é inglês. |
Suggester
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice.
Name | Tipo | Description |
---|---|---|
name |
string |
O nome do sugestionador. |
searchMode |
Um valor que indica as capacidades do sugestionador. |
|
sourceFields |
string[] |
A lista de nomes de campos aos quais o sugeridor se aplica. Cada campo deve ser pesquisável. |
SuggesterSearchMode
Um valor que indica as capacidades do sugestionador.
Name | Tipo | Description |
---|---|---|
analyzingInfixMatching |
string |
Corresponde a termos inteiros consecutivos e prefixos em um campo. Por exemplo, para o campo 'A raposa castanha mais rápida', as consultas 'rápido' e 'sobrancelha mais rápida' corresponderiam a ambos. |
SynonymTokenFilter
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
expand |
boolean |
True |
Um valor que indica se todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. Se verdadeiro, todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. A seguinte lista: incrível, inacreditável, fabuloso, incrível é equivalente a: incrível, inacreditável, fabuloso, incrível => incrível, inacreditável, fabuloso, incrível. Se falso, a seguinte lista: incrível, inacreditável, fabuloso, incrível será equivalente a: incrível, inacreditável, fabuloso, incrível => incrível. O padrão é true. |
ignoreCase |
boolean |
False |
Um valor que indica se a entrada deve ser dobrada em maiúsculas e minúsculas para correspondência. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
synonyms |
string[] |
Uma lista de sinónimos nos seguintes formatos: 1. incrível, inacreditável, fabuloso => incrível - todos os termos no lado esquerdo de => símbolo serão substituídos por todos os termos em seu lado direito; 2. incrível, inacreditável, fabuloso, incrível - lista separada por vírgulas de palavras equivalentes. Defina a opção expandir para alterar a forma como esta lista é interpretada. |
TagScoringFunction
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.
Name | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
tag |
Valores de parâmetro para a função de pontuação de tag. |
|
type |
string:
tag |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, frescor, distância e etiqueta. O tipo de função deve ser minúsculo. |
TagScoringParameters
Fornece valores de parâmetro para uma função de pontuação de tag.
Name | Tipo | Description |
---|---|---|
tagsParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar a lista de tags a serem comparadas com o campo de destino. |
TextWeights
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.
Name | Tipo | Description |
---|---|---|
weights |
object |
O dicionário de pesos por campo para aumentar a pontuação do documento. As chaves são nomes de campos e os valores são os pesos para cada campo. |
TokenCharacterKind
Representa classes de caracteres nas quais um filtro de token pode operar.
Name | Tipo | Description |
---|---|---|
digit |
string |
Mantém dígitos em tokens. |
letter |
string |
Mantém letras em tokens. |
punctuation |
string |
Mantém a pontuação em tokens. |
symbol |
string |
Mantém símbolos em tokens. |
whitespace |
string |
Mantém espaço em branco em tokens. |
TokenFilterName
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.
TruncateTokenFilter
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
length |
integer |
300 |
A extensão em que os termos serão truncados. O padrão e máximo é 300. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
UaxUrlEmailTokenizer
Tokeniza urls e e-mails como um token. Este tokenizador é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de tokenizador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
UniqueTokenFilter
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
onlyOnSamePosition |
boolean |
False |
Um valor que indica se as duplicatas devem ser removidas apenas na mesma posição. O padrão é false. |
VectorEncodingFormat
O formato de codificação para interpretar o conteúdo do campo vetorial.
Name | Tipo | Description |
---|---|---|
packedBit |
string |
Formato de codificação que representa bits compactados em um tipo de dados mais amplo. |
VectorSearch
Contém opções de configuração relacionadas à pesquisa vetorial.
Name | Tipo | Description |
---|---|---|
algorithms | VectorSearchAlgorithmConfiguration[]: |
Contém opções de configuração específicas para o algoritmo usado durante a indexação ou consulta. |
compressions | VectorSearchCompressionConfiguration[]: |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
profiles |
Define combinações de configurações a serem usadas com a pesquisa vetorial. |
|
vectorizers | VectorSearchVectorizer[]: |
Contém opções de configuração sobre como vetorizar consultas vetoriais de texto. |
VectorSearchAlgorithmKind
O algoritmo usado para indexação e consulta.
Name | Tipo | Description |
---|---|---|
exhaustiveKnn |
string |
Algoritmo KNN exaustivo que realizará pesquisa de força bruta. |
hnsw |
string |
HNSW (Hierarchical Navigable Small World), um tipo de algoritmo de vizinhos aproximados mais próximos. |
VectorSearchAlgorithmMetric
A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado.
Name | Tipo | Description |
---|---|---|
cosine |
string |
Mede o ângulo entre vetores para quantificar sua semelhança, desconsiderando a magnitude. Quanto menor o ângulo, mais próxima a semelhança. |
dotProduct |
string |
Calcula a soma de produtos em termos de elementos para medir o alinhamento e a semelhança de magnitude. Quanto maior e mais positivo, mais próxima a semelhança. |
euclidean |
string |
Calcula a distância linear entre vetores em um espaço multidimensional. Quanto menor a distância, mais próxima a semelhança. |
hamming |
string |
Aplicável apenas a tipos de dados binários compactados com bits. Determina a dissimilaridade contando diferentes posições em vetores binários. Quanto menos diferenças, mais estreita a semelhança. |
VectorSearchCompressionKind
O método de compactação usado para indexação e consulta.
Name | Tipo | Description |
---|---|---|
binaryQuantization |
string |
Quantização binária, um tipo de método de compressão. Na quantização binária, os valores dos vetores originais são compactados para o tipo binário mais estreito, discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados. |
scalarQuantization |
string |
Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
VectorSearchCompressionTargetDataType
O tipo de dados quantizados de valores vetoriais compactados.
Name | Tipo | Description |
---|---|---|
int8 |
string |
VectorSearchProfile
Define uma combinação de configurações a serem usadas com a pesquisa vetorial.
Name | Tipo | Description |
---|---|---|
algorithm |
string |
O nome da configuração do algoritmo de pesquisa vetorial que especifica o algoritmo e os parâmetros opcionais. |
compression |
string |
O nome da configuração do método de compactação que especifica o método de compactação e os parâmetros opcionais. |
name |
string |
O nome a ser associado a esse perfil de pesquisa vetorial específico. |
vectorizer |
string |
O nome da vetorização que está sendo configurada para uso com a pesquisa vetorial. |
VectorSearchVectorizerKind
O método de vetorização a ser usado durante o tempo de consulta.
Name | Tipo | Description |
---|---|---|
azureOpenAI |
string |
Gere incorporações usando um recurso do Azure OpenAI no momento da consulta. |
customWebApi |
string |
Gere incorporações usando um ponto de extremidade da Web personalizado no momento da consulta. |
WebApiParameters
Especifica as propriedades para conexão a um vetorizador definido pelo usuário.
Name | Tipo | Description |
---|---|---|
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída ao sistema será usada. Nas atualizações do indexador, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo. |
authResourceId |
string |
Aplica-se a pontos de extremidade personalizados que se conectam a código externo em uma função do Azure ou em algum outro aplicativo que fornece as transformações. Esse valor deve ser a ID do aplicativo criada para a função ou aplicativo quando ela foi registrada no Azure Ative Directory. Quando especificado, a vetorização se conecta à função ou aplicativo usando uma ID gerenciada (atribuída pelo sistema ou pelo usuário) do serviço de pesquisa e o token de acesso da função ou aplicativo, usando esse valor como a id do recurso para criar o escopo do token de acesso. |
httpHeaders |
object |
Os cabeçalhos necessários para fazer a solicitação HTTP. |
httpMethod |
string |
O método para a solicitação HTTP. |
timeout |
string |
O tempo limite desejado para a solicitação. O padrão é 30 segundos. |
uri |
string |
O URI da API Web que fornece o vetorizador. |
WebApiVectorizer
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades.
Name | Tipo | Description |
---|---|---|
customWebApiParameters |
Especifica as propriedades do vetorizador definido pelo usuário. |
|
kind |
string:
custom |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa vetorial. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
WordDelimiterTokenFilter
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene.
Name | Tipo | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de filtro de token. |
|
catenateAll |
boolean |
False |
Um valor que indica se todas as partes da subpalavra serão atenuadas. Por exemplo, se isso estiver definido como true, "Azure-Search-1" se tornará "AzureSearch1". O padrão é false. |
catenateNumbers |
boolean |
False |
Um valor que indica se as execuções máximas de peças numéricas serão limitadas. Por exemplo, se isso for definido como true, "1-2" se tornará "12". O padrão é false. |
catenateWords |
boolean |
False |
Um valor que indica se as execuções máximas de partes de palavras serão limitadas. Por exemplo, se isso estiver definido como true, "Azure-Search" se tornará "AzureSearch". O padrão é false. |
generateNumberParts |
boolean |
True |
Um valor que indica se as subpalavras numéricas devem ser geradas. O padrão é true. |
generateWordParts |
boolean |
True |
Um valor que indica se as palavras de parte devem ser geradas. Se definido, faz com que partes de palavras sejam geradas; por exemplo, "AzureSearch" torna-se "Azure" "Search". O padrão é true. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
preserveOriginal |
boolean |
False |
Um valor que indica se as palavras originais serão preservadas e adicionadas à lista de subpalavras. O padrão é false. |
protectedWords |
string[] |
Uma lista de tokens para proteger de serem delimitados. |
|
splitOnCaseChange |
boolean |
True |
Um valor que indica se as palavras devem ser divididas em caseChange. Por exemplo, se isso estiver definido como true, "AzureSearch" se tornará "Azure" "Search". O padrão é true. |
splitOnNumerics |
boolean |
True |
Um valor que indica se deve ser dividido em números. Por exemplo, se isso estiver definido como true, "Azure1Search" se tornará "Azure" "1" "Search". O padrão é true. |
stemEnglishPossessive |
boolean |
True |
Um valor que indica se os "s" à direita devem ser removidos para cada subpalavra. O padrão é true. |