Partilhar via


models Pacote

Classes

AnalyzeResult

O resultado do teste de um analisador em texto.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

AnalyzeTextOptions

Especifica alguns componentes de texto e análise utilizados para dividir esse texto em tokens.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

AnalyzedTokenInfo

Informações sobre um token devolvido por um analisador.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

AsciiFoldingTokenFilter

Converte carateres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 carateres ASCII (o bloco Unicode "Latim Básico") nos respetivos equivalentes ASCII, se existirem esses equivalentes. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

BM25SimilarityAlgorithm
CharFilter

Tipo base para filtros de carateres.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: MappingCharFilter, PatternReplaceCharFilter

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CjkBigramTokenFilter

Forma bigrams de termos CJK que são gerados a partir do tokenizer padrão. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ClassicSimilarityAlgorithm
ClassicTokenizer

Tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CognitiveServicesAccount

Tipo base para descrever qualquer recurso do serviço de IA do Azure anexado a um conjunto de competências.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: CognitiveServicesAccountKey, DefaultCognitiveServicesAccount

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CognitiveServicesAccountKey

Um recurso do serviço de IA do Azure aprovisionado com uma chave anexada a um conjunto de competências.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CommonGramTokenFilter

Construa bigrams para termos que ocorrem frequentemente durante a indexação. Os termos únicos também são indexados, com bigrams sobrepostos. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ConditionalSkill

Uma competência que permite cenários que requerem uma operação Booleana para determinar os dados a atribuir a uma saída.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CorsOptions

Define opções para controlar a Partilha de Recursos De Várias Origens (CORS) para um índice.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CustomAnalyzer

Permite-lhe assumir o controlo do processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo utilizador que consiste num único tokenizador predefinido e um ou mais filtros. O tokenizer é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CustomEntity

Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CustomEntityAlias

Um objeto complexo que pode ser utilizado para especificar ortografias alternativas ou sinónimos para o nome da entidade raiz.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

CustomEntityLookupSkill

Uma competência procura texto de uma lista personalizada definida pelo utilizador de palavras e expressões.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DataChangeDetectionPolicy

Tipo base para políticas de deteção de alteração de dados.

É provável que queira utilizar as subclasses e não esta classe diretamente. As subclasses conhecidas são: HighWaterMarkChangeDetectionPolicy, SqlIntegratedChangeTrackingPolicy

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DataDeletionDetectionPolicy

Tipo base para políticas de deteção de eliminação de dados.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: SoftDeleteColumnDeletionDetectionPolicy

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DefaultCognitiveServicesAccount

Um objeto vazio que representa o recurso predefinido do serviço de IA do Azure para um conjunto de competências.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitos idiomas germânicos. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DistanceScoringParameters

Fornece valores de parâmetros para uma função de classificação de distância.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

DocumentExtractionSkill

Uma competência que extrai conteúdo de um ficheiro no pipeline de melhoramento.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) especificado(s) a partir da parte frontal ou traseira de um token de entrada. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

EdgeNGramTokenizer

Tokens the input from an edge into n-grams of the given size(s). Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (plano). Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

EntityLinkingSkill

Com a API Análise de Texto, extrai entidades ligadas do texto.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

EntityRecognitionSkill

Com a API Análise de Texto, extrai entidades de diferentes tipos de texto.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo KNN exaustivo utilizado durante a consulta, que irá realizar pesquisas de força bruta em todo o índice de vetor.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ExhaustiveKnnParameters

Contém os parâmetros específicos do algoritmo KNN exaustivo.

FieldMapping

Define um mapeamento entre um campo numa origem de dados e um campo de destino num índice.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

FieldMappingFunction

Representa uma função que transforma um valor de uma origem de dados antes da indexação.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data/hora.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

FreshnessScoringParameters

Fornece valores de parâmetros para uma função de classificação de atualização.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

GetIndexStatisticsResult

Estatísticas de um determinado índice. As estatísticas são recolhidas periodicamente e não estão sempre atualizadas.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

HighWaterMarkChangeDetectionPolicy

Define uma política de deteção de alterações de dados que captura alterações com base no valor de uma coluna de marca de água elevada.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

HnswAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo HNSW aproximado dos vizinhos mais próximos utilizado durante a indexação e consulta. O algoritmo HNSW oferece uma troca atumável entre a velocidade de pesquisa e a precisão.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

HnswParameters

Contém os parâmetros específicos do algoritmo HNSW.

ImageAnalysisSkill

Uma competência que analisa ficheiros de imagem. Extrai um conjunto avançado de funcionalidades visuais com base no conteúdo da imagem.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

IndexerExecutionResult

Representa o resultado de uma execução individual do indexador.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

IndexingParameters

Representa parâmetros para a execução do indexador.

IndexingParametersConfiguration

Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor tem de ser de um tipo primitivo.

IndexingSchedule

Representa uma agenda para a execução do indexador.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

InputFieldMappingEntry

Mapeamento de campos de entrada para uma competência.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

KeepTokenFilter

Um filtro de token que apenas mantém tokens com texto contido numa lista especificada de palavras. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

KeyPhraseExtractionSkill

Uma competência que utiliza a análise de texto para a extração de expressões-chave.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

KeywordMarkerTokenFilter

Marca os termos como palavras-chave. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

KeywordTokenizer
LanguageDetectionSkill

Uma competência que deteta o idioma do texto de entrada e comunica um único código de idioma para cada documento submetido no pedido. O código de idioma é emparelhado com uma classificação que indica a confiança da análise.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LengthTokenFilter

Remove palavras demasiado longas ou demasiado curtas. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LexicalAnalyzer

Tipo base para analisadores.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: CustomAnalyzer, PatternAnalyzer, LuceneStandardAnalyzer, StopAnalyzer

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LexicalTokenizer

Tipo base para tokenizers.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: ClassicTokenizer, EdgeNGramTokenizer, KeywordTokenizer, KeywordTokenizerV2, MicrosoftLanguageStemmingTokenizer, MicrosoftLanguageTokenizer, NGramTokenizer, PathHierarchyTokenizerV2, PatternTokenizer, LuceneStandardTokenizer, LuceneStandardTokenizerV2, UaxUrlEmailTokenizer

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LimitTokenFilter

Limita o número de tokens durante a indexação. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LuceneStandardAnalyzer

Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em minúsculas e filtro de paragem.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

LuceneStandardTokenizer

Quebra o texto ao seguir as regras de Segmentação de Texto Unicode. Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MagnitudeScoringParameters

Fornece valores de parâmetros para uma função de classificação de magnitude.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MappingCharFilter

Um filtro de carateres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (o padrão mais longo que corresponde a um determinado ponto ganha). A substituição pode ser a cadeia vazia. Este filtro de carateres é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MergeSkill

Uma competência para unir duas ou mais cadeias numa única cadeia unificada, com um delimitador opcional definido pelo utilizador a separar cada parte do componente.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MicrosoftLanguageStemmingTokenizer

Divide o texto com regras específicas do idioma e reduz as palavras aos formulários base.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

MicrosoftLanguageTokenizer

Divide o texto com regras específicas do idioma.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

NGramTokenFilter

Gera n-gramas dos tamanhos especificados. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

NGramTokenizer

Tokeniza a entrada em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

OcrSkill

Uma competência que extrai texto de ficheiros de imagem.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

OutputFieldMappingEntry

Mapeamento de campos de saída para uma competência.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

PIIDetectionSkill

Com a API Análise de Texto, extrai informações pessoais de um texto de entrada e dá-lhe a opção de mascará-las.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

PathHierarchyTokenizer
PatternAnalyzer

Separa de forma flexível o texto em termos através de uma expressão normal. Este analisador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

PatternCaptureTokenFilter

Utiliza regexes Java para emitir vários tokens - um para cada grupo de captura num ou mais padrões. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

PatternReplaceCharFilter

Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de carateres é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

PatternReplaceTokenFilter

Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres a preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, tendo em conta o texto de entrada "aa bb aa bb", o padrão "(aa)s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

PatternTokenizer

Tokenizer que utiliza a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

PhoneticTokenFilter

Criar tokens para correspondências fonéticas. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ScoringFunction

Tipo base para funções que podem modificar as classificações dos documentos durante a classificação.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: DistanceScoringFunction, FreshnessScoringFunction, MagnitudeScoringFunction, TagScoringFunction

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ScoringProfile

Define parâmetros para um índice de pesquisa que influencia a classificação em consultas de pesquisa.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchField

Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexer

Representa um indexador.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerDataContainer

Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerDataSourceConnection

Representa uma definição de ligação de origem de dados, que pode ser utilizada para configurar um indexador.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerError

Representa um erro de indexação ao nível do item ou do documento.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerKnowledgeStore

Definição de projeções adicionais para blobs, tabelas ou ficheiros do Azure de dados melhorados.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstrata para partilhar propriedades entre seletores de betão.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definição de projeção para que dados armazenar no Ficheiros do Azure.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definição de projeção para que dados armazenar no Blob do Azure.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerKnowledgeStoreProjection

Objeto de contentor para vários seletores de projeção.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstrata para partilhar propriedades entre seletores de betão.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrição dos dados a armazenar nas Tabelas do Azure.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerLimits

SearchIndexerLimits.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

SearchIndexerSkill

Tipo base para competências.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: WebApiSkill, CustomEntityLookupSkill, EntityRecognitionSkill, KeyPhraseExtractionSkill, LanguageDetectionSkill, MergeSkill, PIIDetectionSkill, SentimentSkill, SplitSkill, TextTranslationSkill, EntityLinkingSkill, EntityRecognitionSkillV3, SentimentSkillV3, ConditionalSkill, DocumentExtractionSkill, ShaperSkill, ImageAnalysisSkill, OcrSkill

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerSkillset

Uma lista de competências.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerStatus

Representa o estado atual e o histórico de execuções de um indexador.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchIndexerWarning

Representa um aviso ao nível do item.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchResourceEncryptionKey

Uma chave de encriptação gerida pelo cliente no Azure Key Vault. As chaves que cria e gere podem ser utilizadas para encriptar ou desencriptar dados inativos em Azure Cognitive Search, como índices e mapas de sinónimos.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SearchSuggester
SemanticConfiguration

Define uma configuração específica a ser utilizada no contexto das capacidades semânticas.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SemanticField

Um campo que é utilizado como parte da configuração semântica.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a utilizar para classificação semântica, legendas, destaques e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam as capacidades semânticas.

SentimentSkill

V1: análise de sentimento positivo-negativo da análise de texto, classificada como um valor de vírgula flutuante num intervalo de zero a 1. V3: a utilização da API Análise de Texto, avalia o texto não estruturado e, para cada registo, fornece etiquetas de sentimento (como "negativo", "neutro" e "positivo") com base na classificação de confiança mais elevada encontrada pelo serviço a uma frase e ao nível do documento.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ShaperSkill

Uma habilidade para remodelar as saídas. Cria um tipo complexo para suportar campos compostos (também conhecidos como campos multipart).

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

ShingleTokenFilter

Cria combinações de tokens como um único token. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SimilarityAlgorithm
SnowballTokenFilter

Um filtro que escorria palavras utilizando um stemer gerado por bola de neve. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SoftDeleteColumnDeletionDetectionPolicy

Define uma política de deteção de eliminação de dados que implementa uma estratégia de eliminação recuperável. Determina se um item deve ser eliminado com base no valor de uma coluna designada "eliminação recuperável".

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SplitSkill

Uma competência para dividir uma cadeia em segmentos de texto.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

SqlIntegratedChangeTrackingPolicy

Define uma política de deteção de alteração de dados que captura alterações com a funcionalidade Controlo de Alterações Integrada da Base de Dados SQL do Azure.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de detenção por descrições personalizadas baseadas em dicionários. Quaisquer termos sem dicionário serão marcados como palavras-chave para que não sejam gerados com os stemmers na cadeia. Tem de ser colocado antes de quaisquer filtros de deteção. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure.

StemmerTokenFilter

Filtro de deteção específico da linguagem. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

StopAnalyzer

Divide texto em não letras; Aplica os filtros de token de palavras-passe e minúsculas. Este analisador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

StopwordsTokenFilter

Remove palavras paradas de um fluxo de tokens. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

SuggestOptions

Grupo de parâmetros.

SynonymMap

Representa uma definição de mapa de sinónimos.

As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

SynonymTokenFilter

Corresponde a sinónimos de palavras individuais ou múltiplas num fluxo de tokens. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia que correspondem a uma determinada lista de etiquetas.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TagScoringParameters

Fornece valores de parâmetros para uma função de classificação de etiquetas.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TextTranslationSkill

Uma competência para traduzir texto de um idioma para outro.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TextWeights

Define os pesos nos campos de índice para os quais as correspondências devem aumentar a classificação nas consultas de pesquisa.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TokenFilter

Tipo de base para filtros de tokens.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: AsciiFoldingTokenFilter, CjkBigramTokenFilter, CommonGramTokenFilter, DictionaryDecompounderTokenFilter, EdgeNGramTokenFilter, EdgeNGramTokenFilterV2, ElisionTokenFilter, KeepTokenFilter, KeywordMarkerTokenFilter, LengthTokenFilter, LimitTokenFilter, NGramTokenFilter, NGramTokenFilterV2, PatternCaptureTokenFilter, PatternReplaceTokenFilter, PhoneticTokenFilter, ShingleTokenFilter, SnowballTokenFilter, StemmerOverrideTokenFilter, StemmerTokenFilter, StopwordsTokenFilter, SynonymTokenFilter, TruncateTokenFilter, UniqueTokenFilter, WordDelimiterTokenFilter

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

UaxUrlEmailTokenizer

Tokenize urls e e-mails como um token. Este tokenizador é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

UniqueTokenFilter

Filtra tokens com o mesmo texto que o token anterior. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

VectorSearch

Contém opções de configuração relacionadas com a pesquisa de vetores.

VectorSearchAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo utilizado durante a indexação ou consulta.

É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: ExhaustiveKnnAlgorithmConfiguration, HnswAlgorithmConfiguration

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

VectorSearchProfile

Define uma combinação de configurações a utilizar com a pesquisa de vetores.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

WebApiSkill

Uma competência que pode chamar um ponto final da API Web, permitindo-lhe expandir um conjunto de competências ao fazer com que este chame o seu código personalizado.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

WordDelimiterTokenFilter

Divide palavras em sub-palavras e efetua transformações opcionais em grupos de sub-palavras. Este filtro de token é implementado com o Apache Lucene.

Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure.

Enumerações

BlobIndexerDataToExtract

Especifica os dados a extrair do armazenamento de blobs do Azure e indica ao indexador quais os dados a extrair do conteúdo da imagem quando "imageAction" está definido para um valor diferente de "nenhum". Isto aplica-se a conteúdos de imagens incorporadas num .PDF ou noutra aplicação, ou ficheiros de imagem, como .jpg e .png, nos blobs do Azure.

BlobIndexerImageAction

Determina como processar imagens incorporadas e ficheiros de imagem no armazenamento de blobs do Azure. Definir a configuração "imageAction" para qualquer valor diferente de "nenhum" requer que um conjunto de competências também seja anexado a esse indexador.

BlobIndexerParsingMode

Representa o modo de análise para indexação a partir de uma origem de dados de blobs do Azure.

CharFilterName

Define os nomes de todos os filtros de carateres suportados pelo motor de busca.

CustomEntityLookupSkillLanguage

Os códigos de idioma suportados para texto de entrada por CustomEntityLookupSkill.

EdgeNGramTokenFilterSide

Especifica a partir de que lado da entrada deve ser gerado um n-grama.

EntityCategory

Uma cadeia que indica as categorias de entidade a devolver.

EntityRecognitionSkillLanguage

Os códigos de idioma suportados para texto de entrada por EntityRecognitionSkill.

EntityRecognitionSkillVersion

Especifica a versão de competência do Reconhecimento de Entidades a utilizar.

ImageAnalysisSkillLanguage

Os códigos de idioma suportados para entrada por ImageAnalysisSkill.

ImageDetail

Uma cadeia que indica os detalhes específicos do domínio a devolver.

IndexerExecutionStatus

Representa o estado de uma execução de indexador individual.

IndexerStatus

Representa o estado geral do indexador.

KeyPhraseExtractionSkillLanguage

Os códigos de idioma suportados para texto de entrada por KeyPhraseExtractionSkill.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo motor de busca.

LexicalTokenizerName

Define os nomes de todos os tokenizers suportados pelo motor de busca.

MicrosoftStemmingTokenizerLanguage

Lista os idiomas suportados pelo tokenizer de idioma da Microsoft.

MicrosoftTokenizerLanguage

Lista os idiomas suportados pelo tokenizador de idioma da Microsoft.

OcrSkillLanguage

Os códigos de idioma suportados para entrada por OcrSkill.

PIIDetectionSkillMaskingMode

Uma cadeia que indica o maskingMode a utilizar para mascarar as informações pessoais detetadas no texto de entrada.

PhoneticEncoder

Identifica o tipo de codificador fonético a utilizar com um PhoneticTokenFilter.

RegexFlags

Define sinalizadores que podem ser combinados para controlar a forma como as expressões regulares são utilizadas no analisador de padrões e no tokenizador de padrões.

ScoringFunctionAggregation

Define a função de agregação utilizada para combinar os resultados de todas as funções de classificação num perfil de classificação.

ScoringFunctionInterpolation

Define a função utilizada para interpolar o aumento da classificação num intervalo de documentos.

SearchIndexerDataSourceType

Define o tipo de uma origem de dados.

SentimentSkillLanguage

Os códigos de idioma suportados para texto de entrada por SentimentSkill.

SentimentSkillVersion

Especifica a versão de Competência de Sentimento a utilizar.

SnowballTokenFilterLanguage

O idioma a utilizar para um filtro de token snowball.

SplitSkillLanguage

Os códigos de idioma suportados para texto de entrada por SplitSkill.

StemmerTokenFilterLanguage

O idioma a utilizar para um filtro de token de stemmer.

StopwordsList

Identifica uma lista predefinida de palavras-passe específicas do idioma.

TextSplitMode

Um valor que indica o modo de divisão a executar.

TextTranslationSkillLanguage

Os códigos de idioma suportados para texto de entrada por TextTranslationSkill.

TokenCharacterKind

Representa classes de carateres nos quais um filtro de token pode funcionar.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo motor de busca.

VectorSearchAlgorithmKind

O algoritmo utilizado para indexar e consultar.

VectorSearchAlgorithmMetric

A métrica de semelhança a utilizar para comparações de vetores.

VisualFeature

As cadeias que indicam os tipos de funcionalidades visuais a devolver.

Funções

ComplexField

Configurar um campo de coleção Complexo ou Complexo para um Índice do Azure Search

ComplexField(**kw: Any) -> SearchField

Parâmetros Só de Palavra-Chave

Name Description
name
str

Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice.

collection

Se este campo complexo é uma coleção (falso predefinido)

fields
list[<xref:search_service_client.models.Field>]

Uma lista de sub-campos

SearchableField

Configurar um campo de texto pesquisável para um Índice do Azure Search

SearchableField(**kw: Any) -> SearchField

Parâmetros Só de Palavra-Chave

Name Description
name
str

Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice.

collection

Se este campo de pesquisa é uma coleção (falso predefinido)

key

Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice tem de ser escolhido como o campo de chave e tem de ser do tipo SearchFieldDataType.String. Os campos-chave podem ser utilizados para procurar documentos diretamente e atualizar ou eliminar documentos específicos. Predefinição é Falso

hidden

Um valor que indica se o campo pode ser devolvido num resultado de pesquisa. Pode ativar esta opção se quiser utilizar um campo (por exemplo, margem) como um filtro, ordenação ou mecanismo de classificação, mas não quiser que o campo seja visível para o utilizador final. Esta propriedade tem de ser Falso para campos de chave. Esta propriedade pode ser alterada em campos existentes. Ativar esta propriedade não causa qualquer aumento nos requisitos de armazenamento de índices. A predefinição é Falso.

searchable

Um valor que indica se o campo é pesquisável em texto completo. Isto significa que será submetido a análises como quebra de palavras durante a indexação. Se definir um campo pesquisável para um valor como "sunny day", será dividido internamente nos tokens individuais "sunny" e "day". Isto permite pesquisas em texto completo para estes termos. Nota: os campos pesquisáveis consomem espaço extra no índice, uma vez que Azure Cognitive Search irá armazenar uma versão token adicional do valor do campo para pesquisas de texto completo. Se quiser poupar espaço no índice e não precisar que um campo seja incluído nas pesquisas, defina pesquisável como falso. A predefinição é Verdadeiro.

filterable

Um valor que indica se pretende ativar o campo para ser referenciado em consultas $filter. filtráveis difere do pesquisável na forma como as cadeias são processadas. Os campos filtráveis não são submetidos a quebras de palavras, pelo que as comparações destinam-se apenas a correspondências exatas. Por exemplo, se definir tal campo f como "dia ensolarado", $filter=f eq 'sunny' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. A predefinição é Falso.

sortable

Um valor que indica se pretende ativar o campo para ser referenciado em expressões $orderby. Por predefinição, Azure Cognitive Search ordena os resultados por classificação, mas em muitas experiências os utilizadores vão querer ordenar por campos nos documentos. A predefinição é Falso.

facetable

Um valor que indica se pretende ativar o campo para ser referenciado em consultas facetas. Normalmente utilizado numa apresentação de resultados de pesquisa que inclui a contagem de resultados por categoria (por exemplo, procure câmaras digitais e veja acessos por marca, por megapixéis, por preço e assim por diante). A predefinição é Falso.

analyzer_name
str ou <xref:azure.search.documents.indexes.models.AnalyzerName>

O nome do analisador a utilizar para o campo. Esta opção não pode ser definida em conjunto com searchAnalyzer ou indexAnalyzer. Uma vez escolhido o analisador, não pode ser alterado para o campo. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh- Hans.microsoft', 'zh-Hans.lucene', 'zh-Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', 'pt- PT.microsoft', 'pt-PT.lucene', 'pa.microsoft', 'ro.microsoft', 'ro.lucene', 'ru.microsoft', 'ru.lucene', 'sr-cyrillic.microsoft', 'sr-latin.microsoft', 'sk.microsoft', 'sl.microsoft', 'es.microsoft', 'es.lucene', 'sv.microsoft', 'sv.microsoft', 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'.

search_analyzer_name
str ou <xref:azure.search.documents.indexes.models.AnalyzerName>

O nome do analisador utilizado no momento da pesquisa para o campo. Tem de ser definido em conjunto com indexAnalyzer e não pode ser definido em conjunto com a opção analisador. Esta propriedade não pode ser definida como o nome de um analisador de idiomas; utilize a propriedade analyzer se precisar de um analisador de idiomas. Este analisador pode ser atualizado num campo existente. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh-Hans.microsoft', 'zh-Hans.lucene', 'zh- Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', ' pt-PT.microsoft", "pt-PT.lucene", "pa.microsoft", "ro.microsoft", "ro.lucene", "ru.microsoft", "ru.lucene", "sr- cyrillic.microsoft", "sr-latin.microsoft", "sk.microsoft", "sl.microsoft", "es.microsoft", "es.lucene", "sv.microsoft", "sv.microsoft" 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'.

index_analyzer_name
str ou <xref:azure.search.documents.indexes.models.AnalyzerName>

O nome do analisador utilizado no momento da indexação do campo. Tem de ser definido em conjunto com searchAnalyzer e não pode ser definido em conjunto com a opção analisador. Esta propriedade não pode ser definida como o nome de um analisador de idiomas; utilize a propriedade analyzer se precisar de um analisador de idiomas. Uma vez escolhido o analisador, não pode ser alterado para o campo. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh-Hans.microsoft', 'zh- Hans.lucene', 'zh-Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', ' pt-PT.microsoft", "pt-PT.lucene", "pa.microsoft", "ro.microsoft", "ro.lucene", "ru.microsoft", "ru.lucene", "sr- cyrillic.microsoft", "sr-latin.microsoft", "sk.microsoft", "sl.microsoft", "es.microsoft", "es.lucene", "sv.microsoft", "sv.microsoft" 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'.

synonym_map_names

Uma lista dos nomes dos mapas de sinónimos a associar a este campo. Atualmente, apenas é suportado um mapa de sinónimos por campo. Atribuir um mapa de sinónimos a um campo garante que os termos de consulta direcionados para esse campo são expandidos no momento da consulta com as regras no mapa de sinónimos. Este atributo pode ser alterado em campos existentes.

SimpleField

Configurar um campo simples para um Índice do Azure Search

SimpleField(**kw: Any) -> SearchField

Parâmetros Só de Palavra-Chave

Name Description
name
str

Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice.

type

Obrigatório. O tipo de dados do campo. Os valores possíveis incluem: SearchFieldDataType.String, SearchFieldDataType.Int32, SearchFieldDataType.Int64, SearchFieldDataType.Double, SearchFieldDataType.Boolean, SearchFieldDataType.DateTimeOffset, SearchFieldDataType.GeographyPoint, SearchFieldDataType.ComplexType, de azure.search.documents.SearchFieldDataType. :p aramtype tipo: str

key

Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice tem de ser escolhido como o campo de chave e tem de ser do tipo SearchFieldDataType.String. Os campos-chave podem ser utilizados para procurar documentos diretamente e atualizar ou eliminar documentos específicos. Predefinição é Falso

hidden

Um valor que indica se o campo pode ser devolvido num resultado de pesquisa. Pode ativar esta opção se quiser utilizar um campo (por exemplo, margem) como um filtro, ordenação ou mecanismo de classificação, mas não quiser que o campo seja visível para o utilizador final. Esta propriedade tem de ser Falso para campos de chave. Esta propriedade pode ser alterada em campos existentes. Ativar esta propriedade não causa qualquer aumento nos requisitos de armazenamento de índices. A predefinição é Falso.

filterable

Um valor que indica se pretende ativar o campo para ser referenciado em consultas $filter. filtráveis difere do pesquisável na forma como as cadeias são processadas. Os campos do tipo SearchFieldDataType.String ou Collection(SearchFieldDataType.String) que são filtráveis não são submetidos a quebra de palavras, pelo que as comparações destinam-se apenas a correspondências exatas. Por exemplo, se definir tal campo f como "dia ensolarado", $filter=f eq 'sunny' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. Esta propriedade tem de ser nula para campos complexos. Predefinição é Falso

sortable

Um valor que indica se pretende ativar o campo para ser referenciado em expressões $orderby. Por predefinição, Azure Cognitive Search ordena os resultados por classificação, mas em muitas experiências os utilizadores vão querer ordenar por campos nos documentos. Um campo simples só pode ser ordenado se for de valor único (tem um único valor no âmbito do documento principal). Os campos de coleção simples não podem ser ordenados, uma vez que têm valores múltiplos. Os sub-campos simples de coleções complexas também têm valores múltiplos e, por conseguinte, não podem ser ordenados. Isto é verdade, quer seja um campo principal imediato, ou um campo ancestral, essa é a coleção complexa. A predefinição é Falso.

facetable

Um valor que indica se pretende ativar o campo para ser referenciado em consultas facetas. Normalmente utilizado numa apresentação de resultados de pesquisa que inclui a contagem de resultados por categoria (por exemplo, procure câmaras digitais e veja acessos por marca, por megapixéis, por preço e assim por diante). Os campos do tipo SearchFieldDataType.GeographyPoint ou Collection(SearchFieldDataType.GeographyPoint) não podem ser facetáveis. A predefinição é Falso.