models Pacote
Classes
AnalyzeResult |
O resultado do teste de um analisador em texto. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
AnalyzeTextOptions |
Especifica alguns componentes de texto e análise utilizados para dividir esse texto em tokens. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
AnalyzedTokenInfo |
Informações sobre um token devolvido por um analisador. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
AsciiFoldingTokenFilter |
Converte carateres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 carateres ASCII (o bloco Unicode "Latim Básico") nos respetivos equivalentes ASCII, se existirem esses equivalentes. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
BM25SimilarityAlgorithm | |
CharFilter |
Tipo base para filtros de carateres. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: MappingCharFilter, PatternReplaceCharFilter Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CjkBigramTokenFilter |
Forma bigrams de termos CJK que são gerados a partir do tokenizer padrão. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ClassicSimilarityAlgorithm | |
ClassicTokenizer |
Tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CognitiveServicesAccount |
Tipo base para descrever qualquer recurso do serviço de IA do Azure anexado a um conjunto de competências. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: CognitiveServicesAccountKey, DefaultCognitiveServicesAccount Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CognitiveServicesAccountKey |
Um recurso do serviço de IA do Azure aprovisionado com uma chave anexada a um conjunto de competências. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CommonGramTokenFilter |
Construa bigrams para termos que ocorrem frequentemente durante a indexação. Os termos únicos também são indexados, com bigrams sobrepostos. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ConditionalSkill |
Uma competência que permite cenários que requerem uma operação Booleana para determinar os dados a atribuir a uma saída. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CorsOptions |
Define opções para controlar a Partilha de Recursos De Várias Origens (CORS) para um índice. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CustomAnalyzer |
Permite-lhe assumir o controlo do processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo utilizador que consiste num único tokenizador predefinido e um ou mais filtros. O tokenizer é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CustomEntityAlias |
Um objeto complexo que pode ser utilizado para especificar ortografias alternativas ou sinónimos para o nome da entidade raiz. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
CustomEntityLookupSkill |
Uma competência procura texto de uma lista personalizada definida pelo utilizador de palavras e expressões. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DataChangeDetectionPolicy |
Tipo base para políticas de deteção de alteração de dados. É provável que queira utilizar as subclasses e não esta classe diretamente. As subclasses conhecidas são: HighWaterMarkChangeDetectionPolicy, SqlIntegratedChangeTrackingPolicy Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DataDeletionDetectionPolicy |
Tipo base para políticas de deteção de eliminação de dados. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: SoftDeleteColumnDeletionDetectionPolicy Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso predefinido do serviço de IA do Azure para um conjunto de competências. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DistanceScoringParameters |
Fornece valores de parâmetros para uma função de classificação de distância. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
DocumentExtractionSkill |
Uma competência que extrai conteúdo de um ficheiro no pipeline de melhoramento. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
EdgeNGramTokenFilter |
Gera n-gramas do(s) tamanho(s) especificado(s) a partir da parte frontal ou traseira de um token de entrada. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
EdgeNGramTokenizer |
Tokens the input from an edge into n-grams of the given size(s). Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (plano). Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
EntityLinkingSkill |
Com a API Análise de Texto, extrai entidades ligadas do texto. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
EntityRecognitionSkill |
Com a API Análise de Texto, extrai entidades de diferentes tipos de texto. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo KNN exaustivo utilizado durante a consulta, que irá realizar pesquisas de força bruta em todo o índice de vetor. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ExhaustiveKnnParameters |
Contém os parâmetros específicos do algoritmo KNN exaustivo. |
FieldMapping |
Define um mapeamento entre um campo numa origem de dados e um campo de destino num índice. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
FieldMappingFunction |
Representa uma função que transforma um valor de uma origem de dados antes da indexação. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data/hora. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
FreshnessScoringParameters |
Fornece valores de parâmetros para uma função de classificação de atualização. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
GetIndexStatisticsResult |
Estatísticas de um determinado índice. As estatísticas são recolhidas periodicamente e não estão sempre atualizadas. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de deteção de alterações de dados que captura alterações com base no valor de uma coluna de marca de água elevada. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
HnswAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo HNSW aproximado dos vizinhos mais próximos utilizado durante a indexação e consulta. O algoritmo HNSW oferece uma troca atumável entre a velocidade de pesquisa e a precisão. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
HnswParameters |
Contém os parâmetros específicos do algoritmo HNSW. |
ImageAnalysisSkill |
Uma competência que analisa ficheiros de imagem. Extrai um conjunto avançado de funcionalidades visuais com base no conteúdo da imagem. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
IndexingParameters |
Representa parâmetros para a execução do indexador. |
IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor tem de ser de um tipo primitivo. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
InputFieldMappingEntry |
Mapeamento de campos de entrada para uma competência. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
KeepTokenFilter |
Um filtro de token que apenas mantém tokens com texto contido numa lista especificada de palavras. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
KeyPhraseExtractionSkill |
Uma competência que utiliza a análise de texto para a extração de expressões-chave. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
KeywordMarkerTokenFilter |
Marca os termos como palavras-chave. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
KeywordTokenizer | |
LanguageDetectionSkill |
Uma competência que deteta o idioma do texto de entrada e comunica um único código de idioma para cada documento submetido no pedido. O código de idioma é emparelhado com uma classificação que indica a confiança da análise. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LengthTokenFilter |
Remove palavras demasiado longas ou demasiado curtas. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LexicalAnalyzer |
Tipo base para analisadores. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: CustomAnalyzer, PatternAnalyzer, LuceneStandardAnalyzer, StopAnalyzer Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LexicalTokenizer |
Tipo base para tokenizers. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: ClassicTokenizer, EdgeNGramTokenizer, KeywordTokenizer, KeywordTokenizerV2, MicrosoftLanguageStemmingTokenizer, MicrosoftLanguageTokenizer, NGramTokenizer, PathHierarchyTokenizerV2, PatternTokenizer, LuceneStandardTokenizer, LuceneStandardTokenizerV2, UaxUrlEmailTokenizer Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LuceneStandardAnalyzer |
Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em minúsculas e filtro de paragem. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
LuceneStandardTokenizer |
Quebra o texto ao seguir as regras de Segmentação de Texto Unicode. Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MagnitudeScoringParameters |
Fornece valores de parâmetros para uma função de classificação de magnitude. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MappingCharFilter |
Um filtro de carateres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (o padrão mais longo que corresponde a um determinado ponto ganha). A substituição pode ser a cadeia vazia. Este filtro de carateres é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MergeSkill |
Uma competência para unir duas ou mais cadeias numa única cadeia unificada, com um delimitador opcional definido pelo utilizador a separar cada parte do componente. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MicrosoftLanguageStemmingTokenizer |
Divide o texto com regras específicas do idioma e reduz as palavras aos formulários base. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
MicrosoftLanguageTokenizer |
Divide o texto com regras específicas do idioma. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
NGramTokenFilter |
Gera n-gramas dos tamanhos especificados. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
NGramTokenizer |
Tokeniza a entrada em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
OcrSkill |
Uma competência que extrai texto de ficheiros de imagem. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
OutputFieldMappingEntry |
Mapeamento de campos de saída para uma competência. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
PIIDetectionSkill |
Com a API Análise de Texto, extrai informações pessoais de um texto de entrada e dá-lhe a opção de mascará-las. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
PathHierarchyTokenizer | |
PatternAnalyzer |
Separa de forma flexível o texto em termos através de uma expressão normal. Este analisador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
PatternCaptureTokenFilter |
Utiliza regexes Java para emitir vários tokens - um para cada grupo de captura num ou mais padrões. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
PatternReplaceCharFilter |
Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de carateres é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
PatternReplaceTokenFilter |
Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres a preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, tendo em conta o texto de entrada "aa bb aa bb", o padrão "(aa)s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
PatternTokenizer |
Tokenizer que utiliza a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
PhoneticTokenFilter |
Criar tokens para correspondências fonéticas. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ScoringFunction |
Tipo base para funções que podem modificar as classificações dos documentos durante a classificação. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: DistanceScoringFunction, FreshnessScoringFunction, MagnitudeScoringFunction, TagScoringFunction Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influencia a classificação em consultas de pesquisa. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchField |
Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexer |
Representa um indexador. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerDataContainer |
Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerDataSourceConnection |
Representa uma definição de ligação de origem de dados, que pode ser utilizada para configurar um indexador. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerError |
Representa um erro de indexação ao nível do item ou do documento. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerKnowledgeStore |
Definição de projeções adicionais para blobs, tabelas ou ficheiros do Azure de dados melhorados. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para partilhar propriedades entre seletores de betão. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para que dados armazenar no Ficheiros do Azure. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para que dados armazenar no Blob do Azure. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerKnowledgeStoreProjection |
Objeto de contentor para vários seletores de projeção. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para partilhar propriedades entre seletores de betão. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição dos dados a armazenar nas Tabelas do Azure. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerLimits |
SearchIndexerLimits. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. |
SearchIndexerSkill |
Tipo base para competências. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: WebApiSkill, CustomEntityLookupSkill, EntityRecognitionSkill, KeyPhraseExtractionSkill, LanguageDetectionSkill, MergeSkill, PIIDetectionSkill, SentimentSkill, SplitSkill, TextTranslationSkill, EntityLinkingSkill, EntityRecognitionSkillV3, SentimentSkillV3, ConditionalSkill, DocumentExtractionSkill, ShaperSkill, ImageAnalysisSkill, OcrSkill Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerSkillset |
Uma lista de competências. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerStatus |
Representa o estado atual e o histórico de execuções de um indexador. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchIndexerWarning |
Representa um aviso ao nível do item. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchResourceEncryptionKey |
Uma chave de encriptação gerida pelo cliente no Azure Key Vault. As chaves que cria e gere podem ser utilizadas para encriptar ou desencriptar dados inativos em Azure Cognitive Search, como índices e mapas de sinónimos. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SearchSuggester | |
SemanticConfiguration |
Define uma configuração específica a ser utilizada no contexto das capacidades semânticas. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SemanticField |
Um campo que é utilizado como parte da configuração semântica. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a utilizar para classificação semântica, legendas, destaques e respostas. |
SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam as capacidades semânticas. |
SentimentSkill |
V1: análise de sentimento positivo-negativo da análise de texto, classificada como um valor de vírgula flutuante num intervalo de zero a 1. V3: a utilização da API Análise de Texto, avalia o texto não estruturado e, para cada registo, fornece etiquetas de sentimento (como "negativo", "neutro" e "positivo") com base na classificação de confiança mais elevada encontrada pelo serviço a uma frase e ao nível do documento. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ShaperSkill |
Uma habilidade para remodelar as saídas. Cria um tipo complexo para suportar campos compostos (também conhecidos como campos multipart). Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SimilarityAlgorithm | |
SnowballTokenFilter |
Um filtro que escorria palavras utilizando um stemer gerado por bola de neve. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de deteção de eliminação de dados que implementa uma estratégia de eliminação recuperável. Determina se um item deve ser eliminado com base no valor de uma coluna designada "eliminação recuperável". Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SplitSkill |
Uma competência para dividir uma cadeia em segmentos de texto. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
SqlIntegratedChangeTrackingPolicy |
Define uma política de deteção de alteração de dados que captura alterações com a funcionalidade Controlo de Alterações Integrada da Base de Dados SQL do Azure. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de detenção por descrições personalizadas baseadas em dicionários. Quaisquer termos sem dicionário serão marcados como palavras-chave para que não sejam gerados com os stemmers na cadeia. Tem de ser colocado antes de quaisquer filtros de deteção. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para enviar para o Azure. |
StemmerTokenFilter |
Filtro de deteção específico da linguagem. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
StopAnalyzer |
Divide texto em não letras; Aplica os filtros de token de palavras-passe e minúsculas. Este analisador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
StopwordsTokenFilter |
Remove palavras paradas de um fluxo de tokens. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
SuggestOptions |
Grupo de parâmetros. |
SynonymMap |
Representa uma definição de mapa de sinónimos. As variáveis só são preenchidas pelo servidor e serão ignoradas ao enviar um pedido. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
SynonymTokenFilter |
Corresponde a sinónimos de palavras individuais ou múltiplas num fluxo de tokens. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia que correspondem a uma determinada lista de etiquetas. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TagScoringParameters |
Fornece valores de parâmetros para uma função de classificação de etiquetas. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TextTranslationSkill |
Uma competência para traduzir texto de um idioma para outro. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TextWeights |
Define os pesos nos campos de índice para os quais as correspondências devem aumentar a classificação nas consultas de pesquisa. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TokenFilter |
Tipo de base para filtros de tokens. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: AsciiFoldingTokenFilter, CjkBigramTokenFilter, CommonGramTokenFilter, DictionaryDecompounderTokenFilter, EdgeNGramTokenFilter, EdgeNGramTokenFilterV2, ElisionTokenFilter, KeepTokenFilter, KeywordMarkerTokenFilter, LengthTokenFilter, LimitTokenFilter, NGramTokenFilter, NGramTokenFilterV2, PatternCaptureTokenFilter, PatternReplaceTokenFilter, PhoneticTokenFilter, ShingleTokenFilter, SnowballTokenFilter, StemmerOverrideTokenFilter, StemmerTokenFilter, StopwordsTokenFilter, SynonymTokenFilter, TruncateTokenFilter, UniqueTokenFilter, WordDelimiterTokenFilter Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
TruncateTokenFilter |
Trunca os termos para um comprimento específico. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
UaxUrlEmailTokenizer |
Tokenize urls e e-mails como um token. Este tokenizador é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
UniqueTokenFilter |
Filtra tokens com o mesmo texto que o token anterior. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
VectorSearch |
Contém opções de configuração relacionadas com a pesquisa de vetores. |
VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo utilizado durante a indexação ou consulta. É provável que queira utilizar as subclasses e não esta classe diretamente. As sub classes conhecidas são: ExhaustiveKnnAlgorithmConfiguration, HnswAlgorithmConfiguration Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
VectorSearchProfile |
Define uma combinação de configurações a utilizar com a pesquisa de vetores. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
WebApiSkill |
Uma competência que pode chamar um ponto final da API Web, permitindo-lhe expandir um conjunto de competências ao fazer com que este chame o seu código personalizado. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
WordDelimiterTokenFilter |
Divide palavras em sub-palavras e efetua transformações opcionais em grupos de sub-palavras. Este filtro de token é implementado com o Apache Lucene. Todos os parâmetros necessários têm de ser preenchidos para serem enviados para o Azure. |
Enumerações
BlobIndexerDataToExtract |
Especifica os dados a extrair do armazenamento de blobs do Azure e indica ao indexador quais os dados a extrair do conteúdo da imagem quando "imageAction" está definido para um valor diferente de "nenhum". Isto aplica-se a conteúdos de imagens incorporadas num .PDF ou noutra aplicação, ou ficheiros de imagem, como .jpg e .png, nos blobs do Azure. |
BlobIndexerImageAction |
Determina como processar imagens incorporadas e ficheiros de imagem no armazenamento de blobs do Azure. Definir a configuração "imageAction" para qualquer valor diferente de "nenhum" requer que um conjunto de competências também seja anexado a esse indexador. |
BlobIndexerParsingMode |
Representa o modo de análise para indexação a partir de uma origem de dados de blobs do Azure. |
CharFilterName |
Define os nomes de todos os filtros de carateres suportados pelo motor de busca. |
CustomEntityLookupSkillLanguage |
Os códigos de idioma suportados para texto de entrada por CustomEntityLookupSkill. |
EdgeNGramTokenFilterSide |
Especifica a partir de que lado da entrada deve ser gerado um n-grama. |
EntityCategory |
Uma cadeia que indica as categorias de entidade a devolver. |
EntityRecognitionSkillLanguage |
Os códigos de idioma suportados para texto de entrada por EntityRecognitionSkill. |
EntityRecognitionSkillVersion |
Especifica a versão de competência do Reconhecimento de Entidades a utilizar. |
ImageAnalysisSkillLanguage |
Os códigos de idioma suportados para entrada por ImageAnalysisSkill. |
ImageDetail |
Uma cadeia que indica os detalhes específicos do domínio a devolver. |
IndexerExecutionStatus |
Representa o estado de uma execução de indexador individual. |
IndexerStatus |
Representa o estado geral do indexador. |
KeyPhraseExtractionSkillLanguage |
Os códigos de idioma suportados para texto de entrada por KeyPhraseExtractionSkill. |
LexicalAnalyzerName |
Define os nomes de todos os analisadores de texto suportados pelo motor de busca. |
LexicalTokenizerName |
Define os nomes de todos os tokenizers suportados pelo motor de busca. |
MicrosoftStemmingTokenizerLanguage |
Lista os idiomas suportados pelo tokenizer de idioma da Microsoft. |
MicrosoftTokenizerLanguage |
Lista os idiomas suportados pelo tokenizador de idioma da Microsoft. |
OcrSkillLanguage |
Os códigos de idioma suportados para entrada por OcrSkill. |
PIIDetectionSkillMaskingMode |
Uma cadeia que indica o maskingMode a utilizar para mascarar as informações pessoais detetadas no texto de entrada. |
PhoneticEncoder |
Identifica o tipo de codificador fonético a utilizar com um PhoneticTokenFilter. |
RegexFlags |
Define sinalizadores que podem ser combinados para controlar a forma como as expressões regulares são utilizadas no analisador de padrões e no tokenizador de padrões. |
ScoringFunctionAggregation |
Define a função de agregação utilizada para combinar os resultados de todas as funções de classificação num perfil de classificação. |
ScoringFunctionInterpolation |
Define a função utilizada para interpolar o aumento da classificação num intervalo de documentos. |
SearchIndexerDataSourceType |
Define o tipo de uma origem de dados. |
SentimentSkillLanguage |
Os códigos de idioma suportados para texto de entrada por SentimentSkill. |
SentimentSkillVersion |
Especifica a versão de Competência de Sentimento a utilizar. |
SnowballTokenFilterLanguage |
O idioma a utilizar para um filtro de token snowball. |
SplitSkillLanguage |
Os códigos de idioma suportados para texto de entrada por SplitSkill. |
StemmerTokenFilterLanguage |
O idioma a utilizar para um filtro de token de stemmer. |
StopwordsList |
Identifica uma lista predefinida de palavras-passe específicas do idioma. |
TextSplitMode |
Um valor que indica o modo de divisão a executar. |
TextTranslationSkillLanguage |
Os códigos de idioma suportados para texto de entrada por TextTranslationSkill. |
TokenCharacterKind |
Representa classes de carateres nos quais um filtro de token pode funcionar. |
TokenFilterName |
Define os nomes de todos os filtros de token suportados pelo motor de busca. |
VectorSearchAlgorithmKind |
O algoritmo utilizado para indexar e consultar. |
VectorSearchAlgorithmMetric |
A métrica de semelhança a utilizar para comparações de vetores. |
VisualFeature |
As cadeias que indicam os tipos de funcionalidades visuais a devolver. |
Funções
ComplexField
Configurar um campo de coleção Complexo ou Complexo para um Índice do Azure Search
ComplexField(**kw: Any) -> SearchField
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice. |
collection
|
Se este campo complexo é uma coleção (falso predefinido) |
fields
|
list[<xref:search_service_client.models.Field>]
Uma lista de sub-campos |
SearchableField
Configurar um campo de texto pesquisável para um Índice do Azure Search
SearchableField(**kw: Any) -> SearchField
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice. |
collection
|
Se este campo de pesquisa é uma coleção (falso predefinido) |
key
|
Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice tem de ser escolhido como o campo de chave e tem de ser do tipo SearchFieldDataType.String. Os campos-chave podem ser utilizados para procurar documentos diretamente e atualizar ou eliminar documentos específicos. Predefinição é Falso |
hidden
|
Um valor que indica se o campo pode ser devolvido num resultado de pesquisa. Pode ativar esta opção se quiser utilizar um campo (por exemplo, margem) como um filtro, ordenação ou mecanismo de classificação, mas não quiser que o campo seja visível para o utilizador final. Esta propriedade tem de ser Falso para campos de chave. Esta propriedade pode ser alterada em campos existentes. Ativar esta propriedade não causa qualquer aumento nos requisitos de armazenamento de índices. A predefinição é Falso. |
searchable
|
Um valor que indica se o campo é pesquisável em texto completo. Isto significa que será submetido a análises como quebra de palavras durante a indexação. Se definir um campo pesquisável para um valor como "sunny day", será dividido internamente nos tokens individuais "sunny" e "day". Isto permite pesquisas em texto completo para estes termos. Nota: os campos pesquisáveis consomem espaço extra no índice, uma vez que Azure Cognitive Search irá armazenar uma versão token adicional do valor do campo para pesquisas de texto completo. Se quiser poupar espaço no índice e não precisar que um campo seja incluído nas pesquisas, defina pesquisável como falso. A predefinição é Verdadeiro. |
filterable
|
Um valor que indica se pretende ativar o campo para ser referenciado em consultas $filter. filtráveis difere do pesquisável na forma como as cadeias são processadas. Os campos filtráveis não são submetidos a quebras de palavras, pelo que as comparações destinam-se apenas a correspondências exatas. Por exemplo, se definir tal campo f como "dia ensolarado", $filter=f eq 'sunny' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. A predefinição é Falso. |
sortable
|
Um valor que indica se pretende ativar o campo para ser referenciado em expressões $orderby. Por predefinição, Azure Cognitive Search ordena os resultados por classificação, mas em muitas experiências os utilizadores vão querer ordenar por campos nos documentos. A predefinição é Falso. |
facetable
|
Um valor que indica se pretende ativar o campo para ser referenciado em consultas facetas. Normalmente utilizado numa apresentação de resultados de pesquisa que inclui a contagem de resultados por categoria (por exemplo, procure câmaras digitais e veja acessos por marca, por megapixéis, por preço e assim por diante). A predefinição é Falso. |
analyzer_name
|
str ou
<xref:azure.search.documents.indexes.models.AnalyzerName>
O nome do analisador a utilizar para o campo. Esta opção não pode ser definida em conjunto com searchAnalyzer ou indexAnalyzer. Uma vez escolhido o analisador, não pode ser alterado para o campo. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh- Hans.microsoft', 'zh-Hans.lucene', 'zh-Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', 'pt- PT.microsoft', 'pt-PT.lucene', 'pa.microsoft', 'ro.microsoft', 'ro.lucene', 'ru.microsoft', 'ru.lucene', 'sr-cyrillic.microsoft', 'sr-latin.microsoft', 'sk.microsoft', 'sl.microsoft', 'es.microsoft', 'es.lucene', 'sv.microsoft', 'sv.microsoft', 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'. |
search_analyzer_name
|
str ou
<xref:azure.search.documents.indexes.models.AnalyzerName>
O nome do analisador utilizado no momento da pesquisa para o campo. Tem de ser definido em conjunto com indexAnalyzer e não pode ser definido em conjunto com a opção analisador. Esta propriedade não pode ser definida como o nome de um analisador de idiomas; utilize a propriedade analyzer se precisar de um analisador de idiomas. Este analisador pode ser atualizado num campo existente. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh-Hans.microsoft', 'zh-Hans.lucene', 'zh- Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', ' pt-PT.microsoft", "pt-PT.lucene", "pa.microsoft", "ro.microsoft", "ro.lucene", "ru.microsoft", "ru.lucene", "sr- cyrillic.microsoft", "sr-latin.microsoft", "sk.microsoft", "sl.microsoft", "es.microsoft", "es.lucene", "sv.microsoft", "sv.microsoft" 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'. |
index_analyzer_name
|
str ou
<xref:azure.search.documents.indexes.models.AnalyzerName>
O nome do analisador utilizado no momento da indexação do campo. Tem de ser definido em conjunto com searchAnalyzer e não pode ser definido em conjunto com a opção analisador. Esta propriedade não pode ser definida como o nome de um analisador de idiomas; utilize a propriedade analyzer se precisar de um analisador de idiomas. Uma vez escolhido o analisador, não pode ser alterado para o campo. Os valores possíveis incluem: "ar.microsoft", "ar.lucene", "hy.lucene", 'bn.microsoft', 'eu.lucene', 'bg.microsoft', 'bg.lucene', 'ca.microsoft', 'ca.lucene', 'zh-Hans.microsoft', 'zh- Hans.lucene', 'zh-Hant.microsoft', 'zh-Hant.lucene', 'hr.microsoft', 'cs.microsoft', 'cs.lucene', 'da.microsoft', 'da.lucene', 'nl.microsoft', 'nl.lucene', 'en.microsoft', 'en.lucene', 'et.microsoft', 'fi.microsoft', 'fi.lucene', 'fr.microsoft', 'fr.lucene', 'gl.lucene', 'de.microsoft', 'de.lucene', ' el.microsoft', 'el.lucene', 'gu.microsoft', 'he.microsoft', 'hi.microsoft', 'hi.lucene', 'hu.microsoft', 'hu.lucene', 'is.microsoft', 'id.microsoft', 'id.lucene', 'ga.lucene', 'it.microsoft', 'it.lucene', 'ja.microsoft', 'ja.lucene', 'kn.microsoft', 'kn.microsoft', 'ko.microsoft', 'ko.lucene', 'lv.microsoft', 'lv.lucene', 'lt.microsoft', 'ml.microsoft', 'ms.microsoft', 'mr.microsoft', 'nb.microsoft', 'no.lucene', 'fa.lucene', 'pl.microsoft', 'pl.lucene', 'pt-BR.microsoft', 'pt-BR.lucene', ' pt-PT.microsoft", "pt-PT.lucene", "pa.microsoft", "ro.microsoft", "ro.lucene", "ru.microsoft", "ru.lucene", "sr- cyrillic.microsoft", "sr-latin.microsoft", "sk.microsoft", "sl.microsoft", "es.microsoft", "es.lucene", "sv.microsoft", "sv.microsoft" 'sv.lucene', 'ta.microsoft', 'te.microsoft', 'th.microsoft', 'th.lucene', 'tr.microsoft', 'tr.lucene', 'uk.microsoft', 'your.microsoft', 'vi.microsoft', 'standard.lucene', 'standardasciifolding.lucene', 'keyword', 'pattern', 'simple', 'stop', ' espaço em branco'. |
synonym_map_names
|
Uma lista dos nomes dos mapas de sinónimos a associar a este campo. Atualmente, apenas é suportado um mapa de sinónimos por campo. Atribuir um mapa de sinónimos a um campo garante que os termos de consulta direcionados para esse campo são expandidos no momento da consulta com as regras no mapa de sinónimos. Este atributo pode ser alterado em campos existentes. |
SimpleField
Configurar um campo simples para um Índice do Azure Search
SimpleField(**kw: Any) -> SearchField
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
Obrigatório. O nome do campo, que tem de ser exclusivo na coleção de campos do campo principal ou índice. |
type
|
Obrigatório. O tipo de dados do campo. Os valores possíveis incluem: SearchFieldDataType.String, SearchFieldDataType.Int32, SearchFieldDataType.Int64, SearchFieldDataType.Double, SearchFieldDataType.Boolean, SearchFieldDataType.DateTimeOffset, SearchFieldDataType.GeographyPoint, SearchFieldDataType.ComplexType, de azure.search.documents.SearchFieldDataType. :p aramtype tipo: str |
key
|
Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice tem de ser escolhido como o campo de chave e tem de ser do tipo SearchFieldDataType.String. Os campos-chave podem ser utilizados para procurar documentos diretamente e atualizar ou eliminar documentos específicos. Predefinição é Falso |
hidden
|
Um valor que indica se o campo pode ser devolvido num resultado de pesquisa. Pode ativar esta opção se quiser utilizar um campo (por exemplo, margem) como um filtro, ordenação ou mecanismo de classificação, mas não quiser que o campo seja visível para o utilizador final. Esta propriedade tem de ser Falso para campos de chave. Esta propriedade pode ser alterada em campos existentes. Ativar esta propriedade não causa qualquer aumento nos requisitos de armazenamento de índices. A predefinição é Falso. |
filterable
|
Um valor que indica se pretende ativar o campo para ser referenciado em consultas $filter. filtráveis difere do pesquisável na forma como as cadeias são processadas. Os campos do tipo SearchFieldDataType.String ou Collection(SearchFieldDataType.String) que são filtráveis não são submetidos a quebra de palavras, pelo que as comparações destinam-se apenas a correspondências exatas. Por exemplo, se definir tal campo f como "dia ensolarado", $filter=f eq 'sunny' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. Esta propriedade tem de ser nula para campos complexos. Predefinição é Falso |
sortable
|
Um valor que indica se pretende ativar o campo para ser referenciado em expressões $orderby. Por predefinição, Azure Cognitive Search ordena os resultados por classificação, mas em muitas experiências os utilizadores vão querer ordenar por campos nos documentos. Um campo simples só pode ser ordenado se for de valor único (tem um único valor no âmbito do documento principal). Os campos de coleção simples não podem ser ordenados, uma vez que têm valores múltiplos. Os sub-campos simples de coleções complexas também têm valores múltiplos e, por conseguinte, não podem ser ordenados. Isto é verdade, quer seja um campo principal imediato, ou um campo ancestral, essa é a coleção complexa. A predefinição é Falso. |
facetable
|
Um valor que indica se pretende ativar o campo para ser referenciado em consultas facetas. Normalmente utilizado numa apresentação de resultados de pesquisa que inclui a contagem de resultados por categoria (por exemplo, procure câmaras digitais e veja acessos por marca, por megapixéis, por preço e assim por diante). Os campos do tipo SearchFieldDataType.GeographyPoint ou Collection(SearchFieldDataType.GeographyPoint) não podem ser facetáveis. A predefinição é Falso. |
Azure SDK for Python