ClassicTokenizer Klasse
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in europäischer Sprache geeignet ist. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.
public class ClassicTokenizer : Azure.Search.Documents.Indexes.Models.LexicalTokenizer
type ClassicTokenizer = class
inherit LexicalTokenizer
Public Class ClassicTokenizer
Inherits LexicalTokenizer
- Vererbung
Konstruktoren
ClassicTokenizer(String) |
Initialisiert eine neue instance von ClassicTokenizer. |
Eigenschaften
MaxTokenLength |
Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen. |
Name |
Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein. (Geerbt von LexicalTokenizer) |