TorchSharpCatalog Klasse
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Sammlung von Erweiterungsmethoden für MulticlassClassificationCatalog.MulticlassClassificationTrainers zum Erstellen von Instanzen von TorchSharp-Trainerkomponenten.
public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
- Vererbung
-
TorchSharpCatalog
Hinweise
Dies erfordert zusätzliche NuGet-Abhängigkeiten, um eine Verknüpfung mit nativen TorchSharp-DLLs herzustellen. Weitere Informationen finden Sie unter ImageClassificationTrainer.
Methoden
EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column) |
Wertet bewertete Objekterkennungsdaten aus. |
NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) |
Optimieren eines Modells für die Erkennung benannter Entitäten. |
NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Optimieren sie ein NAS-BERT-Modell für die Erkennung benannter Entitäten. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) |
Veraltet.
Veraltet: Verwenden Sie stattdessen die NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) -Methode. |
NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Veraltet.
Veraltet: Verwenden Sie stattdessen die NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) -Methode. |
ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options) |
Optimieren eines Objekterkennungsmodells. |
ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32) |
Optimieren eines Objekterkennungsmodells. |
QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options) |
Optimieren sie ein ROBERTA-Modell für Frage und Antwort. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView) |
Optimieren sie ein ROBERTA-Modell für Frage und Antwort. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions) |
Optimieren eines NAS-BERT-Modells für NLP-Satzähnlichkeit. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Optimieren eines NAS-BERT-Modells für NLP-Satzähnlichkeit. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Optimieren eines NAS-BERT-Modells für die NLP-Klassifizierung. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |
TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions) |
Optimieren eines NAS-BERT-Modells für die NLP-Klassifizierung. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt. |