Freigeben über


TorchSharpCatalog Klasse

Definition

Sammlung von Erweiterungsmethoden für MulticlassClassificationCatalog.MulticlassClassificationTrainers zum Erstellen von Instanzen von TorchSharp-Trainerkomponenten.

public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
Vererbung
TorchSharpCatalog

Hinweise

Dies erfordert zusätzliche NuGet-Abhängigkeiten, um eine Verknüpfung mit nativen TorchSharp-DLLs herzustellen. Weitere Informationen finden Sie unter ImageClassificationTrainer.

Methoden

EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column)

Wertet bewertete Objekterkennungsdaten aus.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)

Optimieren eines Modells für die Erkennung benannter Entitäten.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Optimieren sie ein NAS-BERT-Modell für die Erkennung benannter Entitäten. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)
Veraltet.

Veraltet: Verwenden Sie stattdessen die NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) -Methode.

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)
Veraltet.

Veraltet: Verwenden Sie stattdessen die NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) -Methode.

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options)

Optimieren eines Objekterkennungsmodells.

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32)

Optimieren eines Objekterkennungsmodells.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options)

Optimieren sie ein ROBERTA-Modell für Frage und Antwort. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView)

Optimieren sie ein ROBERTA-Modell für Frage und Antwort. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions)

Optimieren eines NAS-BERT-Modells für NLP-Satzähnlichkeit. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Optimieren eines NAS-BERT-Modells für NLP-Satzähnlichkeit. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Optimieren eines NAS-BERT-Modells für die NLP-Klassifizierung. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions)

Optimieren eines NAS-BERT-Modells für die NLP-Klassifizierung. Der Grenzwert für einen Satz beträgt 512 Token. Jedes Wort wird in der Regel einem einzelnen Token zugeordnet, und wir fügen automatisch 2 spezische Token (ein Starttoken und ein Trennzeichentoken) hinzu, sodass dieser Grenzwert im Allgemeinen bei 510 Wörtern für alle Sätze liegt.

Gilt für: