ClassificationModels type
Definisce i valori per ClassificationModels.
KnownClassificationModels può essere usato in modo interscambiabile con ClassificationModels, questo enumerazione contiene i valori noti supportati dal servizio.
Valori noti supportati dal servizio
LogisticRegression: la regressione logistica è una tecnica di classificazione fondamentale.
Appartiene al gruppo di classificatori lineari ed è leggermente simile alla regressione polinomiale e lineare.
La regressione logistica è veloce e relativamente non complicata, ed è conveniente interpretare i risultati.
Anche se è essenzialmente un metodo per la classificazione binaria, può essere applicato anche ai problemi multiclasse.
SGD: SGD: la discesa della sfumatura stochastica è un algoritmo di ottimizzazione spesso usato nelle applicazioni di Machine Learning per trovare i parametri del modello che corrispondono alla migliore adatta tra gli output stimati e effettivi.
MultinomialNaiveBayes: il classificatore Naive Bayes multinomiale è adatto per la classificazione con caratteristiche discrete (ad esempio, i conteggi delle parole per la classificazione del testo).
La distribuzione multinomiale richiede normalmente i conteggi delle funzionalità integer. Tuttavia, in pratica, i conteggi frazionari, ad esempio tf-idf, possono funzionare anche.
BernoulliNaiveBayes: classificatore Naive Bayes per i modelli Bernoulli multivariati.
SVM: una macchina vettoriale di supporto (SVM) è un modello di Machine Learning con supervisione che usa algoritmi di classificazione per problemi di classificazione a due gruppi.
Dopo aver dato un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare nuovo testo.
LinearSVM: una macchina vettoriale di supporto (SVM) è un modello di Machine Learning con supervisione che usa algoritmi di classificazione per problemi di classificazione a due gruppi.
Dopo aver dato un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare nuovo testo.
La SVM lineare è ottimale quando i dati di input sono lineari, ad esempio, i dati possono essere facilmente classificati disegnando la linea dritta tra valori classificati in un grafico tracciato.
KNN: l'algoritmo K-nearest nears (KNN) usa 'feature similarity' per stimare i valori dei nuovi punti dati che significa ulteriormente che il nuovo punto dati verrà assegnato un valore in base alla corrispondenza con i punti del set di training.
DecisionTree: Gli alberi delle decisioni sono un metodo di apprendimento con supervisione non parametrica usato per le attività di classificazione e regressione.
L'obiettivo è creare un modello che stima il valore di una variabile di destinazione tramite l'apprendimento di regole decisionali semplici derivate dalle funzionalità dei dati.
RandomForest: la foresta casuale è un algoritmo di apprendimento con supervisione.
La "foresta" viene compilata, è un insieme di alberi decisionali, in genere sottoposti a training con il metodo "bagging".
L'idea generale del metodo di bagging è che una combinazione di modelli di apprendimento aumenta il risultato complessivo.
ExtremeRandomTrees: Extreme Trees è un algoritmo di Machine Learning completo che combina le stime di molti alberi decisionali. È correlato all'algoritmo di foresta casuale ampiamente usato.
LightGBM: LightGBM è un framework di aumento della sfumatura che usa algoritmi di apprendimento basati su albero.
GradientBoosting: la tecnica di transito degli studenti della settimana in un apprendimento forte è chiamata Boosting. Il processo dell'algoritmo di aumento della sfumatura funziona su questa teoria di esecuzione.
XGBoostClassifier: XGBoost: Algoritmo di aumento della sfumatura estrema. Questo algoritmo viene usato per i dati strutturati in cui i valori di colonna di destinazione possono essere suddivisi in valori di classe distinti.
type ClassificationModels = string