Condividi tramite


ClassificationModels type

Definisce i valori per ClassificationModels.
KnownClassificationModels può essere usato in modo interscambiabile con ClassificationModels, questo enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

LogisticRegression: la regressione logistica è una tecnica di classificazione fondamentale. Appartiene al gruppo di classificatori lineari ed è leggermente simile alla regressione polinomiale e lineare. La regressione logistica è veloce e relativamente non complicata, ed è conveniente interpretare i risultati. Anche se è essenzialmente un metodo per la classificazione binaria, può essere applicato anche ai problemi multiclasse.
SGD: SGD: la discesa della sfumatura stochastica è un algoritmo di ottimizzazione spesso usato nelle applicazioni di Machine Learning per trovare i parametri del modello che corrispondono alla migliore adatta tra gli output stimati e effettivi.
MultinomialNaiveBayes: il classificatore Naive Bayes multinomiale è adatto per la classificazione con caratteristiche discrete (ad esempio, i conteggi delle parole per la classificazione del testo). La distribuzione multinomiale richiede normalmente i conteggi delle funzionalità integer. Tuttavia, in pratica, i conteggi frazionari, ad esempio tf-idf, possono funzionare anche.
BernoulliNaiveBayes: classificatore Naive Bayes per i modelli Bernoulli multivariati.
SVM: una macchina vettoriale di supporto (SVM) è un modello di Machine Learning con supervisione che usa algoritmi di classificazione per problemi di classificazione a due gruppi. Dopo aver dato un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare nuovo testo.
LinearSVM: una macchina vettoriale di supporto (SVM) è un modello di Machine Learning con supervisione che usa algoritmi di classificazione per problemi di classificazione a due gruppi. Dopo aver dato un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare nuovo testo. La SVM lineare è ottimale quando i dati di input sono lineari, ad esempio, i dati possono essere facilmente classificati disegnando la linea dritta tra valori classificati in un grafico tracciato.
KNN: l'algoritmo K-nearest nears (KNN) usa 'feature similarity' per stimare i valori dei nuovi punti dati che significa ulteriormente che il nuovo punto dati verrà assegnato un valore in base alla corrispondenza con i punti del set di training.
DecisionTree: Gli alberi delle decisioni sono un metodo di apprendimento con supervisione non parametrica usato per le attività di classificazione e regressione. L'obiettivo è creare un modello che stima il valore di una variabile di destinazione tramite l'apprendimento di regole decisionali semplici derivate dalle funzionalità dei dati.
RandomForest: la foresta casuale è un algoritmo di apprendimento con supervisione. La "foresta" viene compilata, è un insieme di alberi decisionali, in genere sottoposti a training con il metodo "bagging". L'idea generale del metodo di bagging è che una combinazione di modelli di apprendimento aumenta il risultato complessivo.
ExtremeRandomTrees: Extreme Trees è un algoritmo di Machine Learning completo che combina le stime di molti alberi decisionali. È correlato all'algoritmo di foresta casuale ampiamente usato.
LightGBM: LightGBM è un framework di aumento della sfumatura che usa algoritmi di apprendimento basati su albero.
GradientBoosting: la tecnica di transito degli studenti della settimana in un apprendimento forte è chiamata Boosting. Il processo dell'algoritmo di aumento della sfumatura funziona su questa teoria di esecuzione.
XGBoostClassifier: XGBoost: Algoritmo di aumento della sfumatura estrema. Questo algoritmo viene usato per i dati strutturati in cui i valori di colonna di destinazione possono essere suddivisi in valori di classe distinti.

type ClassificationModels = string