다음을 통해 공유


ClassificationModels type

ClassificationModels에 대한 값을 정의합니다.
KnownClassificationModels는 ClassificationModels와 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

LogisticRegression: 로지스틱 회귀는 기본 분류 기술입니다. 선형 분류자 그룹에 속하며 다항식 및 선형 회귀와 다소 유사합니다. 로지스틱 회귀는 빠르고 비교적 복잡하지 않으며 결과를 해석하는 것이 편리합니다. 기본적으로 이진 분류를 위한 방법이지만 다중 클래스 문제에도 적용할 수 있습니다.
SGD: SGD: 확률적 그라데이션 하강은 기계 학습 애플리케이션에서 예측된 출력과 실제 출력 간에 가장 적합한 모델 매개 변수를 찾는 데 자주 사용되는 최적화 알고리즘입니다.
MultinomialNaiveBayes: 다항 Naive Bayes 분류자는 개별 기능이 있는 분류에 적합합니다(예: 텍스트 분류에 대한 단어 수). 다항 분포에는 일반적으로 정수 기능 수가 필요합니다. 그러나 실제로 tf-idf와 같은 소수 개수도 작동할 수 있습니다.
BernoulliNaiveBayes: 다변량 베르누울리 모델에 대한 Naive Bayes 분류자입니다.
SVM: SVM(지원 벡터 머신)은 두 그룹 분류 문제에 대한 분류 알고리즘을 사용하는 감독되는 기계 학습 모델입니다. 각 범주에 대해 레이블이 지정된 학습 데이터의 SVM 모델 집합을 제공한 후 새 텍스트를 분류할 수 있습니다.
LinearSVM: SVM(지원 벡터 머신)은 두 그룹 분류 문제에 대한 분류 알고리즘을 사용하는 감독되는 기계 학습 모델입니다. 각 범주에 대해 레이블이 지정된 학습 데이터의 SVM 모델 집합을 제공한 후 새 텍스트를 분류할 수 있습니다. 선형 SVM은 입력 데이터가 선형일 때 가장 잘 수행됩니다. 즉, 표시된 그래프에서 분류된 값 사이에 직선을 그려 데이터를 쉽게 분류할 수 있습니다.
KNN: K-가장 가까운 인접 항목(KNN) 알고리즘은 '기능 유사성'을 사용하여 새 데이터 포인트의 값을 예측합니다. 즉, 새 데이터 포인트가 학습 집합의 포인트와 얼마나 일치하는지에 따라 값이 할당됩니다.
DecisionTree: 의사 결정 트리는 분류 및 회귀 작업 모두에 사용되는 비 파라메트릭 감독 학습 방법입니다. 목표는 데이터 기능에서 유추된 간단한 의사 결정 규칙을 학습하여 대상 변수의 값을 예측하는 모델을 만드는 것입니다.
RandomForest: 임의 포리스트는 감독 학습 알고리즘입니다. 빌드되는 "포리스트"는 일반적으로 "배깅" 방법으로 학습된 의사 결정 트리의 앙상블입니다. 배깅 방법의 일반적인 개념은 학습 모델의 조합이 전체 결과를 증가한다는 것입니다.
ExtremeRandomTrees: 익스트림 트리는 많은 의사 결정 트리의 예측을 결합하는 앙상블 기계 학습 알고리즘입니다. 널리 사용되는 임의 포리스트 알고리즘과 관련이 있습니다.
LightGBM: LightGBM은 트리 기반 학습 알고리즘을 사용하는 그라데이션 부스팅 프레임워크입니다.
GradientBoosting: 주 학습자를 강력한 학습자에게 전송하는 기술을 Boosting이라고 합니다. 그라데이션 증폭 알고리즘 프로세스는 이 실행 이론에서 작동합니다.
XGBoostClassifier: XGBoost: 익스트림 그라데이션 증폭 알고리즘. 이 알고리즘은 대상 열 값을 고유 클래스 값으로 나눌 수 있는 구조화된 데이터에 사용됩니다.

type ClassificationModels = string