다음을 통해 공유


KnownClassificationModels enum

서비스에서 허용하는 ClassificationModels 의 알려진 값입니다.

필드

BernoulliNaiveBayes

다변량 베르누울리 모델에 대한 Naive Bayes 분류자입니다.

DecisionTree

의사 결정 트리는 분류 및 회귀 작업 모두에 사용되는 비 파라메트릭 감독 학습 방법입니다. 목표는 데이터 기능에서 유추된 간단한 의사 결정 규칙을 학습하여 대상 변수의 값을 예측하는 모델을 만드는 것입니다.

ExtremeRandomTrees

익스트림 트리는 많은 의사 결정 트리의 예측을 결합하는 앙상블 기계 학습 알고리즘입니다. 널리 사용되는 임의 포리스트 알고리즘과 관련이 있습니다.

GradientBoosting

주 학습자를 강력한 학습자에게 전송하는 기술을 부스팅이라고 합니다. 그라데이션 증폭 알고리즘 프로세스는 이 실행 이론에서 작동합니다.

KNN

KNN(K-가장 가까운 인접) 알고리즘은 '기능 유사성'을 사용하여 새 데이터 포인트의 값을 예측합니다. 즉, 새 데이터 요소가 학습 집합의 점과 얼마나 일치하는지에 따라 값이 할당됩니다.

LightGBM

LightGBM은 트리 기반 학습 알고리즘을 사용하는 그라데이션 부스팅 프레임워크입니다.

LinearSVM

SVM(지원 벡터 머신)은 두 그룹 분류 문제에 분류 알고리즘을 사용하는 감독되는 기계 학습 모델입니다. 각 범주에 대해 레이블이 지정된 학습 데이터의 SVM 모델 집합을 제공한 후 새 텍스트를 분류할 수 있습니다. 선형 SVM은 입력 데이터가 선형일 때 가장 잘 수행됩니다. 즉, 표시된 그래프에서 분류된 값 사이에 직선을 그려 데이터를 쉽게 분류할 수 있습니다.

LogisticRegression

로지스틱 회귀는 기본 분류 기술입니다. 선형 분류자 그룹에 속하며 다항식 및 선형 회귀와 다소 유사합니다. 로지스틱 회귀는 빠르고 비교적 복잡하지 않으며 결과를 해석하는 것이 편리합니다. 기본적으로 이진 분류를 위한 방법이지만 다중 클래스 문제에도 적용할 수 있습니다.

MultinomialNaiveBayes

다항 Naive Bayes 분류자는 불연속 기능(예: 텍스트 분류에 대한 단어 개수)이 있는 분류에 적합합니다. 다항 분포에는 일반적으로 정수 기능 수가 필요합니다. 그러나 실제로 tf-idf와 같은 소수 개수도 작동할 수 있습니다.

RandomForest

임의 포리스트는 감독 학습 알고리즘입니다. 빌드되는 "포리스트"는 일반적으로 "배깅" 방법으로 학습된 의사 결정 트리의 앙상블입니다. 배깅 방법의 일반적인 개념은 학습 모델의 조합이 전체 결과를 증가한다는 것입니다.

SGD

SGD: 확률적 그라데이션 하강은 예측된 출력과 실제 출력 간에 가장 적합한 모델 매개 변수를 찾기 위해 기계 학습 애플리케이션에서 자주 사용되는 최적화 알고리즘입니다.

SVM

SVM(지원 벡터 머신)은 두 그룹 분류 문제에 분류 알고리즘을 사용하는 감독되는 기계 학습 모델입니다. 각 범주에 대해 레이블이 지정된 학습 데이터의 SVM 모델 집합을 제공한 후 새 텍스트를 분류할 수 있습니다.

XGBoostClassifier

XGBoost: 극한 그라데이션 증폭 알고리즘. 이 알고리즘은 대상 열 값을 고유 클래스 값으로 나눌 수 있는 구조화된 데이터에 사용됩니다.