본문 바로가기
반응형

Computer Science100

[Performance Evaluation] 1. Bias-variance tradeoff & Cross-validation Outline Bias-variance tradeoff & Cross-validation Performance metrics for classification BIAS-VARIANCE TRADEOFF 1.1 Underfitting and Overfitting 1.2 Bias and Variance 학습 방법을 선택할 때 항상 경쟁 관계에 있는 두 가지 요소가 있습니다. 바로 편향(Bias)과 분산(Variance)입니다. 편향은 복잡한 문제를 훨씬 단순화된 방식으로 모델링함으로써 발생하는 오류를 의미합니다. 예를 들어, 데이터의 복잡한 패턴이나 관계를 충분히 반영하지 못하고 너무 간단한 모델을 사용하게 될 경우 높은 편향이 발생할 수 있습니다. 분산은 다른 훈련 데이터 세트를 사용했을 때 추정치가 얼마나.. 2024. 4. 22.
[Classification 2] 3. Classification algorithms - SVM( SUPPORT VECTOR MACHINE ): Non-linear SVM – Kernel trick Content Introduction to supervised learning approach Data split in supervised learning Classification algorithms KNN & distance measures Decision tree Random Forest, Ensemble approach SVM 3. Classification algorithms - SVM( SUPPORT VECTOR MACHINE ) SVM: Content 1. Linear SVM 2. Linear SVM: non-separable case 3. Non-linear SVM – Kernel trick 3.18 Non-linear SVMs 선형으로 분리 가능한 데이터셋에 약간의 잡음이 있을 때, 선형.. 2024. 4. 22.
[Classification 2] 3. Classification algorithms - SVM( SUPPORT VECTOR MACHINE ): Linear SVM ContentIntroduction to supervised learning approachData split in supervised learningClassification algorithmsKNN & distance measuresDecision treeRandom Forest, Ensemble approachSVM3. Classification algorithms - SVM( SUPPORT VECTOR MACHINE ) SVM: Content 1. Linear SVM 2. Linear SVM: non-separable case 3. Non-linear SVM – Kernel trick3.1 SVM: IntroductionSVM, 즉 Support Vector M.. 2024. 4. 22.
[Classification 2] 3. Classification algorithms - Random Forest, Ensemble approach(2) Content Introduction to supervised learning approach Data split in supervised learning Classification algorithms KNN & distance measures Decision tree Random Forest, Ensemble approach SVM 3. Classification algorithms - Random Forest, Ensemble approach 3.17 Random Forest with different values of “m” Random Forest 알고리즘에서 다양한 "m" 값의 사용은 중요한 의미를 가집니다. 여기서 "m"은 각 결정 트리를 생성할 때 무작위로 선택되는 특성(변수)의 수를 의미합.. 2024. 4. 22.
반응형