분류 전체보기

AI/Machine Learning

[ML] 머신러닝 - 앙상블 ( 보팅, 배깅 )

[machine learning] - 머신러닝 - 스태킹 앙상블 머신러닝 - 스태킹 앙상블파이썬 머신러닝 가이드 책을 참고하였습니다. ● 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅 및 부스팅과 공통점을 가지고 있다. 하지만 스태킹은 개kylo8.tistory.com목차1. 앙상블이란2. 보팅3. 배깅 (1) 앙상블( Ensemble Learning) 이란여러 개의 분류기(Classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법-> 어려운 문제의 결론을 내기 위해 여러 명의 전문가의 의견을 수렴해 결정하는 것과 비슷하다. 앙상블의 유형으로는 보팅, 배깅, 부스팅 방법이 있습니다. 순서대로 정리해보겠습니다. (2) 보팅 : 서로 다른..

AI/Machine Learning

[ML] 머신러닝 결정트리 (DecisionTreeClassifier, DecisionTreeRegressor)

파이썬 머신러닝 완벽 가이드 책을 참고하였습니다. (1) DecisionTreeClassifier, DecisionTreeRegressor 결정 트리 데이터에 있는 규칙을 학습을 통해 자동으로 찾아내 트리 기반의 분류 규칙을 만든다. 일반적으로 if, else를 자동으로 찾아내 예측을 위한 규칙을 만드는 알고리즘이라고도 할 수 있다. * 규칙 노드 : 규칙 조건을 의미 * 리프 노드 : 결정된 클래스 값 * 서브 트리 : 새로운 규칙마다 생겨나는 트리를 의미 장점 1. 직관적으로 이해하기 쉬운 알고리즘이다. 2. 피처의 스케일링이나 정규화 등의 사전 가공 영향도가 크지 않다. 단점 1. 많은 규칙이 있으면 분류를 결정하는 방식이 복잡해진다. -> 과적합으로 이어지기 쉽다. 이를 극복하기 위해 트리의 크기..

AI/Machine Learning

[ML] 머신러닝 모델의 오차행렬, 정확도, 정밀도, 재현율 구하기

목차 1. 오차 행렬 2. 정확도 3. 정밀도 4. 재현율 (1) 오차 행렬 : 이진 분류에서 성능 지표로 활용되며, 학습된 분류 모델이 예측을 수행하면서 얼마나 헷갈리고 있는지도 함께 보여주는 지표이다. * TN는 예측값을 Negative 값 0으로 예측했고 실제 값 역시 Negative 값 0 * FP는 예측값을 Positive 값 1로 예측했는데 실제 값은 Negative 값 0 * FN은 예측값을 Negative 값 0으로 예측했는데 실제 값은 Positive 값 1 * TP는 예측값을 Positive 값 1로 예측했는데 실제 값 Positive 값 1 # 오차 행렬 구해보기 from sklearn.metrics import confusion_matrix print(confusion_matrix(..

AI/Machine Learning

[ML] 머신러닝 교차 검증- KFold, Stratified KFold, cross_val_score()

파이썬 머신러닝 가이드 책을 참고하였습니다. 목차 1. KFold 2. Stratified KFold 3. cross_val_score() ○ 데이터 불러오기 from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import accuracy_score from sklearn.model_selection import KFold from sklearn.datasets import load_iris import numpy as np iris = load_iris() features = iris.data label = iris.target dt_clf = DecisionClassifier(random_state=156) (1) 교차검증 (KF..

kylo
'분류 전체보기' 카테고리의 글 목록 (45 Page)