위음성 비용: 긍정 클래스를 부정 클래스로 오 분류할 때 발생하는 비용
위양성 비용: 부정 클래스를 긍정 클래스로 오 분류할 때 발생하는 비용
위 두 개의 비용을 다르게 설정하는 모델이 비용 민감 모델로 보통 위음성 비용보다 위양성 비용을 크게 설정
W가 커지면 커질수록 정확도가 떨어짐
부정 클래스가 다수이므로 부정 클래스로 분류했을 때 성능이 나쁘지 않음
W가 커진다는것은 긍정 클래스에 신경 쓰는 것이니까 정확도는 떨어지게 됨
로지스틱 회귀, 나이브베이즈 등의 확률 모델들은 Cut-Off value, C를 조정하는 방식으로 비용 민감 모델 구현 가능
정확한 확률 추정은 불가능 하지만 KNN,NN,Decision tree, ensemble 에도 적용 가능
C= cutoff value로 조정 가능한 대상
c값이 작으면 작을 수록 재현율이 커질 것이고 크면 클수록 정확도가 커짐
Sklearn의 확률 모델이 갖는 메서드(fit)로서 ,X를 입력으로 받아 각 클래스에 속할 확률을 출력(predict_proba)
이런 식으로 실제로 클래스 분류 가능
SVM이나 Randomforest에서는 class_weight라는 파라미터로 비용 민감 모델 설정
반응형
'Machine Learning' 카테고리의 다른 글
검증지표 개념 이해하기 (0) | 2022.03.29 |
---|---|
지니 계수 (Gini Coefficient) (0) | 2021.06.04 |
빈발 패턴 탐색 (0) | 2021.01.01 |
계층적 군집화 (0) | 2020.12.28 |
군집화 (Clustering ) (0) | 2020.12.28 |