* 앙상블의 "인자" 추출에 대한 약점 보안
1. 복잡한 모델은 해석이 쉽지 않음
ex) Bagging, RF, GB, NN 모델 해석과 prediction 해석이 어려움
* 문제점 -> 중요하다 정도만 알 수있지 양의방향인지 음의방향인지 얼마나 영향을 끼치는지 알 수 없음
* feature attribution -> 플레이어의 기여도(중요변수)
shap value
->실제 예측치와 평균예측치의 차이를 설명하는것
양수이면 긍정적 효과, 음수이면 부정적 효과
* 선형관계가 있을뿐 인과관계가 있는 것은아님
shap value는 다양한 변수의 조합의 영향력도 판단하기 쉽고 하나의 컬럼도 해석이 쉬워 다양하게 사용할 수 있음
feature importance 는 항상 중요하고 앙상블러닝은 특히 복잡한모델이라 inconceitency하게 항상 중요변수가 바뀌어 y에 대해 어떻게 영향을 끼치는지 알기가 어렵고 해석이 중요한데 shap value는 그 단점을 극복한 지표
반응형
'Machine Learning' 카테고리의 다른 글
AUC-ROC 심화 이해 (0) | 2020.08.30 |
---|---|
모델의 정확도 지표(Accuracy,Recall,Precision,F1 Score) (0) | 2020.08.30 |
Hierachical , DBscan Clustering (0) | 2020.06.28 |
K-means , medoids Clustering (unsupervised learning) (0) | 2020.06.28 |
KNN - K-nearest neighborhood (0) | 2020.06.27 |