Stacking
Meta Learner라고 부르며, 다양한 모델을 결합하여 사용하는 기법
1.stacking은 비효율적(학습시간이 오래걸림)이지만 성능면에서 좋음
2. 각 fold별로 여러개 모델을 만들고 하나의 fold(학습,검증) 에 대해 예측을하고
예측 값으로 새로운 컬럼을 추가함 -> 이것을 5fold 반복
3. 기존의 학습 데이터에 + 각 모델별 prediction값을 추가해서 학습,검증데이터를 만듬
4. 이 새로운 학습데이터에대해 다시한번 학습시키고 새로운 검증데이터에서 예측을함
5. 기존 feature 사용하지 않고 각 모델별 prediction 값만을 사용하기도 하는데 이경우는 일반적으로regression모델사용
Ensemble의 Ensemble -> 새로 만들어낸 개념
1. ensemble 모델을 gb를 자체를 하나의 base learner로 보자
2. 배깅의 컨셉을 사용, 데이터를 복원 추출
3. 생각보다 성능이 좋음 . 복잡한 모델은 항상 부스팅(LIGHT GBM -> XGB보다 속도나 성능이좋고 cat보다활용이편함)
4. 부스팅 계열 알고리즘은 하이퍼 파라미터에 민감한 경향이 있음
5. 하이퍼 파라미터 튜닝과 관계없이(덜 민감하게) 성능이 좋아짐(앙상블의 앙상블사용시)
6. Regularization 을 할때도 하이퍼파라미터 추가하고 검증하는데 힘이 들고 시간이 듦
반응형
'Machine Learning' 카테고리의 다른 글
SVM - Support Vector Machine (0) | 2020.06.23 |
---|---|
Classification Tree , Regression Tree (0) | 2020.06.23 |
의사결정나무 - Decision Tree (0) | 2020.06.23 |
앙상블 - Bagging (0) | 2020.06.18 |
딥러닝 기초 (0) | 2020.04.15 |