본문 바로가기
yeardreamschool4/Machine Learing

#Boosting

by kevinchoi! 2024. 5. 27.

# Boosting

- 각 모델이 "독립"적으로 추론하는 것이 Bagging Model이고, 다음 모델에 잘못 예측된 데이터를 순차적으로 학습하는것이 Boosting이다.

 

# Agaptive boosting

- Agaptive boosting는 잘못 예측된 데이터를 집중적으로 학습하는 방법

- 처음엔 훈련 데이터에 모두 동일하게 가중치를 주지만 예측 오차에 따라 가중치 조절을 하여 손실함수를 계산한다.

 

# Gradient boosting Machine(GBM)

- 다음 모델에 전 모델의 오류를 바로잡으면서 적용

- 손실함수의 미분값과 동일하여 'Grandient'라고 함.

- XGBoost는 GBM의 강화버전의 대표 라이브러리

'yeardreamschool4 > Machine Learing' 카테고리의 다른 글

SVM & DBSCAN  (0) 2024.05.28
#Stacking과 Mixthre of Experts  (0) 2024.05.27
#Bagging과 Random Forest  (0) 2024.05.27
#Decision Tree  (0) 2024.05.27
#Regularization(정규화)  (0) 2024.05.24