# Boosting
- 각 모델이 "독립"적으로 추론하는 것이 Bagging Model이고, 다음 모델에 잘못 예측된 데이터를 순차적으로 학습하는것이 Boosting이다.
# Agaptive boosting
- Agaptive boosting는 잘못 예측된 데이터를 집중적으로 학습하는 방법
- 처음엔 훈련 데이터에 모두 동일하게 가중치를 주지만 예측 오차에 따라 가중치 조절을 하여 손실함수를 계산한다.

# Gradient boosting Machine(GBM)
- 다음 모델에 전 모델의 오류를 바로잡으면서 적용

- 손실함수의 미분값과 동일하여 'Grandient'라고 함.
- XGBoost는 GBM의 강화버전의 대표 라이브러리
'yeardreamschool4 > Machine Learing' 카테고리의 다른 글
| SVM & DBSCAN (0) | 2024.05.28 |
|---|---|
| #Stacking과 Mixthre of Experts (0) | 2024.05.27 |
| #Bagging과 Random Forest (0) | 2024.05.27 |
| #Decision Tree (0) | 2024.05.27 |
| #Regularization(정규화) (0) | 2024.05.24 |