Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Machine Learning
- LIKELIHOOD
- ML
- LGBM
- 알고리즘
- 차원 축소
- LDA
- pca
- 머신러닝
- Gbm
- dimension reduction
- Gradient Boostnig
- classification
- Gradient Boosting
- 앙상블 학습
- 트리분할
- 앙상블
- MLE
- xgboost
- Regression
- 최대사후확률
- ensemble learning
- Gradient boosting machine
- ensemble
- multivarite method
- 차원축소
- multivarite data
- feature extraction
- decision tree
- Maximum A Posterior
Archives
- Today
- Total
목록트리분할 (1)
코딩하는 눈송이

XGBoost란? 앞서 Gradient Boosting에 대해서 설명했다. Gradient Boosting이란, 이전 모델에서 나온 결과값의 Gradient 값(psuedo residual)을 이용해서 다음 모델에 학습을 시키고, 이를 모두 선형 결합한 결과물이 나오는 알고리즘을 의미했다. 이렇듯 기본적으로 사용되고 있는 Gradient Tree Boosting 기법에서 '과적합 방지'와 '병렬 학습'이 가능하도록 만든 boosting 알고리즘이 바로 XGBoost이다. XGBoost의 대표적인 장점을 나열해 보자면 다음과 같다. 정규화, 근사치를 이용한 학습 개선 : 정규화를 이용한 과적합 개선 : 학습을 위한 오차 항에서 L2(Ridge) Regularization 항을 추가해 모델(트리)의 복잡도를..
머신러닝/알고리즘
2023. 8. 23. 14:17