Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- LDA
- ensemble
- xgboost
- Gradient boosting machine
- 머신러닝
- Maximum A Posterior
- LIKELIHOOD
- decision tree
- Regression
- 알고리즘
- 앙상블
- multivarite method
- 트리분할
- classification
- MLE
- Gradient Boosting
- 최대사후확률
- 차원축소
- Gradient Boostnig
- pca
- Gbm
- ensemble learning
- 앙상블 학습
- multivarite data
- ML
- feature extraction
- Machine Learning
- LGBM
- dimension reduction
- 차원 축소
Archives
- Today
- Total
목록Dimesion Reduction (1)
코딩하는 눈송이
차원축소란? 차원축소란 고차원의 데이터를 저차원의 데이터로 변환하는 것을 의미한다. 이를 통해 데이터를 더욱 쉽게 시각화하고 분석할 수 있다. 그렇다면 차원축소를 왜 하는 것인가? 데이터의 차원이 커지게 된다면 학습 데이터의 수가 차원이 수보다 적어져 성능이 저하 되게 됩니다. 차원이 증가하게 된다면 변수가 증가하게 되고, 개별 차원 내에서 학습할 데이터의 수도 적어지게 된다. 아래의 그림처럼 차원이 커지게 된다면 데이터 샘플 간의 거리가 멀이지게 되고, 데이터 분석에서 어려움을 겪게 된다. 이를 '차원의 저주'라고 부른다. 이렇듯 차원의 저주 문제를 해결하고 모델의 복잡도(시간적 복잡도, 공간적 복잡도 - 과도한 parameter 수)를 줄이며 작은 데이터셋에도 잘 fit하는 Simple한 모델을 만들..
선형대수
2023. 4. 16. 00:05