[AI/ML] Gradient Boosting(GBM) 완벽 가이드 (정의, 특징 및 장단점, 모델 학습 과정)
·
ML & DL
1. 들어가며안녕하세요! 머신러닝 알고리즘 완전 정복 시리즈, 일곱 번째 시간입니다.지난 6편에서는 여러 나무의 의견을 모으는 든든한 숲, **랜덤 포레스트(Random Forest)**를 배웠습니다. 랜덤 포레스트는 안정적이고 강력하지만, "조금 더 성능을 높일 수는 없을까?"라는 욕심은 끝이 없죠.그래서 등장한 것이 바로 **Gradient Boosting (GBM)**입니다.랜덤 포레스트가 "동시에" 여러 나무를 심는다면, GBM은 "순서대로" 나무를 심습니다. 첫 번째 나무가 틀린 문제를 두 번째 나무가 고치고, 두 번째가 틀린 걸 세 번째가 고치는 식이죠.머신러닝 대회를 휩쓰는 XGBoost, LightGBM의 뿌리가 되는 Gradient Boosting의 원리를 파헤쳐 봅시다!2. Gradie..