앙상블 학습: Difference between revisions

From IT Wiki
No edit summary
No edit summary
Line 13: Line 13:
! 하드 보팅 !! 소프트 보팅
! 하드 보팅 !! 소프트 보팅
|-
|-
| [[파일:하드 보팅.png]] || [[파일:소프트 보팅.png]]
| [[파일:하드 보팅.png|350px]] || [[파일:소프트 보팅.png|350px]]
|-
|-
| 예측 결과를 그대로 보팅 || 예측 확률의 평균값으로 보팅
| 예측 결과를 그대로 보팅 || 예측 확률의 평균값으로 보팅
Line 27: Line 27:
** '''[[OOB 샘플|OOB(Out-of-Bag) 샘플]]''': 샘플링 되지 않은 나머지 샘플
** '''[[OOB 샘플|OOB(Out-of-Bag) 샘플]]''': 샘플링 되지 않은 나머지 샘플


== 부스팅 ==
=== 부스팅 ===
;성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법
;성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법


== [[랜덤 포레스트]] ==
=== [[랜덤 포레스트]] ===
;배깅을 적용한 [[의사결정 나무]] 앙상블 학습 기법
;배깅을 적용한 [[의사결정 나무]] 앙상블 학습 기법



Revision as of 01:16, 8 January 2020

Ensemble Learning
하나의 데이터를 여러개의 분류기를 통해 다수의 학습 모델을 만들어 학습시키고 학습 결과를 결합함으로써 과적합을 방지하고 정확도를 높이는 학습 기법

유형

보팅

여러 모델에서 구해진 예측값들을 대상으로 다수결 투표를하여 최종 클래스를 예측

앙상블 학습.png

  • 하드 보팅과 소프트 보팅
하드 보팅 소프트 보팅
하드 보팅.png 소프트 보팅.png
예측 결과를 그대로 보팅 예측 확률의 평균값으로 보팅

배깅

배깅(Bagging)은 Bootstrap Aggregating의 줄임말
  • 부트스트래핑: 학습 데이터셋에서 중복을 허용하여 랜덤하게 추출하는 방식(aka. 리샘플링)
  • 페이스팅: 학습 데이터셋에서 중복 없이 랜덤하게 추출하는 방식
  • 배깅은 부트스트래핑을 이용한 앙상블 학습법
  • 장점: 분산 감소
  • 단점: 중복으로 인해, 특정 샘플은 사용되지 않고 특정 샘플은 여러번 사용되어 편향될 가능성

부스팅

성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법

랜덤 포레스트

배깅을 적용한 의사결정 나무 앙상블 학습 기법
  • 종류
종류 설명
아다부스팅

(AdaBoost)

  • Adaptive Boosting
  • 언더피팅 됐던 학습 데이터 샘플의 가중치를 높여감
그래디언트 부스팅

(Gradient Boosting)

  • 가중치 업데이트를 경사 하강법(Gradient Descent)을 이용
  • 학습 전단계 모델에서의 잔여 오차에 대해 새로운 모델을 학습시키는 방법

참고 문헌