모델 해석 가능성
IT 위키
(모델 해석가능성에서 넘어옴)
Model Interpretability
모델 해석 가능성은 인공지능이나 기계 학습 모델이 예측을 어떻게 수행하는지 이해하거나 설명할 수 있는 능력을 의미한다. 이는 모델이 내리는 결정을 사람에게 설명할 수 있는지, 또 그 이유를 얼마나 잘 전달할 수 있는지를 나타낸다.
모델별 해석 가능성[편집 | 원본 편집]
아래 목록은 일반적으로 해석 가능성이 높은 모델을 우선적으로 작성한 내용이다. 아래쪽에 있는 모델들은 해석 가능성이 부족한 모델들에 해당한다.
선형 회귀 (Linear Regression)[편집 | 원본 편집]
- 단순한 수학적 모델로, 각 특성에 대해 선형 계수를 할당하기 때문에 각 특성이 타겟 변수에 미치는 영향을 쉽게 해석할 수 있다.
- 예를 들어 연봉을 예측하는 선형 회귀 모델은 아래와 같은 식으로 표현될 수 있고, 곱해지는 값을 통해 특성의 영향도를 파악할 수 있다.
- ex) 연간 소득 = 2500+(4000×교육 수준)+(200×근무 연수)+(10000×직위)+(300×평가 점수)+(50×주당 근무 시간)
- 양수 계수는 양의 영향을, 음수 계수는 음의 영향을 나타낸다.
로지스틱 회귀 (Logistic Regression)[편집 | 원본 편집]
- 이진 분류에 사용되며, 선형 회귀와 마찬가지고 각 특성의 계수를 통해 특성이 결과에 미치는 영향(확률적으로 양의 결과로 향하는지)을 확인할 수 있다.
의사결정 나무 (Decision Tree)[편집 | 원본 편집]
- 트리의 분기 조건을 통해 어느 특성이 예측에 기여했는지를 시각적으로 이해할 수 있다.
- 트리가 깊지 않다면 전체 모델을 그림으로 표현해 이해하기 쉽다.
- 단 트리가 너무 복잡해지면 특성 영향을 분석하기가 점점 어려워진다.
나이브 베이즈 분류기 (Naive Bayes Classifier)[편집 | 원본 편집]
- 각 특성 간 독립성을 가정하여 확률적으로 예측을 수행하며, 특성의 영향을 조건부 확률로 설명할 수 있어 비교적 해석이 쉬운 편이다.
설명 가능한 인공지능과의 차이[편집 | 원본 편집]
설명 가능한 인공지능은 해석 가능성이 낮은 복잡한 모델의 결과를 사람이 이해할 수 있도록 사후적으로 설명해주는 기법이다. 예를 들어, 신경망이나 앙상블 모델 같은 경우, 내부 작동 과정이 복잡하여 모델 자체의 예측 과정을 명확히 알기 어렵기 때문에 SHAP, LIME, Grad-CAM과 같은 도구를 활용해 예측에 영향을 미친 요인을 설명한다.
이러한 설명 도구는 각 입력 변수가 예측에 얼마나 기여했는지를 시각화하거나, 이미지 모델의 경우 특정 부분이 결과에 미친 영향을 강조하여 모여준다.