DP-SGD 기법: Difference between revisions
From IT Wiki
(새 문서: '''Differential Privacy – Stochastic Gradient Descent''' * SGD는 AI 모델을 학습 방식의 대표적인 방법으로 입력 데이터를 작은 크기로 분할 집합(Mini Batch)하여 학습 진행 ** 여기서 AI 모델 학습은 새로운 데이터 입력으로 AI 모델 내의 노드 등의 수치가 최적화(Optimize)되는 과정으로 정의한다. * DP-SGD는 SGD방식에서 차등 프라이버시 기법을 적용하여 학습 진행 ∙ 분할 집합마다 각...) |
No edit summary |
||
Line 6: | Line 6: | ||
이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다. | 이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다. | ||
[[분류:알고리즘]] |
Latest revision as of 09:34, 4 February 2024
Differential Privacy – Stochastic Gradient Descent
- SGD는 AI 모델을 학습 방식의 대표적인 방법으로 입력 데이터를 작은 크기로 분할 집합(Mini Batch)하여 학습 진행
- 여기서 AI 모델 학습은 새로운 데이터 입력으로 AI 모델 내의 노드 등의 수치가 최적화(Optimize)되는 과정으로 정의한다.
- DP-SGD는 SGD방식에서 차등 프라이버시 기법을 적용하여 학습 진행 ∙ 분할 집합마다 각 가중치를 구하고 최대 기울기 제한(Clip Gradient) 및 통계적 기반의 노이즈(Gaussian Noise)를 추가하여 학습 진행
이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다.