DP-SGD 기법: Difference between revisions

From IT Wiki
(새 문서: '''Differential Privacy – Stochastic Gradient Descent''' * SGD는 AI 모델을 학습 방식의 대표적인 방법으로 입력 데이터를 작은 크기로 분할 집합(Mini Batch)하여 학습 진행 ** 여기서 AI 모델 학습은 새로운 데이터 입력으로 AI 모델 내의 노드 등의 수치가 최적화(Optimize)되는 과정으로 정의한다. * DP-SGD는 SGD방식에서 차등 프라이버시 기법을 적용하여 학습 진행 ∙ 분할 집합마다 각...)
 
No edit summary
 
Line 6: Line 6:


이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다.
이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다.
[[분류:알고리즘]]

Latest revision as of 09:34, 4 February 2024

Differential Privacy – Stochastic Gradient Descent

  • SGD는 AI 모델을 학습 방식의 대표적인 방법으로 입력 데이터를 작은 크기로 분할 집합(Mini Batch)하여 학습 진행
    • 여기서 AI 모델 학습은 새로운 데이터 입력으로 AI 모델 내의 노드 등의 수치가 최적화(Optimize)되는 과정으로 정의한다.
  • DP-SGD는 SGD방식에서 차등 프라이버시 기법을 적용하여 학습 진행 ∙ 분할 집합마다 각 가중치를 구하고 최대 기울기 제한(Clip Gradient) 및 통계적 기반의 노이즈(Gaussian Noise)를 추가하여 학습 진행

이렇게 하면 공격자는 출력값을 기반으로 입력값을 유추, 모델 유추 등이 어려워 진다.