도움말닫기
편집할 때 기술적인 문제가 발생했다면 보고해 주세요.
알림 2개닫기

경고: 로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다. 로그인하거나 계정을 생성하면 편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.

이 편집기가 공식적으로 지원하지 않는 브라우저를 사용하고 있습니다.

인공지능 대상 공격

IT 위키

인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.

1 데이터 오염(Data Poisoning)[편집 | 원본 편집]

2 백도어 공격(Backdoor Attack)[편집 | 원본 편집]

3 모델 오염(Model Poisoning)[편집 | 원본 편집]

4 라벨 뒤집기(Label-flipping)[편집 | 원본 편집]

5 모델 추출(Model Extraction; Model Stealing)[편집 | 원본 편집]

  • 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격
  • 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제
  • 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명

6 모델 인버전(Model Inversion)[편집 | 원본 편집]

  • 모델의 출력값으로부터 입력값을 유추하는 공격
  • 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용
  • 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재

인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.

데이터 오염(Data Poisoning)

백도어 공격(Backdoor Attack)

모델 오염(Model Poisoning)

라벨 뒤집기(Label-flipping)

모델 추출(Model Extraction; Model Stealing)

  • 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격

  • 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제

  • 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명

모델 인버전(Model Inversion)

  • 모델의 출력값으로부터 입력값을 유추하는 공격

  • 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용

  • 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재