인공지능 대상 공격: 두 판 사이의 차이

IT위키
(새 문서: 인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다. === 데이터 오염(Data Poisoning) === === 백도어 공격(Backdoor Attack) === === 모델 오염(Model Poisoning) === === 라벨 뒤집기(Label-flipping) === 분류:인공지능 분류:보안 분류:보안 공격)
 
편집 요약 없음
 
(같은 사용자의 중간 판 하나는 보이지 않습니다)
8번째 줄: 8번째 줄:


=== 라벨 뒤집기(Label-flipping) ===
=== 라벨 뒤집기(Label-flipping) ===
=== 모델 추출(Model Extraction; Model Stealing) ===
* 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격
* 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제
* 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명
=== 모델 인버전(Model Inversion) ===
* 모델의 출력값으로부터 입력값을 유추하는 공격
* 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용
* 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재
[[분류:인공지능]]
[[분류:인공지능]]
[[분류:보안]]
[[분류:보안]]
[[분류:보안 공격]]
[[분류:보안 공격]]

2024년 2월 6일 (화) 21:44 기준 최신판

인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.

데이터 오염(Data Poisoning)[편집 | 원본 편집]

백도어 공격(Backdoor Attack)[편집 | 원본 편집]

모델 오염(Model Poisoning)[편집 | 원본 편집]

라벨 뒤집기(Label-flipping)[편집 | 원본 편집]

모델 추출(Model Extraction; Model Stealing)[편집 | 원본 편집]

  • 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격
  • 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제
  • 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명

모델 인버전(Model Inversion)[편집 | 원본 편집]

  • 모델의 출력값으로부터 입력값을 유추하는 공격
  • 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용
  • 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재