인공지능 대상 공격 편집하기

IT위키

경고: 로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다. 로그인하거나 계정을 생성하면 편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.

편집을 취소할 수 있습니다. 이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.

최신판 당신의 편집
8번째 줄: 8번째 줄:


=== 라벨 뒤집기(Label-flipping) ===
=== 라벨 뒤집기(Label-flipping) ===
=== 모델 추출(Model Extraction; Model Stealing) ===
* 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격
* 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제
* 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명
=== 모델 인버전(Model Inversion) ===
* 모델의 출력값으로부터 입력값을 유추하는 공격
* 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용
* 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재
[[분류:인공지능]]
[[분류:인공지능]]
[[분류:보안]]
[[분류:보안]]
[[분류:보안 공격]]
[[분류:보안 공격]]
IT위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는 IT위키:저작권 문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다. 저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소 편집 도움말 (새 창에서 열림)