경고: 로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다. 로그인하거나 계정을 생성하면 편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
편집을 취소할 수 있습니다.
이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.
최신판 |
당신의 편집 |
10번째 줄: |
10번째 줄: |
|
| |
|
| === 모델 추출(Model Extraction; Model Stealing) === | | === 모델 추출(Model Extraction; Model Stealing) === |
|
| |
| * 원본 AI 모델로부터 유사한 모델을 추출하여 복제하는 공격
| |
| * 대량의 쿼리를 통해 입・출력값을 수집하고 이를 학습하여 원본 AI 모델과 유사도가 높은 모델을 복제
| |
| * 아마존(Amazon) 및 BigML이 MLaaS 형태로 제공하는 유료 AI 모델을 몇 분만에 99% 이상 유사도로 복제 가능하다는 것이 관련 연구로 증명
| |
|
| |
|
| === 모델 인버전(Model Inversion) === | | === 모델 인버전(Model Inversion) === |
|
| |
| * 모델의 출력값으로부터 입력값을 유추하는 공격
| |
| * 공격자는 모델 종류, 파라미터 등 알려진 정보를 기반으로 대리모델을 제작하여 공격에 활용
| |
| * 신뢰 점수를 기반으로 공격하여 입력값(원본 이미지)에 가까운 이미지를 생성한 사례도 존재
| |
|
| |
| [[분류:인공지능]] | | [[분류:인공지능]] |
| [[분류:보안]] | | [[분류:보안]] |
| [[분류:보안 공격]] | | [[분류:보안 공격]] |