인공지능 대상 공격: 두 판 사이의 차이
IT 위키
(새 문서: 인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다. === 데이터 오염(Data Poisoning) === === 백도어 공격(Backdoor Attack) === === 모델 오염(Model Poisoning) === === 라벨 뒤집기(Label-flipping) === 분류:인공지능 분류:보안 분류:보안 공격) |
편집 요약 없음 |
||
8번째 줄: | 8번째 줄: | ||
=== 라벨 뒤집기(Label-flipping) === | === 라벨 뒤집기(Label-flipping) === | ||
=== 모델 추출(Model Extraction; Model Stealing) === | |||
=== 모델 인버전(Model Inversion) === | |||
[[분류:인공지능]] | [[분류:인공지능]] | ||
[[분류:보안]] | [[분류:보안]] | ||
[[분류:보안 공격]] | [[분류:보안 공격]] |
2024년 2월 4일 (일) 09:58 판
인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.