인공지능 대상 공격: 두 판 사이의 차이

IT위키
(새 문서: 인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다. === 데이터 오염(Data Poisoning) === === 백도어 공격(Backdoor Attack) === === 모델 오염(Model Poisoning) === === 라벨 뒤집기(Label-flipping) === 분류:인공지능 분류:보안 분류:보안 공격)
 
편집 요약 없음
8번째 줄: 8번째 줄:


=== 라벨 뒤집기(Label-flipping) ===
=== 라벨 뒤집기(Label-flipping) ===
=== 모델 추출(Model Extraction; Model Stealing) ===
=== 모델 인버전(Model Inversion) ===
[[분류:인공지능]]
[[분류:인공지능]]
[[분류:보안]]
[[분류:보안]]
[[분류:보안 공격]]
[[분류:보안 공격]]

2024년 2월 4일 (일) 09:58 판

인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.

데이터 오염(Data Poisoning)

백도어 공격(Backdoor Attack)

모델 오염(Model Poisoning)

라벨 뒤집기(Label-flipping)

모델 추출(Model Extraction; Model Stealing)

모델 인버전(Model Inversion)