인공지능 신뢰성

From IT Wiki
Revision as of 10:26, 1 June 2021 by 거번 (talk | contribs) (새 문서: AI Reliability; Artificial Intelligence Reliability; AI Trustworthiness '''인공지능이 내포한 위험과 기술적 한계를 해결하고, 활용・확산과정에서의 위험...)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

AI Reliability; Artificial Intelligence Reliability; AI Trustworthiness

인공지능이 내포한 위험과 기술적 한계를 해결하고, 활용・확산과정에서의 위험・부작용을 방지하기 위한 가치 기준

  • 인공지능 윤리 실천과 이용자 인공지능 수용성 향상을 위한 핵심가치

출현 배경[edit | edit source]

  • 인공지능이 全분야에서 빠르게 도입・활용되며 혁신을 창출하고 있으나, 확산에 따른 예상치 못한 사회적 이슈・우려도 대두
    • 인공지능 챗봇 ‘이루다’(’21.1.), 오바마前대통령 딥페이크(’18.7.), MIT개발 사이코패스 인공지능(’18.6.) 등
구분 시기 관련 이슈
인공지능 챗봇 ‘이루다 '21.1
  • 성소수자 혐오발언, 성적인 대화 등
  • 출시 1달여 만에 서비스 중단
MIT 개발, ‘사이코패스 AI’ '18.6
  • 반사회·반인륜적 데이터로 훈련
  • 부정・편향적 인공지능 공개
오바마 前대통령 딥페이크 '18.7
  • 합성된 얼굴과 목소리
  • 트럼프 前대통령을 모욕하는 영상 유포
  • 사람 중심의 ‘인공지능 강국’ 실현을 위해 인공지능의 혜택은 극대화하면서 위험・부작용을 최소화하기 위한 인공지능 신뢰(Trust) 확보 추진

해외 사례[edit | edit source]

주요국 추진 현황
EU
  • 인공지능법 제안(’21), 인공지능백서(’20)
  • 신뢰할 수 있는 인공지능 윤리 가이드라인(‘19)
영국
  • 설명 가능한 인공지능 가이드라인(‘20)
  • 공공분야 인공지능 활용 지침(‘19)
미국
  • 인공지능 규제 가이드라인(’20)
  • 인공지능 및 알고리즘 이용지침(‘20)
일본
  • 인간중심의 인공지능 사회 원칙(’18)
  • 인공지능 개발 가이드라인(’17)

주요 요소[edit | edit source]

  • 안전(Safety)
  • 설명가능(Explainability)
  • 투명(Transparency)
  • 견고(Robustness)
  • 공정(Fairness)

국가 정책[edit | edit source]

"사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현 전략" 발표(4차산업혁명위원회 제22차 전체회의, 21.5.13)

600x600픽셀

참고 문헌[edit | edit source]


각주[edit | edit source]