인공지능 윤리: 두 판 사이의 차이

IT위키
(OECD)
편집 요약 없음
96번째 줄: 96번째 줄:
===학회 및 협회, 국제 기구의 인공지능 윤리===
===학회 및 협회, 국제 기구의 인공지능 윤리===


*[[OECD AI 권고안|OECD, AI 권고안]]('19.5, OECD 위원회)
*[[G20 AI 원칙|OECD, AI 권고안]]('19.5, OECD 위원회)
**G20 정상선언문으로 발표(19.6)
**G20 정상선언문으로 발표(19.6)
*[[아실로마 인공지능 원칙]]
*[[아실로마 인공지능 원칙]]

2021년 5월 2일 (일) 23:32 판


인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
  • 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성

필요성 및 주목 배경

  • 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
  • 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
  • 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
  • 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가

인공지능 윤리 이슈 사례

  • (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
  • (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
  • (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
  • (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)

역사

주요 이슈

이슈 설명 예시
설명 불가능성

(Unexplainability)

인공지능의 판단 근거를 인간이 확인할 수 없음
  • 근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
    • 인공지능에 의한 정책결정
    • 인공지능에 의한 의료 행위
  • 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
책임 귀속 인공지능의 잘못은 누구의 잘못인지에 대한 모호성
  • 설계자의 잘못 vs 이용자의 잘못
    • 인공지능 로봇의 범죄
    • 자율주행차의 사고
    • 인공지능의 오판으로 인한 피해
편향된 판단 인간의 고정관념에 의한 인공지능의 편향된 결과
  • 옳고 그름을 배제한 데이터에 의한 판단
    • 여성은 남성에 비해 임금이 적다는 판단
    • 흑인은 백인에 비해 범죄율이 높다는 판단
일자리 감소 인공지능의 대체로 인한 인간의 일자리 감소
  • 챗봇으로 인한 전화상담사 필요성 감소
  • 로보어드바이저로 인한 애널리스트 필요성 감소
  • 인슈어테크로 인한 보험설계사 필요성 감소

인공지능 윤리의 구성[1]

  • 인공지능 자체의 윤리
  • 인공지능 설계자나 제작자의 윤리
  • 인공지능 이용자의 윤리

관련 개념

주요 사례

국내

주요 국가 인공지능 윤리

기업의 인공지능 윤리

  • 마이크로소프트 인공지능 개발 원칙
  • 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
  • IBM 인공지능 일반 윤리
  • 카카오 AI 알고리즘 윤리 헌장

학회 및 협회, 국제 기구의 인공지능 윤리

  • OECD, AI 권고안('19.5, OECD 위원회)
    • G20 정상선언문으로 발표(19.6)
  • 아실로마 인공지능 원칙
  • IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
  • 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)

기타

  • 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
  1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
  2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
  3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

각주

  1. 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)