인공지능 윤리: 두 판 사이의 차이

IT위키
편집 요약 없음
(OECD)
2번째 줄: 2번째 줄:


;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
;* 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
;*약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성


==필요성==
==필요성 및 주목 배경==


*인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
*인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
*인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가


== 역사 ==
=== 인공지능 윤리 이슈 사례 ===


*  
* '''(기술오남용)''' 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
* '''(데이터 편향성)''' 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
* '''(알고리즘 차별)''' 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
* '''(프라이버시 침해)''' 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)
 
==역사==
 
*


==주요 이슈==
==주요 이슈==
65번째 줄: 73번째 줄:
==주요 사례==
==주요 사례==


=== 국가의 인공지능 윤리 ===
=== 국내 ===
 
* 지능정보사회윤리가이드라인(18.4, 정보문화포럼)
* 이용자중심의 지능정보사회를 위한 원칙('19.11, 방송통신위원회)
* [[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[인공지능 윤리기준(과학기술정보통신부)|인공지능 윤리기준]]'''
 
===주요 국가 인공지능 윤리===


*유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006)
*유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006)
*EU, [[신뢰할 수 있는 AI를 위한 윤리 가이드라인|신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)]]
*산업자원부 '''로봇윤리헌장'''(2007)
*산업자원부 '''로봇윤리헌장'''(2007)
*일본 총무성 인공지능 윤리 가이드라인
*일본, 총무성 인공지능 윤리 가이드라인
*[[아실로마 인공지능 원칙]]
*[[인간 중심의 AI 원칙(일본)|일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)]]
*[[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[인공지능 윤리기준(과학기술정보통신부)|인공지능 윤리기준]]'''


=== 기업의 인공지능 윤리 ===
===기업의 인공지능 윤리===


*마이크로소프트 인공지능 개발 원칙
*마이크로소프트 인공지능 개발 원칙
*구글 인공지능 원칙
*미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
*IBM 인공지능 일반 윤리
*IBM 인공지능 일반 윤리
*카카오 AI 알고리즘 윤리 헌장
*카카오 AI 알고리즘 윤리 헌장


=== 학회 및 협회, 국제 기구의 인공지능 윤리 ===
===학회 및 협회, 국제 기구의 인공지능 윤리===


* OECD 권고안과 G20 AI 원칙
*[[OECD AI 권고안|OECD, AI 권고안]]('19.5, OECD 위원회)
**G20 정상선언문으로 발표(19.6)
*[[아실로마 인공지능 원칙]]
*IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
*유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)


=== 기타 ===
===기타===


*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙'''
*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙'''
92번째 줄: 110번째 줄:
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.


== 각주 ==
==각주==
<references />
<references />

2021년 5월 2일 (일) 23:31 판


인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
  • 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성

필요성 및 주목 배경

  • 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
  • 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
  • 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
  • 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가

인공지능 윤리 이슈 사례

  • (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
  • (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
  • (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
  • (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)

역사

주요 이슈

이슈 설명 예시
설명 불가능성

(Unexplainability)

인공지능의 판단 근거를 인간이 확인할 수 없음
  • 근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
    • 인공지능에 의한 정책결정
    • 인공지능에 의한 의료 행위
  • 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
책임 귀속 인공지능의 잘못은 누구의 잘못인지에 대한 모호성
  • 설계자의 잘못 vs 이용자의 잘못
    • 인공지능 로봇의 범죄
    • 자율주행차의 사고
    • 인공지능의 오판으로 인한 피해
편향된 판단 인간의 고정관념에 의한 인공지능의 편향된 결과
  • 옳고 그름을 배제한 데이터에 의한 판단
    • 여성은 남성에 비해 임금이 적다는 판단
    • 흑인은 백인에 비해 범죄율이 높다는 판단
일자리 감소 인공지능의 대체로 인한 인간의 일자리 감소
  • 챗봇으로 인한 전화상담사 필요성 감소
  • 로보어드바이저로 인한 애널리스트 필요성 감소
  • 인슈어테크로 인한 보험설계사 필요성 감소

인공지능 윤리의 구성[1]

  • 인공지능 자체의 윤리
  • 인공지능 설계자나 제작자의 윤리
  • 인공지능 이용자의 윤리

관련 개념

주요 사례

국내

주요 국가 인공지능 윤리

기업의 인공지능 윤리

  • 마이크로소프트 인공지능 개발 원칙
  • 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
  • IBM 인공지능 일반 윤리
  • 카카오 AI 알고리즘 윤리 헌장

학회 및 협회, 국제 기구의 인공지능 윤리

  • OECD, AI 권고안('19.5, OECD 위원회)
    • G20 정상선언문으로 발표(19.6)
  • 아실로마 인공지능 원칙
  • IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
  • 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)

기타

  • 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
  1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
  2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
  3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

각주

  1. 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)