인공지능 윤리: 두 판 사이의 차이

IT위키
편집 요약 없음
편집 요약 없음
12번째 줄: 12번째 줄:


== 주요 이슈 ==
== 주요 이슈 ==
* 인공지능의 설명 불가능성(Unexplainable)
{| class="wikitable"
* 인공지능의 책임 귀속
|-
* 인공지능의 편향된 판정
! 이슈 !! 설명 !! 예시
* 인공지능과 일자리 감소
|-
| 인공지능의 설명 불가능성
(Unexplainability) || 예시 || 예시
|-
| 인공지능 책임 귀속 || 인공지능의 잘못은 누구의 잘못인가?
||
* 인공지능 로봇의 범죄
* 자율주행차의 사고
* 인공지능의 오판으로 인한 피해
|-
| 인공지능의 편향 || 인간의 고정관념에 의한 인공지능의 편향된 결과
||
* 옳고 그름을 배제한 데이터에 의한 판단
** 여성은 남성에 비해 임금이 적다는 판단
** 흑인은 백인에 비해 범죄율이 높다는 판단
|-
|
인공지능으로 인한 일자리 감소 || 인공지능의 대체로 인한 인간의 일자리 감소  
||
* 챗봇으로 인한 전화상담사 필요성 감소
* 로보어드바이저로 인한 애널리스트 필요성 감소
* 인슈어테크로 인한 보험설계사 필요성 감소
|}


== 인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref> ==
== 인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref> ==

2019년 8월 26일 (월) 01:52 판

약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용 윤리
  • 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
    1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
    2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
    3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

필요성

  • 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
  • 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
  • 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가

주요 이슈

이슈 설명 예시
인공지능의 설명 불가능성

(Unexplainability) || 예시 || 예시

인공지능 책임 귀속 인공지능의 잘못은 누구의 잘못인가?
  • 인공지능 로봇의 범죄
  • 자율주행차의 사고
  • 인공지능의 오판으로 인한 피해
인공지능의 편향 인간의 고정관념에 의한 인공지능의 편향된 결과
  • 옳고 그름을 배제한 데이터에 의한 판단
    • 여성은 남성에 비해 임금이 적다는 판단
    • 흑인은 백인에 비해 범죄율이 높다는 판단

인공지능으로 인한 일자리 감소 || 인공지능의 대체로 인한 인간의 일자리 감소

  • 챗봇으로 인한 전화상담사 필요성 감소
  • 로보어드바이저로 인한 애널리스트 필요성 감소
  • 인슈어테크로 인한 보험설계사 필요성 감소

인공지능 윤리의 구성[1]

  • 인공지능 자체의 윤리
  • 인공지능 설계자나 제작자의 윤리
  • 인공지능 이용자의 윤리

사례

  • 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
  • 산업자원부 로봇윤리헌장(2007)
  • OECD 권고안과 G20 AI 원칙
  • 일본 총무성 가이드라인
  • 아실로마 원칙
  • 마이크로소프트, 구글, 페이스북 등 사기업의 AI 규범
  1. 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)