인공지능 윤리: 두 판 사이의 차이

IT위키
편집 요약 없음
편집 요약 없음
1번째 줄: 1번째 줄:
[[분류:인공지능]]
[[분류:인공지능]]
;약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용 윤리


* 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
*# 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
;* 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
*# 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
*# 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.


== 필요성 ==
==필요성==
* 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
* 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
* 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가


== 주요 이슈 ==
*인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
 
== 역사 ==
 
*
 
==주요 이슈==
{| class="wikitable"
{| class="wikitable"
|-
|-
! 이슈  
!이슈
! 설명  
!설명
! 예시
!예시
|-
|-
| 설명 불가능성
|설명 불가능성
(Unexplainability)  
(Unexplainability)  
|| 인공지능의 판단 근거를 인간이 확인할 수 없음  
||인공지능의 판단 근거를 인간이 확인할 수 없음
||  
||
* 근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
*근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
** 인공지능에 의한 정책결정
**인공지능에 의한 정책결정
** 인공지능에 의한 의료 행위
**인공지능에 의한 의료 행위
* 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
*인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
|-
|-
| 책임 귀속 || 인공지능의 잘못은 누구의 잘못인지에 대한 모호성
|책임 귀속||인공지능의 잘못은 누구의 잘못인지에 대한 모호성
||
||
* 설계자의 잘못 vs 이용자의 잘못
*설계자의 잘못 vs 이용자의 잘못
** 인공지능 로봇의 범죄
**인공지능 로봇의 범죄
** 자율주행차의 사고
**자율주행차의 사고
** 인공지능의 오판으로 인한 피해
**인공지능의 오판으로 인한 피해
|-
|-
| 편향된 판단 || 인간의 고정관념에 의한 인공지능의 편향된 결과  
|편향된 판단||인간의 고정관념에 의한 인공지능의 편향된 결과
||  
||
* 옳고 그름을 배제한 데이터에 의한 판단
*옳고 그름을 배제한 데이터에 의한 판단
** 여성은 남성에 비해 임금이 적다는 판단
**여성은 남성에 비해 임금이 적다는 판단
** 흑인은 백인에 비해 범죄율이 높다는 판단
**흑인은 백인에 비해 범죄율이 높다는 판단
|-
|-
| 일자리 감소  
|일자리 감소
|| 인공지능의 대체로 인한 인간의 일자리 감소  
||인공지능의 대체로 인한 인간의 일자리 감소
||  
||
* 챗봇으로 인한 전화상담사 필요성 감소
*챗봇으로 인한 전화상담사 필요성 감소
* 로보어드바이저로 인한 애널리스트 필요성 감소
*로보어드바이저로 인한 애널리스트 필요성 감소
* 인슈어테크로 인한 보험설계사 필요성 감소
*인슈어테크로 인한 보험설계사 필요성 감소
|}
|}


== 인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref> ==
==인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref>==
* 인공지능 자체의 윤리
 
* 인공지능 설계자나 제작자의 윤리
*인공지능 자체의 윤리
* 인공지능 이용자의 윤리
*인공지능 설계자나 제작자의 윤리
*인공지능 이용자의 윤리
 
==관련 개념==
 
*[[트롤리 딜레마]]
*[[모랄 머신]]
*[[킬 스위치]]
 
==주요 사례==


== 관련 개념 ==
=== 국가의 인공지능 윤리 ===
* [[트롤리 딜레마]]
 
* [[모랄 머신]]
*유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006)
* [[킬 스위치]]
*산업자원부 '''로봇윤리헌장'''(2007)
*일본 총무성 인공지능 윤리 가이드라인
*[[아실로마 인공지능 원칙]]
*[[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[인공지능 윤리기준(과학기술정보통신부)|인공지능 윤리기준]]'''
 
=== 기업의 인공지능 윤리 ===
 
*마이크로소프트 인공지능 개발 원칙
*구글 인공지능 원칙
*IBM 인공지능 일반 윤리
*카카오 AI 알고리즘 윤리 헌장
 
=== 학회 및 협회, 국제 기구의 인공지능 윤리 ===


== 가이드 라인 ==
* 유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006)
* 산업자원부 '''로봇윤리헌장'''(2007)
* OECD 권고안과 G20 AI 원칙
* OECD 권고안과 G20 AI 원칙
* 일본 총무성 가이드라인
 
* [[아실로마 인공지능 원칙]]
=== 기타 ===
* 마이크로소프트, 구글, 페이스북 등 사기업의 AI 규범
 
*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙'''
 
#로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
#로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
 
== 각주 ==
<references />

2021년 4월 24일 (토) 21:27 판


인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
  • 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성

필요성

  • 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
  • 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
  • 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가

역사

주요 이슈

이슈 설명 예시
설명 불가능성

(Unexplainability)

인공지능의 판단 근거를 인간이 확인할 수 없음
  • 근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
    • 인공지능에 의한 정책결정
    • 인공지능에 의한 의료 행위
  • 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
책임 귀속 인공지능의 잘못은 누구의 잘못인지에 대한 모호성
  • 설계자의 잘못 vs 이용자의 잘못
    • 인공지능 로봇의 범죄
    • 자율주행차의 사고
    • 인공지능의 오판으로 인한 피해
편향된 판단 인간의 고정관념에 의한 인공지능의 편향된 결과
  • 옳고 그름을 배제한 데이터에 의한 판단
    • 여성은 남성에 비해 임금이 적다는 판단
    • 흑인은 백인에 비해 범죄율이 높다는 판단
일자리 감소 인공지능의 대체로 인한 인간의 일자리 감소
  • 챗봇으로 인한 전화상담사 필요성 감소
  • 로보어드바이저로 인한 애널리스트 필요성 감소
  • 인슈어테크로 인한 보험설계사 필요성 감소

인공지능 윤리의 구성[1]

  • 인공지능 자체의 윤리
  • 인공지능 설계자나 제작자의 윤리
  • 인공지능 이용자의 윤리

관련 개념

주요 사례

국가의 인공지능 윤리

기업의 인공지능 윤리

  • 마이크로소프트 인공지능 개발 원칙
  • 구글 인공지능 원칙
  • IBM 인공지능 일반 윤리
  • 카카오 AI 알고리즘 윤리 헌장

학회 및 협회, 국제 기구의 인공지능 윤리

  • OECD 권고안과 G20 AI 원칙

기타

  • 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
  1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
  2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
  3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

각주

  1. 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)