인공지능 윤리: Difference between revisions
No edit summary |
No edit summary |
||
(9 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
[[분류:인공지능]] | |||
* | ;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙 | ||
;*약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성 | |||
== 필요성 == | ==필요성 및 주목 배경== | ||
== 주요 이슈 == | *인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려 | ||
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | |||
*인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생 | |||
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가 | |||
===인공지능 윤리 이슈 사례=== | |||
*'''(기술오남용)''' 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월) | |||
*'''(데이터 편향성)''' 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월) | |||
*'''(알고리즘 차별)''' 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월) | |||
*'''(프라이버시 침해)''' 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월) | |||
==역사== | |||
* | |||
==주요 이슈== | |||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 이슈 | !이슈 | ||
! 설명 | !설명 | ||
! 예시 | !예시 | ||
|- | |||
|기술 오남용 | |||
|인공지능을 이용한 사기, 해킹 등 부정 활용 | |||
| | |||
* GAN을 이용한 목소리 흉내로 송금 요청 | |||
* 가짜 뉴스를 이용한 여론 조작 및 분쟁 조장 | |||
|- | |- | ||
| 설명 불가능성 | |설명 불가능성 | ||
(Unexplainability) | (Unexplainability) | ||
|| 인공지능의 판단 근거를 인간이 확인할 수 없음 | ||인공지능의 판단 근거를 인간이 확인할 수 없음 | ||
|| | || | ||
* 근거를 알 수 없는 인공지능의 판단을 따라야 하는가? | *근거를 알 수 없는 인공지능의 판단을 따라야 하는가? | ||
** 인공지능에 의한 정책결정 | **인공지능에 의한 정책결정 | ||
** 인공지능에 의한 의료 행위 | **인공지능에 의한 의료 행위 | ||
* 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성 | *인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성 | ||
|- | |- | ||
| 책임 귀속 || 인공지능의 잘못은 누구의 | |책임 귀속||인공지능의 잘못은 누구의 잘못인지에 대한 모호성 | ||
|| | || | ||
* 인공지능 로봇의 범죄 | *설계자의 잘못 vs 이용자의 잘못 | ||
* 자율주행차의 사고 | **인공지능 로봇의 범죄 | ||
* 인공지능의 오판으로 인한 피해 | **자율주행차의 사고 | ||
**인공지능의 오판으로 인한 피해 | |||
|- | |- | ||
| 편향된 판단 || 인간의 고정관념에 의한 인공지능의 편향된 결과 | |편향된 판단||인간의 고정관념에 의한 인공지능의 편향된 결과 | ||
|| | || | ||
* 옳고 그름을 배제한 데이터에 의한 판단 | *옳고 그름을 배제한 데이터에 의한 판단 | ||
** 여성은 남성에 비해 임금이 적다는 판단 | **여성은 남성에 비해 임금이 적다는 판단 | ||
** 흑인은 백인에 비해 범죄율이 높다는 판단 | **흑인은 백인에 비해 범죄율이 높다는 판단 | ||
|- | |- | ||
| 일자리 감소 | |일자리 감소 | ||
|| 인공지능의 대체로 인한 인간의 일자리 감소 | ||인공지능의 대체로 인한 인간의 일자리 감소 | ||
|| | || | ||
* 챗봇으로 인한 전화상담사 필요성 감소 | *챗봇으로 인한 전화상담사 필요성 감소 | ||
* 로보어드바이저로 인한 애널리스트 필요성 감소 | *로보어드바이저로 인한 애널리스트 필요성 감소 | ||
* 인슈어테크로 인한 보험설계사 필요성 감소 | *인슈어테크로 인한 보험설계사 필요성 감소 | ||
|} | |} | ||
== 인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref> == | ==인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref>== | ||
* 인공지능 자체의 윤리 | |||
* 인공지능 설계자나 제작자의 윤리 | *인공지능 자체의 윤리 | ||
* 인공지능 이용자의 윤리 | *인공지능 설계자나 제작자의 윤리 | ||
*인공지능 이용자의 윤리 | |||
==관련 개념== | |||
*[[트롤리 딜레마]] | |||
*[[모랄 머신]] | |||
*[[킬 스위치]] | |||
==주요 사례== | |||
===국내=== | |||
*지능정보사회윤리가이드라인(18.4, 정보문화포럼) | |||
*이용자중심의 지능정보사회를 위한 원칙('19.11, 방송통신위원회) | |||
*[[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[국가 인공지능 윤리기준|인공지능 윤리기준]]''' | |||
===주요 국가 인공지능 윤리=== | |||
*유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006) | |||
*EU, [[신뢰할 수 있는 AI를 위한 윤리 가이드라인|신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)]] | |||
*산업자원부 '''로봇윤리헌장'''(2007) | |||
*일본, 총무성 인공지능 윤리 가이드라인 | |||
*[[인간 중심의 AI 원칙(일본)|일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)]] | |||
===기업의 인공지능 윤리=== | |||
*마이크로소프트 인공지능 개발 원칙 | |||
*미국 AI 활용에 대한 구글 원칙(’18.6, 구글) | |||
*IBM 인공지능 일반 윤리 | |||
*카카오 AI 알고리즘 윤리 헌장 | |||
===학회 및 협회, 국제 기구의 인공지능 윤리=== | |||
*[[G20 AI 원칙|OECD, AI 권고안]]('19.5, OECD 위원회) | |||
**G20 정상선언문으로 발표(19.6) | |||
*[[아실로마 인공지능 원칙]] | |||
*IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12) | |||
*유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹) | |||
===기타=== | |||
*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙''' | |||
#로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다. | |||
#로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다. | |||
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다. | |||
== 주요 원칙 == | |||
국내외 주요 AI 윤리원칙(25개) 주요내용<ref>출처: 대통령직속 4차산업혁명위원회 홈페이지</ref> | |||
{| class="wikitable" | |||
! colspan="2" |'''제목''' | |||
!'''주체''' | |||
!'''수립목적''' | |||
!'''주요 원칙''' | |||
!'''주요 특징''' | |||
|- | |||
!1 | |||
|Preparing for the Future of Artificial Intelligence (’16) | |||
|President National Science and Technology Council Committee on Technology | |||
(정부기관) | |||
|'''美 정부의 입장'''에서 AI 기술과 관련하여 나아갈 방향 제시한 '''정부 보고서''' | |||
|공공선, 공정성, 안전, 투명성, 이해가능성, '''선을 위한 AI(AI for good), 인간 가치(Human values)''' | |||
|AI를 주요 성장동력으로 보고 '''美 정부의 역할 강조''' | |||
'''윤리원칙 제시보다는''' 국제인도법에 근거한 AI 무기체계 개발 등 '''다양한 AI 관련 이슈를 제시하는데 초점''' | |||
|- | |||
!2 | |||
|Tenets (’16) | |||
|Partnership on AI | |||
(민간 연구소) | |||
|학계, 재계, 정책입안자 등 '''다양한 주체들의 협력 도모''' | |||
|'''AI 혜택 최대화,''' | |||
'''다양한 주체들 간 협력,''' 사생활보호, 견고함, 해악금지, 설명가능성 | |||
|학계, 기업, 정책입안자 등 '''다양한 주체들 간 협력을 강조하고''', 이를 통해 '''대중교육 등''' 추진할 것을 제안 | |||
기술 혜택 최대화의 전제로 사생활 보호, 연구공동체의 책임, 견고성, 해악금지 등 제시 | |||
|- | |||
!3 | |||
|AI Policy Principles (’17) | |||
|Information Technology Industry Council | |||
(민간 협회) | |||
|'''개발자에 대한 정부 차원의 지원''' 및 공적 영역과 사적 영역의 협업 강조 | |||
|안전과 제어가능성, 해석가능성, 인간 존엄성, '''데이터의 대표성, 유연한 규제접근,''' 기회의 평등 | |||
|개발자의 입장을 강조, '''정부의 규제나 개발자에 대한 정보공개 요구에 부정적''' | |||
'''다만 개발자에게도''' 안전한 설계, 데이터 대표성 등 '''높은 수준의 책임성 요구''' | |||
|- | |||
!4 | |||
|DeepMind Ethics & Society Principles (’17) | |||
|DeepMind | |||
(기업) | |||
|'''사내에서 AI 연구 수행시 윤리적 고려사항''' 제시 | |||
|사생활 침해 금지, 평등, 도덕성, 포용성, 안전과 책무성, '''거버넌스·규제''' | |||
|'''연구자에게 필요한 윤리원칙과 체크'''리스트를 제시하면서도 안전과 책무성을 '''보장하는 거버넌스·규제 필요성 제기''' | |||
|- | |||
!5 | |||
|Asilomar AI Principles (’17) | |||
|Future of Life Institute | |||
(민간 연구소) | |||
|미국 보스톤의 비영리 연구단체인 삶의 미래 연구소 (Future of Life Institute) 주관으로 작성한 윤리원칙 | |||
|인권보장, 개인정보보호, 해악금지, 공공성, 데이터 관리, 책임성, 통제성, 투명성, '''무기경쟁 회피''' | |||
|스티븐 호킹·일론 머스크 등 '''다수의 AI학자, 미래학자 및 산학연 관계자들이 서명''' | |||
AI 기술 연구자, 정책 입안자, 관련 산업 종사자에게 필요한 '''윤리원칙 제시''' | |||
|- | |||
!6 | |||
|AI at Google: Our Principles (’18) | |||
|Google | |||
(기업) | |||
|'''구글 AI 개발자'''에게 필요한 윤리원칙 제시 | |||
|사회적 혜택 증진, '''불공정한 편견 지양''', '''설명가능''', '''사생활침해 방지''' | |||
|'''개발을 제한해야되는 AI 어플리케이션'''으로 해를 끼치는 기술, 인명을 해하는 무기관련 기술, 국제 규약 위반 감시기술 등 '''제시''' | |||
|- | |||
!7 | |||
|Microsoft AI principles (’18) | |||
|Microsoft’s AETHER(AI and Ethics in Engineering and Research) | |||
(기업) | |||
|'''MS AI 개발자'''에게 필요한 윤리원칙 제시 | |||
|공정성, 신뢰성 및 안전, 사생활 및 보안, 포용성, 투명성, 책무성 | |||
|'''MS 사내 윤리강령 성격'''이 강하며, 책임질 수 있는 AI와 이를 위한 교육 강조 | |||
|- | |||
!8 | |||
|OpenAI Charter (’18) | |||
|OpenAI | |||
(민간 연구소) | |||
| '''AI 기술 연구자'''에게 필요한 윤리적 태도와 원칙 제시 | |||
|공공선, 해악금지, | |||
안전 담보, AI개발 선두주자, 타 연구단체 협력, | |||
|'''연구자의 자유로운 연구 증진에 초점,''' 고도로 자율적인 AGI(artificial general intelligence) 상정 | |||
|- | |||
!9 | |||
|Principles for Trust and Transparency (’18) | |||
|IBM | |||
(기업) | |||
|'''IBM 직원들을 대상'''으로 AI 연구를 위해 제시된 윤리원칙 | |||
|'''인간 지능 증강(augment)''', 데이터 소유권, 국경간 데이터 이동, 투명성 | |||
|'''AI는 인간을 대체하는 것이 아니라 증강(augment)하기 위한 것임을 명시''' | |||
AI 사용 여부·시기, 학습 데이터 출처 고지 등 규정 | |||
|- | |||
!10 | |||
|The Montreal Declaration for a Responsible Development of AI (’18) | |||
|University of Montreal | |||
(민간 대학) | |||
|몬트리올 대학에서 개발된 사회적으로 책임 있는 AI 연구를 위한 윤리원칙 | |||
|복지(well-being), 자율성 존중, 사생활 보호와 친밀성, 연대성, 민주적 참여, 공평, 다양성 포용, 사려 | |||
|'''친밀성(intimacy), 사려(prudence), 지속가능한 발전 등 다른 가이드라인에 잘 등장하지 않는 원칙 제시''' | |||
윤리원칙 제시와 함께 서명으로 선언에 동참하도록 장려 | |||
|- | |||
!11 | |||
|지능정보사회 윤리가이드라인 (’18) | |||
|정보문화포럼 | |||
(정부기관) | |||
|인간 중심의 지능정보사회 구현 | |||
|'''이용자 주도성''', '''이용자/시민참여''', 공익, 공정성, 위험예방, 프라이버시 보호 | |||
|지능정보기술 관련 개발자 및 공급자의 윤리의식 고취 및 이용자의 오남용 방지 지침 | |||
'''주체별(개발자, 공급자, 이용자) 세부지침 마련''' | |||
|- | |||
!12 | |||
|AI in the UK: Ready, Willing and Able? (’18) | |||
|영국 정부 | |||
(정부기관) | |||
|'''영국 정부 차원에서 정책적으로 접근'''할 수 있는 제언 제시 | |||
|데이터 접근과 제어, 이해가능한 AI, '''디지털 이해력 증진''', '''공중보건 관리''' | |||
|'''영국이라는 특정 국가 입장'''에서 공중보건 데이터 관리, AI 디지털 이해력 제고 등 '''구체적으로 취할 수 있는 AI 관련 정책을 제시''' | |||
|- | |||
!13 | |||
|카카오 알고리즘 윤리헌장 (’18) | |||
|카카오 | |||
(기업) | |||
|'''카카오 내 AI 관련 연구'''시 지향되어야 할 윤리원칙 제언 | |||
|사회윤리 준수, 차별 경계, 학습데이터 운영, 알고리즘 독립성 및 설명, | |||
기술 포용성, '''아동·청소년 보호''' | |||
|'''국내기업 최초 AI 윤리헌장'''으로, 알고리즘과 데이터에 대한 관리, '''아동과 청소년에 대한 보호 필요성 등 강조''' | |||
|- | |||
!14 | |||
|The Future Computed: AI and its role in Society (’18) | |||
|Microsoft’s AETHER | |||
(기업) | |||
|AI가 가져올 미래의 변화에 대응하기 위해 MS의 Aether 연구소에서 책자 제작 | |||
|'''AI에 의한 진보''', 공정성, 신뢰성 및 안전, 사생활·보안, 포용성, 투명성 | |||
|'''AI가 경제·사회적 진보를 이끌고 지역적·전지구적 문제를 해결할 것이라는 관점''' | |||
AI가 직업과 직장에 미치는 영향에 공공부문과 민간부문이 협력해 대응할 필요성 제시 | |||
|- | |||
!15 | |||
|Discriminating Systems - Gender, Race, and Power in AI (’19) | |||
|AI Now | |||
(민간 연구소) | |||
|작업환경에서 다양성을 확보하기 위해 고려할 사항 제시 | |||
|다양성, 해악금지, 개방성, 투명성 | |||
|급여지급 기준의 인종별, 성별 공개, 직원 채용시 투명성 준수 등 제시 | |||
특히 '''AI 시스템 사용시 투명성·편견·해악에 대한 철저한 점검·감시·추적·공개를 강조''' | |||
|- | |||
!16 | |||
|Ethically Aligned Design(Ver. 2) (’19) | |||
|The IEEE Global Initiative on Ethics of Autonomous and Intelligent System | |||
(민간 학회) | |||
|IEEE에서 Ethics in Action 캠페인과 함께 아울러 공개된 보고서 | |||
|인권, 복지우선, 책무성, 투명성, 오용의 인식 | |||
|각 원칙별로 이론적 배경, 참고자료를 제시하고 윤리원칙뿐만 아니라 관련 분야들에 대한 자료 수록 | |||
|- | |||
!17 | |||
|이용자 중심의 지능정보사회를 위한 원칙 (’19) | |||
|방통위-KISDI | |||
(정부기관) | |||
|안전한 지능정보서비스 환경조성 및 이용자의 권리와 자유에 근거한 윤리원칙 제시 | |||
|사람중심 서비스, 투명성과 설명가능성, 책임성, 안전성, 차별금지, 참여, '''프라이버시와 데이터거버넌스''' | |||
|안전한 지능정보서비스 환경조성 및 이용자 보호를 위해 모든 주체 사이의 협력 강조 | |||
기업과 연구자들의 의견을 폭넓게 수렴하여 작성 | |||
이용자 보호의 관점 강조 | |||
|- | |||
!18 | |||
|로봇 윤리 기본 원칙(수정) (’19) | |||
|산업통상자원부 | |||
(정부기관) | |||
|'''2007년에 만들어진 로봇윤리헌장을''' | |||
'''수정 보완''' | |||
|인간의 존엄성 보호, 공공선, 행복추구, 투명성, 제어가능성, 책무성, 안전성, 정보보호 | |||
|'''로봇산업계에 종사하는 연구원, 개발자, 및 사용자'''가 로봇과 AI을 설계·제작·공급·사용·관리하는 데 기준으로 삼는 가이드라인 제시 | |||
|- | |||
!19 | |||
|인간중심의 AI 사회 원칙 (’19) | |||
|일본 총무성 | |||
(정부기관) | |||
|'''25명의 산학연 전문가로 구성된 ‘인간 중심의 AI 사회 원칙 위원회’'''를 통해 제안 | |||
|인간중심, 교육교양, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신 | |||
|'''저출산, 고령화, 지방쇠퇴, 재해 재난 등 일본이 처한 어려움을 AI가 해결'''할 수 있을 것으로 상정 | |||
AI를 공공재로 활용하여 사회의 근본적인 변화와 혁신을 달성하여 지속 가능한 발전 추구 | |||
|- | |||
!20 | |||
|Ethics Guidelines for Trustworthy AI (’19) | |||
|EU | |||
(국가 정부기관) | |||
|'''EU 산하의 50여명으로 구성된 AI 전문가 그룹''' 주도 | |||
|'''인간 권리·자율성 보장''', '''기술적 견실성''', '''사생활''', '''데이터 관리''', 투명성, 다양성, 차별금지, 복지, 책무성 | |||
|'''범국가 차원의 협업을 통해 신뢰할 수 있는 AI를 위한 윤리원칙 정립'''에 초점을 맞춤 | |||
각 원칙의 평가 리스트를 구체적으로 제시 | |||
|- | |||
!21 | |||
|Recommendation of the Council on AI (’19) | |||
|OECD | |||
(범국가 정부기관) | |||
|'''OECD 디지털 경제 정책 위원회''' 주관하에 제작 | |||
|'''포용적 성장''', '''지속가능 발전''', '''인간중심 가치''', 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성 | |||
|윤리원칙 뿐 아니라 정책 입안자들에 대한 제언 제시, '''국가별 정책 수립과 국제적 협력 도모''' | |||
|- | |||
!22 | |||
|The global landscape of AI ethics guidelines (’19) | |||
|Jobin. A., Ienca, M. & Vayena, E. | |||
(개인) | |||
|전 세계의 주요 84개의 AI 윤리 가이드라인을 분석 | |||
|투명성, 정의, 해악금지, 책임, 사생활보호, 혜택 추구, 자유, 신뢰, 지속가능성, 연대성 | |||
|'''주요 윤리원칙을 빈도수별로 분석하고 주로 선진국을 중심으로 발표되고 있음을 밝힘''' | |||
|- | |||
!23 | |||
|Understanding artificial intelligence ethics and safety (’19) | |||
|The Alan Turing Institute | |||
(국영 연구소) | |||
|'''영국의 국영 연구소'''인 Alan Turing 연구소에서 제작 | |||
|존중, 연결, 보호, 돌봄, 공정성, 책임성, 지속가능성, 투명성 | |||
|AI 기술이 '''데이터를 처리할 때 발생할 수 있는 위험이나 문제점을 예방하는 데 필요한 윤리원칙에 초점''' | |||
|- | |||
!24 | |||
|Principles Artificial Intelligence: A Map of Ethical and Rights-Based Approaches (’20) | |||
|Berkman Klein Center For Internet & Society | |||
(민간 연구소) | |||
|36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석 | |||
|사생활보호, 책무성, 안전과 보안, 투명성과 설명가능성, 공정성과 차별금지, 인간의 기술통제, 전문적 책임 | |||
|'''정부, 정부 기관, 사적 기관 등 다양한 주체들이 제시한 윤리원칙들을 8개의 주제로 분류하고 분석''' | |||
|- | |||
!25 | |||
|Rome Call for AI Ethics (’20) | |||
|로마 교황청 | |||
(민간기관) | |||
|'''로마 교황청'''에서 인간의 혁신적인 미래를 위한 AI 윤리원칙 제정 | |||
|투명성, 포용성, 책임성, 불편부당성, 신뢰성, 보안과 사생활 보호 | |||
|'''종교 기관인 가톨릭교회에서 제정'''한 윤리 원칙으로, '''인간 가족(human family)에 대한 봉사, 젊은 세대에 대한 준비, 자연의 회복 필요성''' 등 제시 | |||
|} | |||
== | ==각주== | ||
<references /> | |||
Latest revision as of 10:33, 13 May 2021
- 인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
필요성 및 주목 배경[edit | edit source]
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
- 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
인공지능 윤리 이슈 사례[edit | edit source]
- (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
- (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
- (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
- (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)
역사[edit | edit source]
주요 이슈[edit | edit source]
이슈 | 설명 | 예시 |
---|---|---|
기술 오남용 | 인공지능을 이용한 사기, 해킹 등 부정 활용 |
|
설명 불가능성
(Unexplainability) |
인공지능의 판단 근거를 인간이 확인할 수 없음 |
|
책임 귀속 | 인공지능의 잘못은 누구의 잘못인지에 대한 모호성 |
|
편향된 판단 | 인간의 고정관념에 의한 인공지능의 편향된 결과 |
|
일자리 감소 | 인공지능의 대체로 인한 인간의 일자리 감소 |
|
인공지능 윤리의 구성[1][edit | edit source]
- 인공지능 자체의 윤리
- 인공지능 설계자나 제작자의 윤리
- 인공지능 이용자의 윤리
관련 개념[edit | edit source]
주요 사례[edit | edit source]
국내[edit | edit source]
주요 국가 인공지능 윤리[edit | edit source]
- 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
- EU, 신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)
- 산업자원부 로봇윤리헌장(2007)
- 일본, 총무성 인공지능 윤리 가이드라인
- 일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)
기업의 인공지능 윤리[edit | edit source]
- 마이크로소프트 인공지능 개발 원칙
- 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
- IBM 인공지능 일반 윤리
- 카카오 AI 알고리즘 윤리 헌장
학회 및 협회, 국제 기구의 인공지능 윤리[edit | edit source]
- OECD, AI 권고안('19.5, OECD 위원회)
- G20 정상선언문으로 발표(19.6)
- 아실로마 인공지능 원칙
- IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
- 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)
기타[edit | edit source]
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
주요 원칙[edit | edit source]
국내외 주요 AI 윤리원칙(25개) 주요내용[2]
제목 | 주체 | 수립목적 | 주요 원칙 | 주요 특징 | |
---|---|---|---|---|---|
1 | Preparing for the Future of Artificial Intelligence (’16) | President National Science and Technology Council Committee on Technology
(정부기관) |
美 정부의 입장에서 AI 기술과 관련하여 나아갈 방향 제시한 정부 보고서 | 공공선, 공정성, 안전, 투명성, 이해가능성, 선을 위한 AI(AI for good), 인간 가치(Human values) | AI를 주요 성장동력으로 보고 美 정부의 역할 강조
윤리원칙 제시보다는 국제인도법에 근거한 AI 무기체계 개발 등 다양한 AI 관련 이슈를 제시하는데 초점 |
2 | Tenets (’16) | Partnership on AI
(민간 연구소) |
학계, 재계, 정책입안자 등 다양한 주체들의 협력 도모 | AI 혜택 최대화,
다양한 주체들 간 협력, 사생활보호, 견고함, 해악금지, 설명가능성 |
학계, 기업, 정책입안자 등 다양한 주체들 간 협력을 강조하고, 이를 통해 대중교육 등 추진할 것을 제안
기술 혜택 최대화의 전제로 사생활 보호, 연구공동체의 책임, 견고성, 해악금지 등 제시 |
3 | AI Policy Principles (’17) | Information Technology Industry Council
(민간 협회) |
개발자에 대한 정부 차원의 지원 및 공적 영역과 사적 영역의 협업 강조 | 안전과 제어가능성, 해석가능성, 인간 존엄성, 데이터의 대표성, 유연한 규제접근, 기회의 평등 | 개발자의 입장을 강조, 정부의 규제나 개발자에 대한 정보공개 요구에 부정적
다만 개발자에게도 안전한 설계, 데이터 대표성 등 높은 수준의 책임성 요구 |
4 | DeepMind Ethics & Society Principles (’17) | DeepMind
(기업) |
사내에서 AI 연구 수행시 윤리적 고려사항 제시 | 사생활 침해 금지, 평등, 도덕성, 포용성, 안전과 책무성, 거버넌스·규제 | 연구자에게 필요한 윤리원칙과 체크리스트를 제시하면서도 안전과 책무성을 보장하는 거버넌스·규제 필요성 제기 |
5 | Asilomar AI Principles (’17) | Future of Life Institute
(민간 연구소) |
미국 보스톤의 비영리 연구단체인 삶의 미래 연구소 (Future of Life Institute) 주관으로 작성한 윤리원칙 | 인권보장, 개인정보보호, 해악금지, 공공성, 데이터 관리, 책임성, 통제성, 투명성, 무기경쟁 회피 | 스티븐 호킹·일론 머스크 등 다수의 AI학자, 미래학자 및 산학연 관계자들이 서명
AI 기술 연구자, 정책 입안자, 관련 산업 종사자에게 필요한 윤리원칙 제시 |
6 | AI at Google: Our Principles (’18) | Google
(기업) |
구글 AI 개발자에게 필요한 윤리원칙 제시 | 사회적 혜택 증진, 불공정한 편견 지양, 설명가능, 사생활침해 방지 | 개발을 제한해야되는 AI 어플리케이션으로 해를 끼치는 기술, 인명을 해하는 무기관련 기술, 국제 규약 위반 감시기술 등 제시 |
7 | Microsoft AI principles (’18) | Microsoft’s AETHER(AI and Ethics in Engineering and Research)
(기업) |
MS AI 개발자에게 필요한 윤리원칙 제시 | 공정성, 신뢰성 및 안전, 사생활 및 보안, 포용성, 투명성, 책무성 | MS 사내 윤리강령 성격이 강하며, 책임질 수 있는 AI와 이를 위한 교육 강조 |
8 | OpenAI Charter (’18) | OpenAI
(민간 연구소) |
AI 기술 연구자에게 필요한 윤리적 태도와 원칙 제시 | 공공선, 해악금지,
안전 담보, AI개발 선두주자, 타 연구단체 협력, |
연구자의 자유로운 연구 증진에 초점, 고도로 자율적인 AGI(artificial general intelligence) 상정 |
9 | Principles for Trust and Transparency (’18) | IBM
(기업) |
IBM 직원들을 대상으로 AI 연구를 위해 제시된 윤리원칙 | 인간 지능 증강(augment), 데이터 소유권, 국경간 데이터 이동, 투명성 | AI는 인간을 대체하는 것이 아니라 증강(augment)하기 위한 것임을 명시
AI 사용 여부·시기, 학습 데이터 출처 고지 등 규정 |
10 | The Montreal Declaration for a Responsible Development of AI (’18) | University of Montreal
(민간 대학) |
몬트리올 대학에서 개발된 사회적으로 책임 있는 AI 연구를 위한 윤리원칙 | 복지(well-being), 자율성 존중, 사생활 보호와 친밀성, 연대성, 민주적 참여, 공평, 다양성 포용, 사려 | 친밀성(intimacy), 사려(prudence), 지속가능한 발전 등 다른 가이드라인에 잘 등장하지 않는 원칙 제시
윤리원칙 제시와 함께 서명으로 선언에 동참하도록 장려 |
11 | 지능정보사회 윤리가이드라인 (’18) | 정보문화포럼
(정부기관) |
인간 중심의 지능정보사회 구현 | 이용자 주도성, 이용자/시민참여, 공익, 공정성, 위험예방, 프라이버시 보호 | 지능정보기술 관련 개발자 및 공급자의 윤리의식 고취 및 이용자의 오남용 방지 지침
주체별(개발자, 공급자, 이용자) 세부지침 마련 |
12 | AI in the UK: Ready, Willing and Able? (’18) | 영국 정부
(정부기관) |
영국 정부 차원에서 정책적으로 접근할 수 있는 제언 제시 | 데이터 접근과 제어, 이해가능한 AI, 디지털 이해력 증진, 공중보건 관리 | 영국이라는 특정 국가 입장에서 공중보건 데이터 관리, AI 디지털 이해력 제고 등 구체적으로 취할 수 있는 AI 관련 정책을 제시 |
13 | 카카오 알고리즘 윤리헌장 (’18) | 카카오
(기업) |
카카오 내 AI 관련 연구시 지향되어야 할 윤리원칙 제언 | 사회윤리 준수, 차별 경계, 학습데이터 운영, 알고리즘 독립성 및 설명,
기술 포용성, 아동·청소년 보호 |
국내기업 최초 AI 윤리헌장으로, 알고리즘과 데이터에 대한 관리, 아동과 청소년에 대한 보호 필요성 등 강조 |
14 | The Future Computed: AI and its role in Society (’18) | Microsoft’s AETHER
(기업) |
AI가 가져올 미래의 변화에 대응하기 위해 MS의 Aether 연구소에서 책자 제작 | AI에 의한 진보, 공정성, 신뢰성 및 안전, 사생활·보안, 포용성, 투명성 | AI가 경제·사회적 진보를 이끌고 지역적·전지구적 문제를 해결할 것이라는 관점
AI가 직업과 직장에 미치는 영향에 공공부문과 민간부문이 협력해 대응할 필요성 제시 |
15 | Discriminating Systems - Gender, Race, and Power in AI (’19) | AI Now
(민간 연구소) |
작업환경에서 다양성을 확보하기 위해 고려할 사항 제시 | 다양성, 해악금지, 개방성, 투명성 | 급여지급 기준의 인종별, 성별 공개, 직원 채용시 투명성 준수 등 제시
특히 AI 시스템 사용시 투명성·편견·해악에 대한 철저한 점검·감시·추적·공개를 강조 |
16 | Ethically Aligned Design(Ver. 2) (’19) | The IEEE Global Initiative on Ethics of Autonomous and Intelligent System
(민간 학회) |
IEEE에서 Ethics in Action 캠페인과 함께 아울러 공개된 보고서 | 인권, 복지우선, 책무성, 투명성, 오용의 인식 | 각 원칙별로 이론적 배경, 참고자료를 제시하고 윤리원칙뿐만 아니라 관련 분야들에 대한 자료 수록 |
17 | 이용자 중심의 지능정보사회를 위한 원칙 (’19) | 방통위-KISDI
(정부기관) |
안전한 지능정보서비스 환경조성 및 이용자의 권리와 자유에 근거한 윤리원칙 제시 | 사람중심 서비스, 투명성과 설명가능성, 책임성, 안전성, 차별금지, 참여, 프라이버시와 데이터거버넌스 | 안전한 지능정보서비스 환경조성 및 이용자 보호를 위해 모든 주체 사이의 협력 강조
기업과 연구자들의 의견을 폭넓게 수렴하여 작성 이용자 보호의 관점 강조 |
18 | 로봇 윤리 기본 원칙(수정) (’19) | 산업통상자원부
(정부기관) |
2007년에 만들어진 로봇윤리헌장을
수정 보완 |
인간의 존엄성 보호, 공공선, 행복추구, 투명성, 제어가능성, 책무성, 안전성, 정보보호 | 로봇산업계에 종사하는 연구원, 개발자, 및 사용자가 로봇과 AI을 설계·제작·공급·사용·관리하는 데 기준으로 삼는 가이드라인 제시 |
19 | 인간중심의 AI 사회 원칙 (’19) | 일본 총무성
(정부기관) |
25명의 산학연 전문가로 구성된 ‘인간 중심의 AI 사회 원칙 위원회’를 통해 제안 | 인간중심, 교육교양, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신 | 저출산, 고령화, 지방쇠퇴, 재해 재난 등 일본이 처한 어려움을 AI가 해결할 수 있을 것으로 상정
AI를 공공재로 활용하여 사회의 근본적인 변화와 혁신을 달성하여 지속 가능한 발전 추구 |
20 | Ethics Guidelines for Trustworthy AI (’19) | EU
(국가 정부기관) |
EU 산하의 50여명으로 구성된 AI 전문가 그룹 주도 | 인간 권리·자율성 보장, 기술적 견실성, 사생활, 데이터 관리, 투명성, 다양성, 차별금지, 복지, 책무성 | 범국가 차원의 협업을 통해 신뢰할 수 있는 AI를 위한 윤리원칙 정립에 초점을 맞춤
각 원칙의 평가 리스트를 구체적으로 제시 |
21 | Recommendation of the Council on AI (’19) | OECD
(범국가 정부기관) |
OECD 디지털 경제 정책 위원회 주관하에 제작 | 포용적 성장, 지속가능 발전, 인간중심 가치, 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성 | 윤리원칙 뿐 아니라 정책 입안자들에 대한 제언 제시, 국가별 정책 수립과 국제적 협력 도모 |
22 | The global landscape of AI ethics guidelines (’19) | Jobin. A., Ienca, M. & Vayena, E.
(개인) |
전 세계의 주요 84개의 AI 윤리 가이드라인을 분석 | 투명성, 정의, 해악금지, 책임, 사생활보호, 혜택 추구, 자유, 신뢰, 지속가능성, 연대성 | 주요 윤리원칙을 빈도수별로 분석하고 주로 선진국을 중심으로 발표되고 있음을 밝힘 |
23 | Understanding artificial intelligence ethics and safety (’19) | The Alan Turing Institute
(국영 연구소) |
영국의 국영 연구소인 Alan Turing 연구소에서 제작 | 존중, 연결, 보호, 돌봄, 공정성, 책임성, 지속가능성, 투명성 | AI 기술이 데이터를 처리할 때 발생할 수 있는 위험이나 문제점을 예방하는 데 필요한 윤리원칙에 초점 |
24 | Principles Artificial Intelligence: A Map of Ethical and Rights-Based Approaches (’20) | Berkman Klein Center For Internet & Society
(민간 연구소) |
36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석 | 사생활보호, 책무성, 안전과 보안, 투명성과 설명가능성, 공정성과 차별금지, 인간의 기술통제, 전문적 책임 | 정부, 정부 기관, 사적 기관 등 다양한 주체들이 제시한 윤리원칙들을 8개의 주제로 분류하고 분석 |
25 | Rome Call for AI Ethics (’20) | 로마 교황청
(민간기관) |
로마 교황청에서 인간의 혁신적인 미래를 위한 AI 윤리원칙 제정 | 투명성, 포용성, 책임성, 불편부당성, 신뢰성, 보안과 사생활 보호 | 종교 기관인 가톨릭교회에서 제정한 윤리 원칙으로, 인간 가족(human family)에 대한 봉사, 젊은 세대에 대한 준비, 자연의 회복 필요성 등 제시 |