최신판 |
당신의 편집 |
1번째 줄: |
1번째 줄: |
| [[분류:인공지능]]
| | ;약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용 윤리 |
|
| |
|
| ;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
| | * 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙 |
| ;*약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
| | *# 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다. |
| | *# 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다. |
| | *# 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다. |
|
| |
|
| ==필요성 및 주목 배경== | | == 필요성 == |
| | * 인공지능, 로봇의 급격한 발전으로 인한 디스토피아에 대한 두려움 |
| | * 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 |
| | * 인간의 고정관념(stereotype)에 의한 인공지능의 편상(bias) 사례 급증 |
|
| |
|
| *인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
| | == 주요 이슈 == |
| *의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
| | * 인공지능의 설명 불가능성(Unexplainable) |
| *인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
| | * 인공지능의 편향된 판정 |
| *인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
| | * 인공지능과 일자리 감소 |
| | |
| ===인공지능 윤리 이슈 사례===
| |
| | |
| *'''(기술오남용)''' 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
| |
| *'''(데이터 편향성)''' 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
| |
| *'''(알고리즘 차별)''' 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
| |
| *'''(프라이버시 침해)''' 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)
| |
| | |
| ==역사==
| |
| | |
| *
| |
| | |
| ==주요 이슈== | |
| {| class="wikitable"
| |
| |-
| |
| !이슈
| |
| !설명
| |
| !예시
| |
| |-
| |
| |기술 오남용
| |
| |인공지능을 이용한 사기, 해킹 등 부정 활용
| |
| |
| |
| * GAN을 이용한 목소리 흉내로 송금 요청 | |
| * 가짜 뉴스를 이용한 여론 조작 및 분쟁 조장
| |
| |-
| |
| |설명 불가능성
| |
| (Unexplainability) | |
| ||인공지능의 판단 근거를 인간이 확인할 수 없음
| |
| ||
| |
| *근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
| |
| **인공지능에 의한 정책결정
| |
| **인공지능에 의한 의료 행위
| |
| *인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
| |
| |-
| |
| |책임 귀속||인공지능의 잘못은 누구의 잘못인지에 대한 모호성
| |
| ||
| |
| *설계자의 잘못 vs 이용자의 잘못
| |
| **인공지능 로봇의 범죄
| |
| **자율주행차의 사고
| |
| **인공지능의 오판으로 인한 피해
| |
| |-
| |
| |편향된 판단||인간의 고정관념에 의한 인공지능의 편향된 결과
| |
| ||
| |
| *옳고 그름을 배제한 데이터에 의한 판단
| |
| **여성은 남성에 비해 임금이 적다는 판단
| |
| **흑인은 백인에 비해 범죄율이 높다는 판단 | |
| |-
| |
| |일자리 감소
| |
| ||인공지능의 대체로 인한 인간의 일자리 감소
| |
| ||
| |
| *챗봇으로 인한 전화상담사 필요성 감소
| |
| *로보어드바이저로 인한 애널리스트 필요성 감소
| |
| *인슈어테크로 인한 보험설계사 필요성 감소
| |
| |}
| |
| | |
| ==인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref>==
| |
| | |
| *인공지능 자체의 윤리
| |
| *인공지능 설계자나 제작자의 윤리
| |
| *인공지능 이용자의 윤리
| |
| | |
| ==관련 개념==
| |
| | |
| *[[트롤리 딜레마]]
| |
| *[[모랄 머신]]
| |
| *[[킬 스위치]]
| |
| | |
| ==주요 사례==
| |
| | |
| ===국내===
| |
| | |
| *지능정보사회윤리가이드라인(18.4, 정보문화포럼)
| |
| *이용자중심의 지능정보사회를 위한 원칙('19.11, 방송통신위원회)
| |
| *[[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[국가 인공지능 윤리기준|인공지능 윤리기준]]'''
| |
| | |
| ===주요 국가 인공지능 윤리===
| |
| | |
| *유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006)
| |
| *EU, [[신뢰할 수 있는 AI를 위한 윤리 가이드라인|신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)]]
| |
| *산업자원부 '''로봇윤리헌장'''(2007)
| |
| *일본, 총무성 인공지능 윤리 가이드라인
| |
| *[[인간 중심의 AI 원칙(일본)|일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)]]
| |
| | |
| ===기업의 인공지능 윤리===
| |
| | |
| *마이크로소프트 인공지능 개발 원칙
| |
| *미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
| |
| *IBM 인공지능 일반 윤리
| |
| *카카오 AI 알고리즘 윤리 헌장
| |
| | |
| ===학회 및 협회, 국제 기구의 인공지능 윤리===
| |
| | |
| *[[G20 AI 원칙|OECD, AI 권고안]]('19.5, OECD 위원회)
| |
| **G20 정상선언문으로 발표(19.6)
| |
| *[[아실로마 인공지능 원칙]]
| |
| *IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
| |
| *유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)
| |
| | |
| ===기타===
| |
| | |
| *'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙'''
| |
| | |
| #로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
| |
| #로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
| |
| #로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
| |
| | |
| == 주요 원칙 ==
| |
| 국내외 주요 AI 윤리원칙(25개) 주요내용<ref>출처: 대통령직속 4차산업혁명위원회 홈페이지</ref>
| |
| {| class="wikitable"
| |
| ! colspan="2" |'''제목'''
| |
| !'''주체'''
| |
| !'''수립목적'''
| |
| !'''주요 원칙'''
| |
| !'''주요 특징'''
| |
| |-
| |
| !1
| |
| |Preparing for the Future of Artificial Intelligence (’16)
| |
| |President National Science and Technology Council Committee on Technology
| |
| | |
| (정부기관)
| |
| |'''美 정부의 입장'''에서 AI 기술과 관련하여 나아갈 방향 제시한 '''정부 보고서'''
| |
| |공공선, 공정성, 안전, 투명성, 이해가능성, '''선을 위한 AI(AI for good), 인간 가치(Human values)'''
| |
| |AI를 주요 성장동력으로 보고 '''美 정부의 역할 강조'''
| |
| | |
| '''윤리원칙 제시보다는''' 국제인도법에 근거한 AI 무기체계 개발 등 '''다양한 AI 관련 이슈를 제시하는데 초점'''
| |
| |-
| |
| !2
| |
| |Tenets (’16)
| |
| |Partnership on AI
| |
| | |
| (민간 연구소)
| |
| |학계, 재계, 정책입안자 등 '''다양한 주체들의 협력 도모'''
| |
| |'''AI 혜택 최대화,'''
| |
| | |
| '''다양한 주체들 간 협력,''' 사생활보호, 견고함, 해악금지, 설명가능성
| |
| |학계, 기업, 정책입안자 등 '''다양한 주체들 간 협력을 강조하고''', 이를 통해 '''대중교육 등''' 추진할 것을 제안
| |
| | |
| 기술 혜택 최대화의 전제로 사생활 보호, 연구공동체의 책임, 견고성, 해악금지 등 제시
| |
| |-
| |
| !3
| |
| |AI Policy Principles (’17)
| |
| |Information Technology Industry Council
| |
| | |
| (민간 협회)
| |
| |'''개발자에 대한 정부 차원의 지원''' 및 공적 영역과 사적 영역의 협업 강조
| |
| |안전과 제어가능성, 해석가능성, 인간 존엄성, '''데이터의 대표성, 유연한 규제접근,''' 기회의 평등
| |
| |개발자의 입장을 강조, '''정부의 규제나 개발자에 대한 정보공개 요구에 부정적'''
| |
| | |
| '''다만 개발자에게도''' 안전한 설계, 데이터 대표성 등 '''높은 수준의 책임성 요구'''
| |
| |-
| |
| !4
| |
| |DeepMind Ethics & Society Principles (’17)
| |
| |DeepMind
| |
| | |
| (기업)
| |
| |'''사내에서 AI 연구 수행시 윤리적 고려사항''' 제시
| |
| |사생활 침해 금지, 평등, 도덕성, 포용성, 안전과 책무성, '''거버넌스·규제'''
| |
| |'''연구자에게 필요한 윤리원칙과 체크'''리스트를 제시하면서도 안전과 책무성을 '''보장하는 거버넌스·규제 필요성 제기'''
| |
| |-
| |
| !5
| |
| |Asilomar AI Principles (’17)
| |
| |Future of Life Institute
| |
| | |
| (민간 연구소)
| |
| |미국 보스톤의 비영리 연구단체인 삶의 미래 연구소 (Future of Life Institute) 주관으로 작성한 윤리원칙
| |
| |인권보장, 개인정보보호, 해악금지, 공공성, 데이터 관리, 책임성, 통제성, 투명성, '''무기경쟁 회피'''
| |
| |스티븐 호킹·일론 머스크 등 '''다수의 AI학자, 미래학자 및 산학연 관계자들이 서명'''
| |
| | |
| AI 기술 연구자, 정책 입안자, 관련 산업 종사자에게 필요한 '''윤리원칙 제시'''
| |
| |-
| |
| !6
| |
| |AI at Google: Our Principles (’18)
| |
| |Google
| |
| | |
| (기업)
| |
| |'''구글 AI 개발자'''에게 필요한 윤리원칙 제시
| |
| |사회적 혜택 증진, '''불공정한 편견 지양''', '''설명가능''', '''사생활침해 방지'''
| |
| |'''개발을 제한해야되는 AI 어플리케이션'''으로 해를 끼치는 기술, 인명을 해하는 무기관련 기술, 국제 규약 위반 감시기술 등 '''제시'''
| |
| |-
| |
| !7
| |
| |Microsoft AI principles (’18)
| |
| |Microsoft’s AETHER(AI and Ethics in Engineering and Research)
| |
| | |
| (기업)
| |
| |'''MS AI 개발자'''에게 필요한 윤리원칙 제시
| |
| |공정성, 신뢰성 및 안전, 사생활 및 보안, 포용성, 투명성, 책무성
| |
| |'''MS 사내 윤리강령 성격'''이 강하며, 책임질 수 있는 AI와 이를 위한 교육 강조
| |
| |-
| |
| !8
| |
| |OpenAI Charter (’18)
| |
| |OpenAI
| |
| | |
| (민간 연구소)
| |
| | '''AI 기술 연구자'''에게 필요한 윤리적 태도와 원칙 제시
| |
| |공공선, 해악금지,
| |
| | |
| 안전 담보, AI개발 선두주자, 타 연구단체 협력,
| |
| |'''연구자의 자유로운 연구 증진에 초점,''' 고도로 자율적인 AGI(artificial general intelligence) 상정
| |
| |-
| |
| !9
| |
| |Principles for Trust and Transparency (’18)
| |
| |IBM
| |
| | |
| (기업)
| |
| |'''IBM 직원들을 대상'''으로 AI 연구를 위해 제시된 윤리원칙
| |
| |'''인간 지능 증강(augment)''', 데이터 소유권, 국경간 데이터 이동, 투명성
| |
| |'''AI는 인간을 대체하는 것이 아니라 증강(augment)하기 위한 것임을 명시'''
| |
| | |
| AI 사용 여부·시기, 학습 데이터 출처 고지 등 규정
| |
| |-
| |
| !10
| |
| |The Montreal Declaration for a Responsible Development of AI (’18)
| |
| |University of Montreal
| |
| | |
| (민간 대학)
| |
| |몬트리올 대학에서 개발된 사회적으로 책임 있는 AI 연구를 위한 윤리원칙
| |
| |복지(well-being), 자율성 존중, 사생활 보호와 친밀성, 연대성, 민주적 참여, 공평, 다양성 포용, 사려
| |
| |'''친밀성(intimacy), 사려(prudence), 지속가능한 발전 등 다른 가이드라인에 잘 등장하지 않는 원칙 제시'''
| |
| | |
| 윤리원칙 제시와 함께 서명으로 선언에 동참하도록 장려
| |
| |-
| |
| !11
| |
| |지능정보사회 윤리가이드라인 (’18)
| |
| |정보문화포럼
| |
| | |
| (정부기관)
| |
| |인간 중심의 지능정보사회 구현
| |
| |'''이용자 주도성''', '''이용자/시민참여''', 공익, 공정성, 위험예방, 프라이버시 보호
| |
| |지능정보기술 관련 개발자 및 공급자의 윤리의식 고취 및 이용자의 오남용 방지 지침
| |
| | |
| '''주체별(개발자, 공급자, 이용자) 세부지침 마련'''
| |
| |-
| |
| !12
| |
| |AI in the UK: Ready, Willing and Able? (’18)
| |
| |영국 정부
| |
| | |
| (정부기관)
| |
| |'''영국 정부 차원에서 정책적으로 접근'''할 수 있는 제언 제시
| |
| |데이터 접근과 제어, 이해가능한 AI, '''디지털 이해력 증진''', '''공중보건 관리'''
| |
| |'''영국이라는 특정 국가 입장'''에서 공중보건 데이터 관리, AI 디지털 이해력 제고 등 '''구체적으로 취할 수 있는 AI 관련 정책을 제시'''
| |
| |-
| |
| !13
| |
| |카카오 알고리즘 윤리헌장 (’18)
| |
| |카카오
| |
| | |
| (기업)
| |
| |'''카카오 내 AI 관련 연구'''시 지향되어야 할 윤리원칙 제언
| |
| |사회윤리 준수, 차별 경계, 학습데이터 운영, 알고리즘 독립성 및 설명,
| |
| | |
| 기술 포용성, '''아동·청소년 보호'''
| |
| |'''국내기업 최초 AI 윤리헌장'''으로, 알고리즘과 데이터에 대한 관리, '''아동과 청소년에 대한 보호 필요성 등 강조'''
| |
| |-
| |
| !14
| |
| |The Future Computed: AI and its role in Society (’18)
| |
| |Microsoft’s AETHER
| |
| | |
| (기업)
| |
| |AI가 가져올 미래의 변화에 대응하기 위해 MS의 Aether 연구소에서 책자 제작
| |
| |'''AI에 의한 진보''', 공정성, 신뢰성 및 안전, 사생활·보안, 포용성, 투명성
| |
| |'''AI가 경제·사회적 진보를 이끌고 지역적·전지구적 문제를 해결할 것이라는 관점'''
| |
| | |
| AI가 직업과 직장에 미치는 영향에 공공부문과 민간부문이 협력해 대응할 필요성 제시
| |
| |-
| |
| !15
| |
| |Discriminating Systems - Gender, Race, and Power in AI (’19)
| |
| |AI Now
| |
| | |
| (민간 연구소)
| |
| |작업환경에서 다양성을 확보하기 위해 고려할 사항 제시
| |
| |다양성, 해악금지, 개방성, 투명성
| |
| |급여지급 기준의 인종별, 성별 공개, 직원 채용시 투명성 준수 등 제시
| |
| | |
| 특히 '''AI 시스템 사용시 투명성·편견·해악에 대한 철저한 점검·감시·추적·공개를 강조'''
| |
| |-
| |
| !16
| |
| |Ethically Aligned Design(Ver. 2) (’19)
| |
| |The IEEE Global Initiative on Ethics of Autonomous and Intelligent System
| |
| | |
| (민간 학회)
| |
| |IEEE에서 Ethics in Action 캠페인과 함께 아울러 공개된 보고서
| |
| |인권, 복지우선, 책무성, 투명성, 오용의 인식
| |
| |각 원칙별로 이론적 배경, 참고자료를 제시하고 윤리원칙뿐만 아니라 관련 분야들에 대한 자료 수록
| |
| |-
| |
| !17
| |
| |이용자 중심의 지능정보사회를 위한 원칙 (’19)
| |
| |방통위-KISDI
| |
| | |
| (정부기관)
| |
| |안전한 지능정보서비스 환경조성 및 이용자의 권리와 자유에 근거한 윤리원칙 제시
| |
| |사람중심 서비스, 투명성과 설명가능성, 책임성, 안전성, 차별금지, 참여, '''프라이버시와 데이터거버넌스'''
| |
| |안전한 지능정보서비스 환경조성 및 이용자 보호를 위해 모든 주체 사이의 협력 강조
| |
| | |
| 기업과 연구자들의 의견을 폭넓게 수렴하여 작성
| |
| | |
| 이용자 보호의 관점 강조
| |
| |-
| |
| !18
| |
| |로봇 윤리 기본 원칙(수정) (’19)
| |
| |산업통상자원부
| |
| | |
| (정부기관)
| |
| |'''2007년에 만들어진 로봇윤리헌장을'''
| |
| | |
| '''수정 보완'''
| |
| |인간의 존엄성 보호, 공공선, 행복추구, 투명성, 제어가능성, 책무성, 안전성, 정보보호
| |
| |'''로봇산업계에 종사하는 연구원, 개발자, 및 사용자'''가 로봇과 AI을 설계·제작·공급·사용·관리하는 데 기준으로 삼는 가이드라인 제시
| |
| |-
| |
| !19
| |
| |인간중심의 AI 사회 원칙 (’19)
| |
| |일본 총무성
| |
| | |
| (정부기관)
| |
| |'''25명의 산학연 전문가로 구성된 ‘인간 중심의 AI 사회 원칙 위원회’'''를 통해 제안
| |
| |인간중심, 교육교양, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신
| |
| |'''저출산, 고령화, 지방쇠퇴, 재해 재난 등 일본이 처한 어려움을 AI가 해결'''할 수 있을 것으로 상정
| |
| | |
| AI를 공공재로 활용하여 사회의 근본적인 변화와 혁신을 달성하여 지속 가능한 발전 추구
| |
| |-
| |
| !20
| |
| |Ethics Guidelines for Trustworthy AI (’19)
| |
| |EU
| |
| | |
| (국가 정부기관)
| |
| |'''EU 산하의 50여명으로 구성된 AI 전문가 그룹''' 주도
| |
| |'''인간 권리·자율성 보장''', '''기술적 견실성''', '''사생활''', '''데이터 관리''', 투명성, 다양성, 차별금지, 복지, 책무성
| |
| |'''범국가 차원의 협업을 통해 신뢰할 수 있는 AI를 위한 윤리원칙 정립'''에 초점을 맞춤
| |
| | |
| 각 원칙의 평가 리스트를 구체적으로 제시
| |
| |-
| |
| !21
| |
| |Recommendation of the Council on AI (’19)
| |
| |OECD
| |
| | |
| (범국가 정부기관)
| |
| |'''OECD 디지털 경제 정책 위원회''' 주관하에 제작
| |
| |'''포용적 성장''', '''지속가능 발전''', '''인간중심 가치''', 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성
| |
| |윤리원칙 뿐 아니라 정책 입안자들에 대한 제언 제시, '''국가별 정책 수립과 국제적 협력 도모'''
| |
| |-
| |
| !22
| |
| |The global landscape of AI ethics guidelines (’19)
| |
| |Jobin. A., Ienca, M. & Vayena, E.
| |
| | |
| (개인)
| |
| |전 세계의 주요 84개의 AI 윤리 가이드라인을 분석
| |
| |투명성, 정의, 해악금지, 책임, 사생활보호, 혜택 추구, 자유, 신뢰, 지속가능성, 연대성
| |
| |'''주요 윤리원칙을 빈도수별로 분석하고 주로 선진국을 중심으로 발표되고 있음을 밝힘'''
| |
| |-
| |
| !23
| |
| |Understanding artificial intelligence ethics and safety (’19)
| |
| |The Alan Turing Institute
| |
| | |
| (국영 연구소)
| |
| |'''영국의 국영 연구소'''인 Alan Turing 연구소에서 제작
| |
| |존중, 연결, 보호, 돌봄, 공정성, 책임성, 지속가능성, 투명성
| |
| |AI 기술이 '''데이터를 처리할 때 발생할 수 있는 위험이나 문제점을 예방하는 데 필요한 윤리원칙에 초점'''
| |
| |-
| |
| !24
| |
| |Principles Artificial Intelligence: A Map of Ethical and Rights-Based Approaches (’20)
| |
| |Berkman Klein Center For Internet & Society
| |
| | |
| (민간 연구소)
| |
| |36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석
| |
| |사생활보호, 책무성, 안전과 보안, 투명성과 설명가능성, 공정성과 차별금지, 인간의 기술통제, 전문적 책임
| |
| |'''정부, 정부 기관, 사적 기관 등 다양한 주체들이 제시한 윤리원칙들을 8개의 주제로 분류하고 분석'''
| |
| |-
| |
| !25
| |
| |Rome Call for AI Ethics (’20)
| |
| |로마 교황청
| |
| | |
| (민간기관)
| |
| |'''로마 교황청'''에서 인간의 혁신적인 미래를 위한 AI 윤리원칙 제정
| |
| |투명성, 포용성, 책임성, 불편부당성, 신뢰성, 보안과 사생활 보호
| |
| |'''종교 기관인 가톨릭교회에서 제정'''한 윤리 원칙으로, '''인간 가족(human family)에 대한 봉사, 젊은 세대에 대한 준비, 자연의 회복 필요성''' 등 제시
| |
| |}
| |
| | |
| ==각주==
| |
| <references />
| |