인공지능 윤리
- 인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
필요성 및 주목 배경[편집 | 원본 편집]
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
- 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
인공지능 윤리 이슈 사례[편집 | 원본 편집]
- (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
- (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
- (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
- (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)
역사[편집 | 원본 편집]
주요 이슈[편집 | 원본 편집]
이슈 | 설명 | 예시 |
---|---|---|
기술 오남용 | 인공지능을 이용한 사기, 해킹 등 부정 활용 |
|
설명 불가능성
(Unexplainability) |
인공지능의 판단 근거를 인간이 확인할 수 없음 |
|
책임 귀속 | 인공지능의 잘못은 누구의 잘못인지에 대한 모호성 |
|
편향된 판단 | 인간의 고정관념에 의한 인공지능의 편향된 결과 |
|
일자리 감소 | 인공지능의 대체로 인한 인간의 일자리 감소 |
|
인공지능 윤리의 구성[1][편집 | 원본 편집]
- 인공지능 자체의 윤리
- 인공지능 설계자나 제작자의 윤리
- 인공지능 이용자의 윤리
관련 개념[편집 | 원본 편집]
주요 사례[편집 | 원본 편집]
국내[편집 | 원본 편집]
주요 국가 인공지능 윤리[편집 | 원본 편집]
- 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
- EU, 신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)
- 산업자원부 로봇윤리헌장(2007)
- 일본, 총무성 인공지능 윤리 가이드라인
- 일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)
기업의 인공지능 윤리[편집 | 원본 편집]
- 마이크로소프트 인공지능 개발 원칙
- 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
- IBM 인공지능 일반 윤리
- 카카오 AI 알고리즘 윤리 헌장
학회 및 협회, 국제 기구의 인공지능 윤리[편집 | 원본 편집]
- OECD, AI 권고안('19.5, OECD 위원회)
- G20 정상선언문으로 발표(19.6)
- 아실로마 인공지능 원칙
- IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
- 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)
기타[편집 | 원본 편집]
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
주요 원칙[편집 | 원본 편집]
국내외 주요 AI 윤리원칙(25개) 주요내용[2]
제목 | 주체 | 수립목적 | 주요 원칙 | 주요 특징 | |
---|---|---|---|---|---|
1 | Preparing for the Future of Artificial Intelligence (’16) | President National Science and Technology Council Committee on Technology
(정부기관) |
美 정부의 입장에서 AI 기술과 관련하여 나아갈 방향 제시한 정부 보고서 | 공공선, 공정성, 안전, 투명성, 이해가능성, 선을 위한 AI(AI for good), 인간 가치(Human values) | AI를 주요 성장동력으로 보고 美 정부의 역할 강조
윤리원칙 제시보다는 국제인도법에 근거한 AI 무기체계 개발 등 다양한 AI 관련 이슈를 제시하는데 초점 |
2 | Tenets (’16) | Partnership on AI
(민간 연구소) |
학계, 재계, 정책입안자 등 다양한 주체들의 협력 도모 | AI 혜택 최대화,
다양한 주체들 간 협력, 사생활보호, 견고함, 해악금지, 설명가능성 |
학계, 기업, 정책입안자 등 다양한 주체들 간 협력을 강조하고, 이를 통해 대중교육 등 추진할 것을 제안
기술 혜택 최대화의 전제로 사생활 보호, 연구공동체의 책임, 견고성, 해악금지 등 제시 |
3 | AI Policy Principles (’17) | Information Technology Industry Council
(민간 협회) |
개발자에 대한 정부 차원의 지원 및 공적 영역과 사적 영역의 협업 강조 | 안전과 제어가능성, 해석가능성, 인간 존엄성, 데이터의 대표성, 유연한 규제접근, 기회의 평등 | 개발자의 입장을 강조, 정부의 규제나 개발자에 대한 정보공개 요구에 부정적
다만 개발자에게도 안전한 설계, 데이터 대표성 등 높은 수준의 책임성 요구 |
4 | DeepMind Ethics & Society Principles (’17) | DeepMind
(기업) |
사내에서 AI 연구 수행시 윤리적 고려사항 제시 | 사생활 침해 금지, 평등, 도덕성, 포용성, 안전과 책무성, 거버넌스·규제 | 연구자에게 필요한 윤리원칙과 체크리스트를 제시하면서도 안전과 책무성을 보장하는 거버넌스·규제 필요성 제기 |
5 | Asilomar AI Principles (’17) | Future of Life Institute
(민간 연구소) |
미국 보스톤의 비영리 연구단체인 삶의 미래 연구소 (Future of Life Institute) 주관으로 작성한 윤리원칙 | 인권보장, 개인정보보호, 해악금지, 공공성, 데이터 관리, 책임성, 통제성, 투명성, 무기경쟁 회피 | 스티븐 호킹·일론 머스크 등 다수의 AI학자, 미래학자 및 산학연 관계자들이 서명
AI 기술 연구자, 정책 입안자, 관련 산업 종사자에게 필요한 윤리원칙 제시 |
6 | AI at Google: Our Principles (’18) | Google
(기업) |
구글 AI 개발자에게 필요한 윤리원칙 제시 | 사회적 혜택 증진, 불공정한 편견 지양, 설명가능, 사생활침해 방지 | 개발을 제한해야되는 AI 어플리케이션으로 해를 끼치는 기술, 인명을 해하는 무기관련 기술, 국제 규약 위반 감시기술 등 제시 |
7 | Microsoft AI principles (’18) | Microsoft’s AETHER(AI and Ethics in Engineering and Research)
(기업) |
MS AI 개발자에게 필요한 윤리원칙 제시 | 공정성, 신뢰성 및 안전, 사생활 및 보안, 포용성, 투명성, 책무성 | MS 사내 윤리강령 성격이 강하며, 책임질 수 있는 AI와 이를 위한 교육 강조 |
8 | OpenAI Charter (’18) | OpenAI
(민간 연구소) |
AI 기술 연구자에게 필요한 윤리적 태도와 원칙 제시 | 공공선, 해악금지,
안전 담보, AI개발 선두주자, 타 연구단체 협력, |
연구자의 자유로운 연구 증진에 초점, 고도로 자율적인 AGI(artificial general intelligence) 상정 |
9 | Principles for Trust and Transparency (’18) | IBM
(기업) |
IBM 직원들을 대상으로 AI 연구를 위해 제시된 윤리원칙 | 인간 지능 증강(augment), 데이터 소유권, 국경간 데이터 이동, 투명성 | AI는 인간을 대체하는 것이 아니라 증강(augment)하기 위한 것임을 명시
AI 사용 여부·시기, 학습 데이터 출처 고지 등 규정 |
10 | The Montreal Declaration for a Responsible Development of AI (’18) | University of Montreal
(민간 대학) |
몬트리올 대학에서 개발된 사회적으로 책임 있는 AI 연구를 위한 윤리원칙 | 복지(well-being), 자율성 존중, 사생활 보호와 친밀성, 연대성, 민주적 참여, 공평, 다양성 포용, 사려 | 친밀성(intimacy), 사려(prudence), 지속가능한 발전 등 다른 가이드라인에 잘 등장하지 않는 원칙 제시
윤리원칙 제시와 함께 서명으로 선언에 동참하도록 장려 |
11 | 지능정보사회 윤리가이드라인 (’18) | 정보문화포럼
(정부기관) |
인간 중심의 지능정보사회 구현 | 이용자 주도성, 이용자/시민참여, 공익, 공정성, 위험예방, 프라이버시 보호 | 지능정보기술 관련 개발자 및 공급자의 윤리의식 고취 및 이용자의 오남용 방지 지침
주체별(개발자, 공급자, 이용자) 세부지침 마련 |
12 | AI in the UK: Ready, Willing and Able? (’18) | 영국 정부
(정부기관) |
영국 정부 차원에서 정책적으로 접근할 수 있는 제언 제시 | 데이터 접근과 제어, 이해가능한 AI, 디지털 이해력 증진, 공중보건 관리 | 영국이라는 특정 국가 입장에서 공중보건 데이터 관리, AI 디지털 이해력 제고 등 구체적으로 취할 수 있는 AI 관련 정책을 제시 |
13 | 카카오 알고리즘 윤리헌장 (’18) | 카카오
(기업) |
카카오 내 AI 관련 연구시 지향되어야 할 윤리원칙 제언 | 사회윤리 준수, 차별 경계, 학습데이터 운영, 알고리즘 독립성 및 설명,
기술 포용성, 아동·청소년 보호 |
국내기업 최초 AI 윤리헌장으로, 알고리즘과 데이터에 대한 관리, 아동과 청소년에 대한 보호 필요성 등 강조 |
14 | The Future Computed: AI and its role in Society (’18) | Microsoft’s AETHER
(기업) |
AI가 가져올 미래의 변화에 대응하기 위해 MS의 Aether 연구소에서 책자 제작 | AI에 의한 진보, 공정성, 신뢰성 및 안전, 사생활·보안, 포용성, 투명성 | AI가 경제·사회적 진보를 이끌고 지역적·전지구적 문제를 해결할 것이라는 관점
AI가 직업과 직장에 미치는 영향에 공공부문과 민간부문이 협력해 대응할 필요성 제시 |
15 | Discriminating Systems - Gender, Race, and Power in AI (’19) | AI Now
(민간 연구소) |
작업환경에서 다양성을 확보하기 위해 고려할 사항 제시 | 다양성, 해악금지, 개방성, 투명성 | 급여지급 기준의 인종별, 성별 공개, 직원 채용시 투명성 준수 등 제시
특히 AI 시스템 사용시 투명성·편견·해악에 대한 철저한 점검·감시·추적·공개를 강조 |
16 | Ethically Aligned Design(Ver. 2) (’19) | The IEEE Global Initiative on Ethics of Autonomous and Intelligent System
(민간 학회) |
IEEE에서 Ethics in Action 캠페인과 함께 아울러 공개된 보고서 | 인권, 복지우선, 책무성, 투명성, 오용의 인식 | 각 원칙별로 이론적 배경, 참고자료를 제시하고 윤리원칙뿐만 아니라 관련 분야들에 대한 자료 수록 |
17 | 이용자 중심의 지능정보사회를 위한 원칙 (’19) | 방통위-KISDI
(정부기관) |
안전한 지능정보서비스 환경조성 및 이용자의 권리와 자유에 근거한 윤리원칙 제시 | 사람중심 서비스, 투명성과 설명가능성, 책임성, 안전성, 차별금지, 참여, 프라이버시와 데이터거버넌스 | 안전한 지능정보서비스 환경조성 및 이용자 보호를 위해 모든 주체 사이의 협력 강조
기업과 연구자들의 의견을 폭넓게 수렴하여 작성 이용자 보호의 관점 강조 |
18 | 로봇 윤리 기본 원칙(수정) (’19) | 산업통상자원부
(정부기관) |
2007년에 만들어진 로봇윤리헌장을
수정 보완 |
인간의 존엄성 보호, 공공선, 행복추구, 투명성, 제어가능성, 책무성, 안전성, 정보보호 | 로봇산업계에 종사하는 연구원, 개발자, 및 사용자가 로봇과 AI을 설계·제작·공급·사용·관리하는 데 기준으로 삼는 가이드라인 제시 |
19 | 인간중심의 AI 사회 원칙 (’19) | 일본 총무성
(정부기관) |
25명의 산학연 전문가로 구성된 ‘인간 중심의 AI 사회 원칙 위원회’를 통해 제안 | 인간중심, 교육교양, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신 | 저출산, 고령화, 지방쇠퇴, 재해 재난 등 일본이 처한 어려움을 AI가 해결할 수 있을 것으로 상정
AI를 공공재로 활용하여 사회의 근본적인 변화와 혁신을 달성하여 지속 가능한 발전 추구 |
20 | Ethics Guidelines for Trustworthy AI (’19) | EU
(국가 정부기관) |
EU 산하의 50여명으로 구성된 AI 전문가 그룹 주도 | 인간 권리·자율성 보장, 기술적 견실성, 사생활, 데이터 관리, 투명성, 다양성, 차별금지, 복지, 책무성 | 범국가 차원의 협업을 통해 신뢰할 수 있는 AI를 위한 윤리원칙 정립에 초점을 맞춤
각 원칙의 평가 리스트를 구체적으로 제시 |
21 | Recommendation of the Council on AI (’19) | OECD
(범국가 정부기관) |
OECD 디지털 경제 정책 위원회 주관하에 제작 | 포용적 성장, 지속가능 발전, 인간중심 가치, 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성 | 윤리원칙 뿐 아니라 정책 입안자들에 대한 제언 제시, 국가별 정책 수립과 국제적 협력 도모 |
22 | The global landscape of AI ethics guidelines (’19) | Jobin. A., Ienca, M. & Vayena, E.
(개인) |
전 세계의 주요 84개의 AI 윤리 가이드라인을 분석 | 투명성, 정의, 해악금지, 책임, 사생활보호, 혜택 추구, 자유, 신뢰, 지속가능성, 연대성 | 주요 윤리원칙을 빈도수별로 분석하고 주로 선진국을 중심으로 발표되고 있음을 밝힘 |
23 | Understanding artificial intelligence ethics and safety (’19) | The Alan Turing Institute
(국영 연구소) |
영국의 국영 연구소인 Alan Turing 연구소에서 제작 | 존중, 연결, 보호, 돌봄, 공정성, 책임성, 지속가능성, 투명성 | AI 기술이 데이터를 처리할 때 발생할 수 있는 위험이나 문제점을 예방하는 데 필요한 윤리원칙에 초점 |
24 | Principles Artificial Intelligence: A Map of Ethical and Rights-Based Approaches (’20) | Berkman Klein Center For Internet & Society
(민간 연구소) |
36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석 | 사생활보호, 책무성, 안전과 보안, 투명성과 설명가능성, 공정성과 차별금지, 인간의 기술통제, 전문적 책임 | 정부, 정부 기관, 사적 기관 등 다양한 주체들이 제시한 윤리원칙들을 8개의 주제로 분류하고 분석 |
25 | Rome Call for AI Ethics (’20) | 로마 교황청
(민간기관) |
로마 교황청에서 인간의 혁신적인 미래를 위한 AI 윤리원칙 제정 | 투명성, 포용성, 책임성, 불편부당성, 신뢰성, 보안과 사생활 보호 | 종교 기관인 가톨릭교회에서 제정한 윤리 원칙으로, 인간 가족(human family)에 대한 봉사, 젊은 세대에 대한 준비, 자연의 회복 필요성 등 제시 |