인공지능 윤리

IT 위키


인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
  • 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성

필요성 및 주목 배경[편집 | 원본 편집]

  • 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
  • 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
  • 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
  • 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가

인공지능 윤리 이슈 사례[편집 | 원본 편집]

  • (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
  • (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
  • (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
  • (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)

역사[편집 | 원본 편집]

주요 이슈[편집 | 원본 편집]

이슈 설명 예시
기술 오남용 인공지능을 이용한 사기, 해킹 등 부정 활용
  • GAN을 이용한 목소리 흉내로 송금 요청
  • 가짜 뉴스를 이용한 여론 조작 및 분쟁 조장
설명 불가능성

(Unexplainability)

인공지능의 판단 근거를 인간이 확인할 수 없음
  • 근거를 알 수 없는 인공지능의 판단을 따라야 하는가?
    • 인공지능에 의한 정책결정
    • 인공지능에 의한 의료 행위
  • 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성
책임 귀속 인공지능의 잘못은 누구의 잘못인지에 대한 모호성
  • 설계자의 잘못 vs 이용자의 잘못
    • 인공지능 로봇의 범죄
    • 자율주행차의 사고
    • 인공지능의 오판으로 인한 피해
편향된 판단 인간의 고정관념에 의한 인공지능의 편향된 결과
  • 옳고 그름을 배제한 데이터에 의한 판단
    • 여성은 남성에 비해 임금이 적다는 판단
    • 흑인은 백인에 비해 범죄율이 높다는 판단
일자리 감소 인공지능의 대체로 인한 인간의 일자리 감소
  • 챗봇으로 인한 전화상담사 필요성 감소
  • 로보어드바이저로 인한 애널리스트 필요성 감소
  • 인슈어테크로 인한 보험설계사 필요성 감소

인공지능 윤리의 구성[1][편집 | 원본 편집]

  • 인공지능 자체의 윤리
  • 인공지능 설계자나 제작자의 윤리
  • 인공지능 이용자의 윤리

관련 개념[편집 | 원본 편집]

주요 사례[편집 | 원본 편집]

국내[편집 | 원본 편집]

주요 국가 인공지능 윤리[편집 | 원본 편집]

기업의 인공지능 윤리[편집 | 원본 편집]

  • 마이크로소프트 인공지능 개발 원칙
  • 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
  • IBM 인공지능 일반 윤리
  • 카카오 AI 알고리즘 윤리 헌장

학회 및 협회, 국제 기구의 인공지능 윤리[편집 | 원본 편집]

  • OECD, AI 권고안('19.5, OECD 위원회)
    • G20 정상선언문으로 발표(19.6)
  • 아실로마 인공지능 원칙
  • IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
  • 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)

기타[편집 | 원본 편집]

  • 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
  1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
  2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
  3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

주요 원칙[편집 | 원본 편집]

국내외 주요 AI 윤리원칙(25개) 주요내용[2]

제목 주체 수립목적 주요 원칙 주요 특징
1 Preparing for the Future of Artificial Intelligence (’16) President National Science and Technology Council Committee on Technology

(정부기관)

美 정부의 입장에서 AI 기술과 관련하여 나아갈 방향 제시한 정부 보고서 공공선, 공정성, 안전, 투명성, 이해가능성, 선을 위한 AI(AI for good), 인간 가치(Human values) AI를 주요 성장동력으로 보고 美 정부의 역할 강조

윤리원칙 제시보다는 국제인도법에 근거한 AI 무기체계 개발 등 다양한 AI 관련 이슈를 제시하는데 초점

2 Tenets (’16) Partnership on AI

(민간 연구소)

학계, 재계, 정책입안자 등 다양한 주체들의 협력 도모 AI 혜택 최대화,

다양한 주체들 간 협력, 사생활보호, 견고함, 해악금지, 설명가능성

학계, 기업, 정책입안자 등 다양한 주체들 간 협력을 강조하고, 이를 통해 대중교육 등 추진할 것을 제안

기술 혜택 최대화의 전제로 사생활 보호, 연구공동체의 책임, 견고성, 해악금지 등 제시

3 AI Policy Principles (’17) Information Technology Industry Council

(민간 협회)

개발자에 대한 정부 차원의 지원 및 공적 영역과 사적 영역의 협업 강조 안전과 제어가능성, 해석가능성, 인간 존엄성, 데이터의 대표성, 유연한 규제접근, 기회의 평등 개발자의 입장을 강조, 정부의 규제나 개발자에 대한 정보공개 요구에 부정적

다만 개발자에게도 안전한 설계, 데이터 대표성 등 높은 수준의 책임성 요구

4 DeepMind Ethics & Society Principles (’17) DeepMind

(기업)

사내에서 AI 연구 수행시 윤리적 고려사항 제시 사생활 침해 금지, 평등, 도덕성, 포용성, 안전과 책무성, 거버넌스·규제 연구자에게 필요한 윤리원칙과 체크리스트를 제시하면서도 안전과 책무성을 보장하는 거버넌스·규제 필요성 제기
5 Asilomar AI Principles (’17) Future of Life Institute

(민간 연구소)

미국 보스톤의 비영리 연구단체인 삶의 미래 연구소 (Future of Life Institute) 주관으로 작성한 윤리원칙 인권보장, 개인정보보호, 해악금지, 공공성, 데이터 관리, 책임성, 통제성, 투명성, 무기경쟁 회피 스티븐 호킹·일론 머스크 등 다수의 AI학자, 미래학자 및 산학연 관계자들이 서명

AI 기술 연구자, 정책 입안자, 관련 산업 종사자에게 필요한 윤리원칙 제시

6 AI at Google: Our Principles (’18) Google

(기업)

구글 AI 개발자에게 필요한 윤리원칙 제시 사회적 혜택 증진, 불공정한 편견 지양, 설명가능, 사생활침해 방지 개발을 제한해야되는 AI 어플리케이션으로 해를 끼치는 기술, 인명을 해하는 무기관련 기술, 국제 규약 위반 감시기술 등 제시
7 Microsoft AI principles (’18) Microsoft’s AETHER(AI and Ethics in Engineering and Research)

(기업)

MS AI 개발자에게 필요한 윤리원칙 제시 공정성, 신뢰성 및 안전, 사생활 및 보안, 포용성, 투명성, 책무성 MS 사내 윤리강령 성격이 강하며, 책임질 수 있는 AI와 이를 위한 교육 강조
8 OpenAI Charter (’18) OpenAI

(민간 연구소)

AI 기술 연구자에게 필요한 윤리적 태도와 원칙 제시 공공선, 해악금지,

안전 담보, AI개발 선두주자, 타 연구단체 협력,

연구자의 자유로운 연구 증진에 초점, 고도로 자율적인 AGI(artificial general intelligence) 상정
9 Principles for Trust and Transparency (’18) IBM

(기업)

IBM 직원들을 대상으로 AI 연구를 위해 제시된 윤리원칙 인간 지능 증강(augment), 데이터 소유권, 국경간 데이터 이동, 투명성 AI는 인간을 대체하는 것이 아니라 증강(augment)하기 위한 것임을 명시

AI 사용 여부·시기, 학습 데이터 출처 고지 등 규정

10 The Montreal Declaration for a Responsible Development of AI (’18) University of Montreal

(민간 대학)

몬트리올 대학에서 개발된 사회적으로 책임 있는 AI 연구를 위한 윤리원칙 복지(well-being), 자율성 존중, 사생활 보호와 친밀성, 연대성, 민주적 참여, 공평, 다양성 포용, 사려 친밀성(intimacy), 사려(prudence), 지속가능한 발전 등 다른 가이드라인에 잘 등장하지 않는 원칙 제시

윤리원칙 제시와 함께 서명으로 선언에 동참하도록 장려

11 지능정보사회 윤리가이드라인 (’18) 정보문화포럼

(정부기관)

인간 중심의 지능정보사회 구현 이용자 주도성, 이용자/시민참여, 공익, 공정성, 위험예방, 프라이버시 보호 지능정보기술 관련 개발자 및 공급자의 윤리의식 고취 및 이용자의 오남용 방지 지침

주체별(개발자, 공급자, 이용자) 세부지침 마련

12 AI in the UK: Ready, Willing and Able? (’18) 영국 정부

(정부기관)

영국 정부 차원에서 정책적으로 접근할 수 있는 제언 제시 데이터 접근과 제어, 이해가능한 AI, 디지털 이해력 증진, 공중보건 관리 영국이라는 특정 국가 입장에서 공중보건 데이터 관리, AI 디지털 이해력 제고 등 구체적으로 취할 수 있는 AI 관련 정책을 제시
13 카카오 알고리즘 윤리헌장 (’18) 카카오

(기업)

카카오 내 AI 관련 연구시 지향되어야 할 윤리원칙 제언 사회윤리 준수, 차별 경계, 학습데이터 운영, 알고리즘 독립성 및 설명,

기술 포용성, 아동·청소년 보호

국내기업 최초 AI 윤리헌장으로, 알고리즘과 데이터에 대한 관리, 아동과 청소년에 대한 보호 필요성 등 강조
14 The Future Computed: AI and its role in Society (’18) Microsoft’s AETHER

(기업)

AI가 가져올 미래의 변화에 대응하기 위해 MS의 Aether 연구소에서 책자 제작 AI에 의한 진보, 공정성, 신뢰성 및 안전, 사생활·보안, 포용성, 투명성 AI가 경제·사회적 진보를 이끌고 지역적·전지구적 문제를 해결할 것이라는 관점

AI가 직업과 직장에 미치는 영향에 공공부문과 민간부문이 협력해 대응할 필요성 제시

15 Discriminating Systems - Gender, Race, and Power in AI (’19) AI Now

(민간 연구소)

작업환경에서 다양성을 확보하기 위해 고려할 사항 제시 다양성, 해악금지, 개방성, 투명성 급여지급 기준의 인종별, 성별 공개, 직원 채용시 투명성 준수 등 제시

특히 AI 시스템 사용시 투명성·편견·해악에 대한 철저한 점검·감시·추적·공개를 강조

16 Ethically Aligned Design(Ver. 2) (’19) The IEEE Global Initiative on Ethics of Autonomous and Intelligent System

(민간 학회)

IEEE에서 Ethics in Action 캠페인과 함께 아울러 공개된 보고서 인권, 복지우선, 책무성, 투명성, 오용의 인식 각 원칙별로 이론적 배경, 참고자료를 제시하고 윤리원칙뿐만 아니라 관련 분야들에 대한 자료 수록
17 이용자 중심의 지능정보사회를 위한 원칙 (’19) 방통위-KISDI

(정부기관)

안전한 지능정보서비스 환경조성 및 이용자의 권리와 자유에 근거한 윤리원칙 제시 사람중심 서비스, 투명성과 설명가능성, 책임성, 안전성, 차별금지, 참여, 프라이버시와 데이터거버넌스 안전한 지능정보서비스 환경조성 및 이용자 보호를 위해 모든 주체 사이의 협력 강조

기업과 연구자들의 의견을 폭넓게 수렴하여 작성

이용자 보호의 관점 강조

18 로봇 윤리 기본 원칙(수정) (’19) 산업통상자원부

(정부기관)

2007년에 만들어진 로봇윤리헌장을

수정 보완

인간의 존엄성 보호, 공공선, 행복추구, 투명성, 제어가능성, 책무성, 안전성, 정보보호 로봇산업계에 종사하는 연구원, 개발자, 및 사용자가 로봇과 AI을 설계·제작·공급·사용·관리하는 데 기준으로 삼는 가이드라인 제시
19 인간중심의 AI 사회 원칙 (’19) 일본 총무성

(정부기관)

25명의 산학연 전문가로 구성된 ‘인간 중심의 AI 사회 원칙 위원회’를 통해 제안 인간중심, 교육교양, 개인정보 보호, 보안, 공정경쟁, 공정성, 책임성, 투명성, 혁신 저출산, 고령화, 지방쇠퇴, 재해 재난 등 일본이 처한 어려움을 AI가 해결할 수 있을 것으로 상정

AI를 공공재로 활용하여 사회의 근본적인 변화와 혁신을 달성하여 지속 가능한 발전 추구

20 Ethics Guidelines for Trustworthy AI (’19) EU

(국가 정부기관)

EU 산하의 50여명으로 구성된 AI 전문가 그룹 주도 인간 권리·자율성 보장, 기술적 견실성, 사생활, 데이터 관리, 투명성, 다양성, 차별금지, 복지, 책무성 범국가 차원의 협업을 통해 신뢰할 수 있는 AI를 위한 윤리원칙 정립에 초점을 맞춤

각 원칙의 평가 리스트를 구체적으로 제시

21 Recommendation of the Council on AI (’19) OECD

(범국가 정부기관)

OECD 디지털 경제 정책 위원회 주관하에 제작 포용적 성장, 지속가능 발전, 인간중심 가치, 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성 윤리원칙 뿐 아니라 정책 입안자들에 대한 제언 제시, 국가별 정책 수립과 국제적 협력 도모
22 The global landscape of AI ethics guidelines (’19) Jobin. A., Ienca, M. & Vayena, E.

(개인)

전 세계의 주요 84개의 AI 윤리 가이드라인을 분석 투명성, 정의, 해악금지, 책임, 사생활보호, 혜택 추구, 자유, 신뢰, 지속가능성, 연대성 주요 윤리원칙을 빈도수별로 분석하고 주로 선진국을 중심으로 발표되고 있음을 밝힘
23 Understanding artificial intelligence ethics and safety (’19) The Alan Turing Institute

(국영 연구소)

영국의 국영 연구소인 Alan Turing 연구소에서 제작 존중, 연결, 보호, 돌봄, 공정성, 책임성, 지속가능성, 투명성 AI 기술이 데이터를 처리할 때 발생할 수 있는 위험이나 문제점을 예방하는 데 필요한 윤리원칙에 초점
24 Principles Artificial Intelligence: A Map of Ethical and Rights-Based Approaches (’20) Berkman Klein Center For Internet & Society

(민간 연구소)

36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석 사생활보호, 책무성, 안전과 보안, 투명성과 설명가능성, 공정성과 차별금지, 인간의 기술통제, 전문적 책임 정부, 정부 기관, 사적 기관 등 다양한 주체들이 제시한 윤리원칙들을 8개의 주제로 분류하고 분석
25 Rome Call for AI Ethics (’20) 로마 교황청

(민간기관)

로마 교황청에서 인간의 혁신적인 미래를 위한 AI 윤리원칙 제정 투명성, 포용성, 책임성, 불편부당성, 신뢰성, 보안과 사생활 보호 종교 기관인 가톨릭교회에서 제정한 윤리 원칙으로, 인간 가족(human family)에 대한 봉사, 젊은 세대에 대한 준비, 자연의 회복 필요성 등 제시

각주[편집 | 원본 편집]

  1. 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)
  2. 출처: 대통령직속 4차산업혁명위원회 홈페이지