국가 인공지능 윤리기준
IT 위키
- 사람이 중심이 되는 「인공지능(AI) 윤리기준」
과학기술정보통신부와 정보통신정책연구원에서 제정하고 4차산업혁명위원회에서 심의·의결한, 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 윤리 기준
추진 배경[편집 | 원본 편집]
- 인공지능 기술의 급속한 발전으로 제조·의료·교통·환경·교육 등 산업 全 분야에 인공지능이 활용·확산되면서, 기술의 오남용·알고리즘에 의한 차별· 프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두
- OECD, EU 등 세계 각국과 주요 국제기구 등은 인공지능 윤리의 중요성을 인식하고 윤리적인 인공지능 실현을 위한 원칙들을 발표 중
- 우리나라에서도 ’18.4월 「지능정보사회윤리가이드라인①(정보문화포럼)」, ‘19.11월 「이용자중심의 지능정보사회를 위한 원칙②(방통위)」 등이 마련된 바 있으나, 범국가 인공지능 윤리원칙이라기에는 다소 제한적인 측면
- ⇨ 「인공지능 국가전략」에 따른 ‘사람 중심의 인공지능’ 구현을 위해 글로벌 기준과의 정합성을 갖춘 ‘인공지능 윤리기준’ 마련 추진
경과[편집 | 원본 편집]
- ('19.5월) 우리나라가 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안 발표
- ('20.4~8월) 과학기술정보통신부는 「인공지능 국가전략(’19.12)」 주요 과제로 ‘인공지능 윤리기준’ 마련을 추진
- 2020년 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석
- ('20.9~12월) 학계·기업·시민단체를 아우르는 각계 전문가를 대상으로 윤리기준 초안에 대한 폭넓은 의견수렴
- (학계) 전자전기공학, 컴퓨터공학, 법학, 인문사회학, 윤리학, 의료법윤리학 등
- (기업) 네이버, 카카오, 삼성전자, LG전자, IBM, 통신3사, 현대차, 기업 협회·단체 등
- (시민단체) 소비자시민모임, 진보네트워크센터, 오픈넷, 녹색소비자연대 등
- 공개 공청회 개최(12.7) 및 인공지능 기술 전문가 그룹· 시민 의견 접수(11.25~12.15) 등 윤리기준 최종안에 대한 공개 의견수렴 실시
- 4차산업혁명위원회에서 관계부처 합동 심의 안건으로 발의되어 의결
3대 기본원칙과 10대 핵심요건[편집 | 원본 편집]
3대 기본원칙[편집 | 원본 편집]
인공지능 개발 및 활용 과정에서 고려될 원칙
‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야할 기준으로 3대 기본원칙을 제시한다.
① 인간 존엄성 원칙[편집 | 원본 편집]
- 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
- 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
- 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.
② 사회의 공공선 원칙[편집 | 원본 편집]
- 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
- 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
- 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.
③ 기술의 합목적성 원칙[편집 | 원본 편집]
- 인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다.
- 인공지능은 궁극적으로 인간에게 도움이 되어야 한다는 목적에 맞도록 개발 및 활용되어야 한다.
- 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.
10대 핵심요건[편집 | 원본 편집]
기본원칙을 실현할 수 있는 세부 요건
3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시한다.
① 인권보장[편집 | 원본 편집]
- 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
- 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.
② 프라이버시 보호[편집 | 원본 편집]
- 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다
- 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다
③ 다양성 존중[편집 | 원본 편집]
- 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
- 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다
④ 침해 금지[편집 | 원본 편집]
- 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안된다.
- 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.
⑤ 공공성[편집 | 원본 편집]
- 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
- 인공지능은 긍정적 사회 변화를 이끄는 방향으로 활용되어야 한다.
- 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.
⑥ 연대성[편집 | 원본 편집]
- 다양한 집단 간의 관계 연대성을 유지하고, 미래 세대를 충분히 배려하여 인공지능을 활용해야 한다.
- 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
- 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.
⑦ 데이터 관리[편집 | 원본 편집]
- 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
- 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.
⑧ 책임성[편집 | 원본 편집]
- 인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다
- 인공지능 설계 및 개발자, 서비스 제공 자, 사용자 간의 책임 소재를 명확히 해야 한다.
⑨ 안전성[편집 | 원본 편집]
- 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
- 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.
⑩ 투명성[편집 | 원본 편집]
- 사회적 신뢰 형성을 위해 타 원칙과의 상충 관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
- 인공지능 기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의 사항을 사전에 고지해야 한다.
부록[편집 | 원본 편집]
- 본 윤리 기준에서 인공지능의 지위
- 본 윤리 기준에서 지향 점으로 제시한 ‘인간성을 위한 인공지능(AI for Humanity)’은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(human species-centrism) 또는 인간 이기주의를 표방하지는 않는다.
- 본 윤리기준에서 인공지능은 지 각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 인공지능(이른바 강인공지능)을 전제하지 않으며 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다.
- 적용 범위와 대상
- 본 윤리기준은 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 하며, 이는 정부·공공기관, 기업, 이용자 등을 포함한다.
- 국가 인공지능 윤리기준의 실현방안
- ‘인공지능 윤리기준’을 기본 플랫폼으로 하여 다양한 이해관계자 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다.