국가 인공지능 윤리기준: Difference between revisions

From IT Wiki
No edit summary
 
(12 intermediate revisions by 4 users not shown)
Line 1: Line 1:
[[분류:인공지능]][[분류: 제도/정책]]
[[파일:사람이 중심이 되는 인공지능 윤리기준.jpg|섬네일]]
[[과학기술정보통신부]][[정보통신정책연구원]]에서 2020년 11월 27일 발표한, 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 윤리 기준
;사람이 중심이 되는 「인공지능(AI) 윤리기준」
[[과학기술정보통신부]][[정보통신정책연구원]]에서 제정하고 [[4차산업혁명위원회]]에서 심의·의결한, 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 윤리 기준


== 3대 기본원칙 ==
== 추진 배경 ==
 
* 인공지능 기술의 급속한 발전으로 제조·의료·교통·환경·교육 등 산업 全 분야에 인공지능이 활용·확산되면서, 기술의 오남용·알고리즘에 의한 차별· 프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두
* OECD, EU 등 세계 각국과 주요 국제기구 등은 인공지능 윤리의 중요성을 인식하고 윤리적인 인공지능 실현을 위한 원칙들을 발표 중
* 우리나라에서도 ’18.4월 「지능정보사회윤리가이드라인①(정보문화포럼)」, ‘19.11월 「이용자중심의 지능정보사회를 위한 원칙②(방통위)」 등이 마련된 바 있으나, 범국가 인공지능 윤리원칙이라기에는 다소 제한적인 측면
* '''⇨ 「인공지능 국가전략」에 따른 ‘사람 중심의 인공지능’ 구현을 위해 글로벌 기준과의 정합성을 갖춘 ‘인공지능 윤리기준’ 마련 추진'''
 
==경과==
 
* '''('19.5월)''' 우리나라가 주도적으로 참여한 '''경제협력개발기구(OECD) 인공지능 권고안 발표'''
* '''('20.4~8월)''' 과학기술정보통신부는 '''「인공지능 국가전략(’19.12)」 주요 과제로 ‘인공지능 윤리기준’ 마련'''을 추진
** 2020년 4월부터 인공지능·윤리 전문가로 구성된 '''인공지능 윤리연구반'''을 통해 '''국내외 주요 인공지능 윤리원칙을 분석'''
* '''('20.9~12월)''' 학계·기업·시민단체를 아우르는 각계 전문가를 대상으로 윤리기준 초안에 대한 폭넓은 의견수렴
** '''(학계)''' 전자전기공학, 컴퓨터공학, 법학, 인문사회학, 윤리학, 의료법윤리학 등
** '''(기업)''' 네이버, 카카오, 삼성전자, LG전자, IBM, 통신3사, 현대차, 기업 협회·단체 등
** '''(시민단체)''' 소비자시민모임, 진보네트워크센터, 오픈넷, 녹색소비자연대 등
** 공개 공청회 개최(12.7) 및 인공지능 기술 전문가 그룹· 시민 의견 접수(11.25~12.15) 등 윤리기준 최종안에 대한 공개 의견수렴 실시
* 4차산업혁명위원회에서 관계부처 합동 심의 안건으로 발의되어 의결
 
== 3대 기본원칙과 10대 핵심요건 ==
[[파일:인공지능 윤리기준 개요.jpg|없음|섬네일|400x400픽셀|3대 기본원칙과 10대 핵심요건]]
 
==3대 기본원칙==
'''인공지능 개발 및 활용 과정에서 고려될 원칙'''
'''인공지능 개발 및 활용 과정에서 고려될 원칙'''


‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야할 기준으로 3대 기본원칙을 제시한다.
‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야할 기준으로 3대 기본원칙을 제시한다.


=== ① 인간 존엄성 원칙 ===
===① 인간 존엄성 원칙===


* 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
*인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
* 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
*인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
* 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.
*인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.


=== ② 사회의 공공선 원칙 ===
===② 사회의 공공선 원칙===


* 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
*공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
* 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
*인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
* 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.
*공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.


=== ③ 기술의 합목적성 원칙 ===
===③ 기술의 합목적성 원칙===


* 인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다.
*인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다.
* 인공지능은 궁극적으로 인간에게 도움이 되어야 한다는 목적에 맞도록 개발 및 활용되어야 한다.
*인공지능은 궁극적으로 인간에게 도움이 되어야 한다는 목적에 맞도록 개발 및 활용되어야 한다.
* 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.
*인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.


== 10대 핵심요건 ==
==10대 핵심요건==
'''기본원칙을 실현할 수 있는 세부 요건'''
'''기본원칙을 실현할 수 있는 세부 요건'''


3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시한다.
3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시한다.


=== ① 인권보장 ===
===① 인권보장===


* 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
*인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
* 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.
*인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.


=== ② 프라이버시 보호 ===
===② 프라이버시 보호===


* 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다.
*인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다
* 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다.
*인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다


=== ③ 다양성 존중 ===
===③ 다양성 존중===


* 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
*인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
* 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다.
*사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다


=== ④ 침해금지 ===
===④ 침해 금지===


* 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다.
*인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안된다.
* 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.
*인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.


=== ⑤ 공공성 ===
===⑤ 공공성===


* 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
*인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
* 인공지능은 긍정적 사회변화를 이끄는 방향으로 활용되어야 한다.
*인공지능은 긍정적 사회 변화를 이끄는 방향으로 활용되어야 한다.
* 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.
*인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.


=== ⑥ 연대성 ===
===⑥ 연대성===


* 다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해야 한다.
*다양한 집단 간의 관계 연대성을 유지하고, 미래 세대를 충분히 배려하여 인공지능을 활용해야 한다.
* 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
*인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
* 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.
*윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.


=== ⑦ 데이터 관리 ===
===⑦ 데이터 관리===


* 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
*개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
* 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.
*데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.


=== ⑧ 책임성 ===
===⑧ 책임성===


* 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다.
*인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다
* 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.
*인공지능 설계 및 개발자, 서비스 제공 자, 사용자 간의 책임 소재를 명확히 해야 한다.


=== ⑨ 안전성 ===
===⑨ 안전성===


* 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
*인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
* 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.
*인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.


=== ⑩ 투명성 ===
===⑩ 투명성===


* 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
*사회적 신뢰 형성을 위해 타 원칙과의 상충 관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
* 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야 한다.
*인공지능 기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의 사항을 사전에 고지해야 한다.


== 부록 ==
==부록==


* '''본 윤리기준에서 인공지능의 지위'''
*'''본 윤리 기준에서 인공지능의 지위'''
** 본 윤리기준에서 지향점으로 제시한 ‘인간성을 위한 인공지능(AI for Humanity)’은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(human species-centrism) 또는 인간 이기주의를 표방하지는 않는다.
**본 윤리 기준에서 지향 점으로 제시한 ‘인간성을 위한 인공지능(AI for Humanity)’은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(human species-centrism) 또는 인간 이기주의를 표방하지는 않는다.
** 본 윤리기준에서 인공지능은 지각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 인공지능(이른바 강인공지능)을 전제하지 않으며 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다.
**본 윤리기준에서 인공지능은 지 각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 인공지능(이른바 강인공지능)을 전제하지 않으며 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다.
* '''적용 범위와 대상'''
*'''적용 범위와 대상'''
** 본 윤리기준은 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 하며, 이는 정부·공공기관, 기업, 이용자 등을 포함한다.
**본 윤리기준은 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 하며, 이는 정부·공공기관, 기업, 이용자 등을 포함한다.
* '''국가 인공지능 윤리기준의 실현방안'''
*'''국가 인공지능 윤리기준의 실현방안'''
** ‘인공지능 윤리기준’을 기본 플랫폼으로 하여 다양한 이해관계자 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다.
**‘인공지능 윤리기준’을 기본 플랫폼으로 하여 다양한 이해관계자 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다.


== 같이 보기 ==
==같이 보기==


* [[인공지능 윤리]]
*[[인공지능 윤리]]


== 참고 문헌 ==
==참고 문헌==


* [https://www.msit.go.kr/bbs/view.do?sCode=user&mId=113&mPid=112&pageIndex=&bbsSeqNo=94&nttSeqNo=3179630&searchOpt=ALL&searchTxt= 과학기술정보통신부 보도자료]
*[https://www.msit.go.kr/bbs/view.do?sCode=user&mId=113&mPid=112&pageIndex=&bbsSeqNo=94&nttSeqNo=3179630&searchOpt=ALL&searchTxt= 과기정통부, 사람이 중심이 되는 「국가 인공지능 윤리기준」(안) 공개(2020.11.27., 과학기술정보통신부)]
*[https://cosese.daejeon.go.kr/board/view?pageNum=1&rowCnt=10&menuId=MENU00313&schType=0&schText=&categoryId=&continent=&country=&boardStyle=&linkId=222735 과기정통부, 「인공지능(AI) 윤리기준」마련 (2020.12.22., 과학기술정보통신부)]
*[https://www.4th-ir.go.kr/article/detail/1197?boardName=internalData&category=agenda 심의2 사람이 중심이 되는 인공지능 윤리기준(2020.12.23., 4차산업혁명위원회)]

Latest revision as of 10:58, 21 August 2024

섬네일

사람이 중심이 되는 「인공지능(AI) 윤리기준」

과학기술정보통신부정보통신정책연구원에서 제정하고 4차산업혁명위원회에서 심의·의결한, 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 윤리 기준

추진 배경[edit | edit source]

  • 인공지능 기술의 급속한 발전으로 제조·의료·교통·환경·교육 등 산업 全 분야에 인공지능이 활용·확산되면서, 기술의 오남용·알고리즘에 의한 차별· 프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두
  • OECD, EU 등 세계 각국과 주요 국제기구 등은 인공지능 윤리의 중요성을 인식하고 윤리적인 인공지능 실현을 위한 원칙들을 발표 중
  • 우리나라에서도 ’18.4월 「지능정보사회윤리가이드라인①(정보문화포럼)」, ‘19.11월 「이용자중심의 지능정보사회를 위한 원칙②(방통위)」 등이 마련된 바 있으나, 범국가 인공지능 윤리원칙이라기에는 다소 제한적인 측면
  • ⇨ 「인공지능 국가전략」에 따른 ‘사람 중심의 인공지능’ 구현을 위해 글로벌 기준과의 정합성을 갖춘 ‘인공지능 윤리기준’ 마련 추진

경과[edit | edit source]

  • ('19.5월) 우리나라가 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안 발표
  • ('20.4~8월) 과학기술정보통신부는 「인공지능 국가전략(’19.12)」 주요 과제로 ‘인공지능 윤리기준’ 마련을 추진
    • 2020년 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석
  • ('20.9~12월) 학계·기업·시민단체를 아우르는 각계 전문가를 대상으로 윤리기준 초안에 대한 폭넓은 의견수렴
    • (학계) 전자전기공학, 컴퓨터공학, 법학, 인문사회학, 윤리학, 의료법윤리학 등
    • (기업) 네이버, 카카오, 삼성전자, LG전자, IBM, 통신3사, 현대차, 기업 협회·단체 등
    • (시민단체) 소비자시민모임, 진보네트워크센터, 오픈넷, 녹색소비자연대 등
    • 공개 공청회 개최(12.7) 및 인공지능 기술 전문가 그룹· 시민 의견 접수(11.25~12.15) 등 윤리기준 최종안에 대한 공개 의견수렴 실시
  • 4차산업혁명위원회에서 관계부처 합동 심의 안건으로 발의되어 의결

3대 기본원칙과 10대 핵심요건[edit | edit source]

3대 기본원칙과 10대 핵심요건

3대 기본원칙[edit | edit source]

인공지능 개발 및 활용 과정에서 고려될 원칙

‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야할 기준으로 3대 기본원칙을 제시한다.

① 인간 존엄성 원칙[edit | edit source]

  • 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
  • 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
  • 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.

② 사회의 공공선 원칙[edit | edit source]

  • 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
  • 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
  • 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.

③ 기술의 합목적성 원칙[edit | edit source]

  • 인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다.
  • 인공지능은 궁극적으로 인간에게 도움이 되어야 한다는 목적에 맞도록 개발 및 활용되어야 한다.
  • 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.

10대 핵심요건[edit | edit source]

기본원칙을 실현할 수 있는 세부 요건

3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시한다.

① 인권보장[edit | edit source]

  • 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
  • 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.

② 프라이버시 보호[edit | edit source]

  • 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다
  • 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다

③ 다양성 존중[edit | edit source]

  • 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
  • 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다

④ 침해 금지[edit | edit source]

  • 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안된다.
  • 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.

⑤ 공공성[edit | edit source]

  • 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
  • 인공지능은 긍정적 사회 변화를 이끄는 방향으로 활용되어야 한다.
  • 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.

⑥ 연대성[edit | edit source]

  • 다양한 집단 간의 관계 연대성을 유지하고, 미래 세대를 충분히 배려하여 인공지능을 활용해야 한다.
  • 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
  • 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.

⑦ 데이터 관리[edit | edit source]

  • 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
  • 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.

⑧ 책임성[edit | edit source]

  • 인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다
  • 인공지능 설계 및 개발자, 서비스 제공 자, 사용자 간의 책임 소재를 명확히 해야 한다.

⑨ 안전성[edit | edit source]

  • 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
  • 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.

⑩ 투명성[edit | edit source]

  • 사회적 신뢰 형성을 위해 타 원칙과의 상충 관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
  • 인공지능 기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의 사항을 사전에 고지해야 한다.

부록[edit | edit source]

  • 본 윤리 기준에서 인공지능의 지위
    • 본 윤리 기준에서 지향 점으로 제시한 ‘인간성을 위한 인공지능(AI for Humanity)’은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(human species-centrism) 또는 인간 이기주의를 표방하지는 않는다.
    • 본 윤리기준에서 인공지능은 지 각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 인공지능(이른바 강인공지능)을 전제하지 않으며 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다.
  • 적용 범위와 대상
    • 본 윤리기준은 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 하며, 이는 정부·공공기관, 기업, 이용자 등을 포함한다.
  • 국가 인공지능 윤리기준의 실현방안
    • ‘인공지능 윤리기준’을 기본 플랫폼으로 하여 다양한 이해관계자 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다.

같이 보기[edit | edit source]

참고 문헌[edit | edit source]