국가 인공지능 윤리기준

From IT Wiki
(Redirected from 인공지능 윤리기준)

섬네일

사람이 중심이 되는 「인공지능(AI) 윤리기준」

과학기술정보통신부정보통신정책연구원에서 제정하고 4차산업혁명위원회에서 심의·의결한, 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 윤리 기준

추진 배경[edit | edit source]

  • 인공지능 기술의 급속한 발전으로 제조·의료·교통·환경·교육 등 산업 全 분야에 인공지능이 활용·확산되면서, 기술의 오남용·알고리즘에 의한 차별· 프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두
  • OECD, EU 등 세계 각국과 주요 국제기구 등은 인공지능 윤리의 중요성을 인식하고 윤리적인 인공지능 실현을 위한 원칙들을 발표 중
  • 우리나라에서도 ’18.4월 「지능정보사회윤리가이드라인①(정보문화포럼)」, ‘19.11월 「이용자중심의 지능정보사회를 위한 원칙②(방통위)」 등이 마련된 바 있으나, 범국가 인공지능 윤리원칙이라기에는 다소 제한적인 측면
  • ⇨ 「인공지능 국가전략」에 따른 ‘사람 중심의 인공지능’ 구현을 위해 글로벌 기준과의 정합성을 갖춘 ‘인공지능 윤리기준’ 마련 추진

경과[edit | edit source]

  • ('19.5월) 우리나라가 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안 발표
  • ('20.4~8월) 과학기술정보통신부는 「인공지능 국가전략(’19.12)」 주요 과제로 ‘인공지능 윤리기준’ 마련을 추진
    • 2020년 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석
  • ('20.9~12월) 학계·기업·시민단체를 아우르는 각계 전문가를 대상으로 윤리기준 초안에 대한 폭넓은 의견수렴
    • (학계) 전자전기공학, 컴퓨터공학, 법학, 인문사회학, 윤리학, 의료법윤리학 등
    • (기업) 네이버, 카카오, 삼성전자, LG전자, IBM, 통신3사, 현대차, 기업 협회·단체 등
    • (시민단체) 소비자시민모임, 진보네트워크센터, 오픈넷, 녹색소비자연대 등
    • 공개 공청회 개최(12.7) 및 인공지능 기술 전문가 그룹· 시민 의견 접수(11.25~12.15) 등 윤리기준 최종안에 대한 공개 의견수렴 실시
  • 4차산업혁명위원회에서 관계부처 합동 심의 안건으로 발의되어 의결

3대 기본원칙과 10대 핵심요건[edit | edit source]

3대 기본원칙과 10대 핵심요건

3대 기본원칙[edit | edit source]

인공지능 개발 및 활용 과정에서 고려될 원칙

‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야할 기준으로 3대 기본원칙을 제시한다.

① 인간 존엄성 원칙[edit | edit source]

  • 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
  • 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
  • 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.

② 사회의 공공선 원칙[edit | edit source]

  • 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
  • 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
  • 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.

③ 기술의 합목적성 원칙[edit | edit source]

  • 인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다.
  • 인공지능은 궁극적으로 인간에게 도움이 되어야 한다는 목적에 맞도록 개발 및 활용되어야 한다.
  • 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.

10대 핵심요건[edit | edit source]

기본원칙을 실현할 수 있는 세부 요건

3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시한다.

① 인권보장[edit | edit source]

  • 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
  • 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.

② 프라이버시 보호[edit | edit source]

  • 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다
  • 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다

③ 다양성 존중[edit | edit source]

  • 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
  • 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다

④ 침해 금지[edit | edit source]

  • 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안된다.
  • 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.

⑤ 공공성[edit | edit source]

  • 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
  • 인공지능은 긍정적 사회 변화를 이끄는 방향으로 활용되어야 한다.
  • 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.

⑥ 연대성[edit | edit source]

  • 다양한 집단 간의 관계 연대성을 유지하고, 미래 세대를 충분히 배려하여 인공지능을 활용해야 한다.
  • 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
  • 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.

⑦ 데이터 관리[edit | edit source]

  • 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
  • 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.

⑧ 책임성[edit | edit source]

  • 인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다
  • 인공지능 설계 및 개발자, 서비스 제공 자, 사용자 간의 책임 소재를 명확히 해야 한다.

⑨ 안전성[edit | edit source]

  • 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
  • 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.

⑩ 투명성[edit | edit source]

  • 사회적 신뢰 형성을 위해 타 원칙과의 상충 관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
  • 인공지능 기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의 사항을 사전에 고지해야 한다.

부록[edit | edit source]

  • 본 윤리 기준에서 인공지능의 지위
    • 본 윤리 기준에서 지향 점으로 제시한 ‘인간성을 위한 인공지능(AI for Humanity)’은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(human species-centrism) 또는 인간 이기주의를 표방하지는 않는다.
    • 본 윤리기준에서 인공지능은 지 각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 인공지능(이른바 강인공지능)을 전제하지 않으며 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다.
  • 적용 범위와 대상
    • 본 윤리기준은 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 하며, 이는 정부·공공기관, 기업, 이용자 등을 포함한다.
  • 국가 인공지능 윤리기준의 실현방안
    • ‘인공지능 윤리기준’을 기본 플랫폼으로 하여 다양한 이해관계자 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다.

같이 보기[edit | edit source]

참고 문헌[edit | edit source]