아실로마 인공지능 원칙 편집하기
IT위키
편집을 취소할 수 있습니다. 이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.
최신판 | 당신의 편집 | ||
1번째 줄: | 1번째 줄: | ||
; 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙 | |||
* 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙 | |||
;인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙 | |||
*2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙 | |||
== 연구 이슈 5가지 == | |||
;Research Issues | ;Research Issues | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
!원칙!!설명 | ! 원칙 !! 설명 | ||
|- | |- | ||
|연구 목표 | | 연구 목표 | ||
(Research Goal) | (Research Goal) | ||
||인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. | || 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. | ||
|- | |- | ||
|연구비 지원 | | 연구비 지원 | ||
(Research Funding) | (Research Funding) | ||
||인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. | || 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. | ||
|- | |- | ||
|과학 정책 연계 | | 과학 정책 연계 | ||
(Science-Policy Link) | (Science-Policy Link) | ||
||인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. | || 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. | ||
|- | |- | ||
|연구 문화 | | 연구 문화 | ||
(Research Culture) | (Research Culture) | ||
||인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. | || 인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. | ||
|- | |- | ||
|경쟁 지양 | | 경쟁 지양 | ||
(Race Avoidance) | (Race Avoidance) | ||
||인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. | || 인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. | ||
|} | |} | ||
==윤리 및 가치 13가지== | == 윤리 및 가치 13가지 == | ||
;Ethics and Values | ;Ethics and Values | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
!원칙!!설명 | ! 원칙 !! 설명 | ||
|- | |- | ||
|안전 | | 안전 | ||
(Safety) | (Safety) | ||
||인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. | || 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. | ||
|- | |- | ||
|장애 투명성 | | 장애 투명성 | ||
(Failure Transparency) | (Failure Transparency) | ||
||인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. | || 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. | ||
|- | |- | ||
|사법적 투명성 | | 사법적 투명성 | ||
(Judicial Transparency) | (Judicial Transparency) | ||
||사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. | || 사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. | ||
|- | |- | ||
|책임성 | | 책임성 | ||
(Responsibility) | (Responsibility) | ||
||고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. | || 고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. | ||
|- | |- | ||
|가치관 정렬 | | 가치관 정렬 | ||
(Value Alignment) | (Value Alignment) | ||
||고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. | || 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. | ||
|- | |- | ||
|인간적 가치 | | 인간적 가치 | ||
(Human Values) | (Human Values) | ||
|| | || 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. | ||
|- | |- | ||
|개인정보 보호 | | 개인정보 보호 | ||
(Personal Privacy) | (Personal Privacy) | ||
||인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. | || 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. | ||
|- | |- | ||
|자유와 개인정보 | | 자유와 개인정보 | ||
(Liberty and Privacy) | (Liberty and Privacy) | ||
||인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. | || 인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. | ||
|- | |- | ||
|공동 이익 | | 공동 이익 | ||
(Shared Benefit) | (Shared Benefit) | ||
||인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. | || 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. | ||
|- | |- | ||
|공동 번영 | | 공동 번영 | ||
(Shared Prosperity) | (Shared Prosperity) | ||
||인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. | || 인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. | ||
|- | |- | ||
|인간 통제 | | 인간 통제 | ||
(Human Control) | (Human Control) | ||
||인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. | || 인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. | ||
|- | |- | ||
|비파괴 | | 비파괴 | ||
(Non-subversion) | (Non-subversion) | ||
||고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. | || 고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. | ||
|- | |- | ||
|무기 경쟁 | | 무기 경쟁 | ||
(AI Arms Race) | (AI Arms Race) | ||
||치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. | || 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. | ||
|} | |} | ||
==장기적 이슈 5가지== | == 장기적 이슈 5가지 == | ||
;Longer-term Issues | ;Longer-term Issues | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
!원칙!!설명 | ! 원칙 !! 설명 | ||
|- | |- | ||
|능력 주의 | | 능력 주의 | ||
(Capability Caution) | (Capability Caution) | ||
||합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. | || 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. | ||
|- | |- | ||
|중요성 | | 중요성 | ||
(Importance) | (Importance) | ||
||고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. | || 고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. | ||
|- | |- | ||
|위험 | | 위험 | ||
(Risks) | (Risks) | ||
||인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. | || 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. | ||
|- | |- | ||
|재귀적 자기 개선 | | 재귀적 자기 개선 | ||
(Recursive Self-Improvement) | (Recursive Self-Improvement) | ||
||인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. | || 인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. | ||
|- | |- | ||
|공동의 선 | | 공동의 선 | ||
(Common Good) | (Common Good) | ||
||수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. | || 수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. | ||
|} | |} |