아실로마 인공지능 원칙: Difference between revisions
From IT위키
No edit summary |
|||
(2 intermediate revisions by 2 users not shown) | |||
Line 1: | Line 1: | ||
; 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙 | [[분류:인공지능]] | ||
* 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙 | |||
;인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙 | |||
*2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙 | |||
==연구 이슈 5가지== | |||
;Research Issues | ;Research Issues | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 원칙 !! 설명 | !원칙!!설명 | ||
|- | |- | ||
| 연구 목표 | |연구 목표 | ||
(Research Goal) | (Research Goal) | ||
|| 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. | ||인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. | ||
|- | |- | ||
| 연구비 지원 | |연구비 지원 | ||
(Research Funding) | (Research Funding) | ||
|| 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. | ||인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. | ||
|- | |- | ||
| 과학 정책 연계 | |과학 정책 연계 | ||
(Science-Policy Link) | (Science-Policy Link) | ||
|| 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. | ||인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. | ||
|- | |- | ||
| 연구 문화 | |연구 문화 | ||
(Research Culture) | (Research Culture) | ||
|| 인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. | ||인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. | ||
|- | |- | ||
| 경쟁 지양 | |경쟁 지양 | ||
(Race Avoidance) | (Race Avoidance) | ||
|| 인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. | ||인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. | ||
|} | |} | ||
== 윤리 및 가치 13가지 == | ==윤리 및 가치 13가지== | ||
;Ethics and Values | ;Ethics and Values | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 원칙 !! 설명 | !원칙!!설명 | ||
|- | |- | ||
| 안전 | |안전 | ||
(Safety) | (Safety) | ||
|| 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. | ||인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. | ||
|- | |- | ||
| 장애 투명성 | |장애 투명성 | ||
(Failure Transparency) | (Failure Transparency) | ||
|| 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. | ||인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. | ||
|- | |- | ||
| 사법적 투명성 | |사법적 투명성 | ||
(Judicial Transparency) | (Judicial Transparency) | ||
|| 사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. | ||사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. | ||
|- | |- | ||
| 책임성 | |책임성 | ||
(Responsibility) | (Responsibility) | ||
|| 고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. | ||고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. | ||
|- | |- | ||
| 가치관 정렬 | |가치관 정렬 | ||
(Value Alignment) | (Value Alignment) | ||
|| 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. | ||고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. | ||
|- | |- | ||
| 인간적 가치 | |인간적 가치 | ||
(Human Values) | (Human Values) | ||
|| | ||보충 요망 | ||
|- | |- | ||
| 개인정보 보호 | |개인정보 보호 | ||
(Personal Privacy) | (Personal Privacy) | ||
|| 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. | ||인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. | ||
|- | |- | ||
| 자유와 개인정보 | |자유와 개인정보 | ||
(Liberty and Privacy) | (Liberty and Privacy) | ||
|| 인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. | ||인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. | ||
|- | |- | ||
| 공동 이익 | |공동 이익 | ||
(Shared Benefit) | (Shared Benefit) | ||
|| 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. | ||인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. | ||
|- | |- | ||
| 공동 번영 | |공동 번영 | ||
(Shared Prosperity) | (Shared Prosperity) | ||
|| 인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. | ||인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. | ||
|- | |- | ||
| 인간 통제 | |인간 통제 | ||
(Human Control) | (Human Control) | ||
|| 인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. | ||인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. | ||
|- | |- | ||
| 비파괴 | |비파괴 | ||
(Non-subversion) | (Non-subversion) | ||
|| 고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. | ||고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. | ||
|- | |- | ||
| 무기 경쟁 | |무기 경쟁 | ||
(AI Arms Race) | (AI Arms Race) | ||
|| 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. | ||치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. | ||
|} | |} | ||
== 장기적 이슈 5가지 == | ==장기적 이슈 5가지== | ||
;Longer-term Issues | ;Longer-term Issues | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 원칙 !! 설명 | !원칙!!설명 | ||
|- | |- | ||
| 능력 주의 | |능력 주의 | ||
(Capability Caution) | (Capability Caution) | ||
|| 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. | ||합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. | ||
|- | |- | ||
| 중요성 | |중요성 | ||
(Importance) | (Importance) | ||
|| 고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. | ||고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. | ||
|- | |- | ||
| 위험 | |위험 | ||
(Risks) | (Risks) | ||
|| 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. | ||인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. | ||
|- | |- | ||
| 재귀적 자기 개선 | |재귀적 자기 개선 | ||
(Recursive Self-Improvement) | (Recursive Self-Improvement) | ||
|| 인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. | ||인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. | ||
|- | |- | ||
| 공동의 선 | |공동의 선 | ||
(Common Good) | (Common Good) | ||
|| 수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. | ||수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. | ||
|} | |} |
Latest revision as of 17:16, 18 May 2022
- 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
- 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙
연구 이슈 5가지[edit | edit source]
- Research Issues
원칙 | 설명 |
---|---|
연구 목표
(Research Goal) |
인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. |
연구비 지원
(Research Funding) |
인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. |
과학 정책 연계
(Science-Policy Link) |
인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. |
연구 문화
(Research Culture) |
인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. |
경쟁 지양
(Race Avoidance) |
인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. |
윤리 및 가치 13가지[edit | edit source]
- Ethics and Values
원칙 | 설명 |
---|---|
안전
(Safety) |
인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. |
장애 투명성
(Failure Transparency) |
인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. |
사법적 투명성
(Judicial Transparency) |
사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. |
책임성
(Responsibility) |
고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. |
가치관 정렬
(Value Alignment) |
고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. |
인간적 가치
(Human Values) |
보충 요망 |
개인정보 보호
(Personal Privacy) |
인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. |
자유와 개인정보
(Liberty and Privacy) |
인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. |
공동 이익
(Shared Benefit) |
인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. |
공동 번영
(Shared Prosperity) |
인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. |
인간 통제
(Human Control) |
인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. |
비파괴
(Non-subversion) |
고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. |
무기 경쟁
(AI Arms Race) |
치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. |
장기적 이슈 5가지[edit | edit source]
- Longer-term Issues
원칙 | 설명 |
---|---|
능력 주의
(Capability Caution) |
합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. |
중요성
(Importance) |
고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. |
위험
(Risks) |
인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. |
재귀적 자기 개선
(Recursive Self-Improvement) |
인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. |
공동의 선
(Common Good) |
수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. |