아실로마 인공지능 원칙: Difference between revisions

From IT Wiki
No edit summary
 
(One intermediate revision by one other user not shown)
Line 1: Line 1:
[[분류:인공지능]]
[[분류:인공지능]]
; 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
* 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙


== 연구 이슈 5가지 ==
;인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
 
*2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙
 
==연구 이슈 5가지==
 
;Research Issues
;Research Issues
{| class="wikitable"
{| class="wikitable"
|-
|-
! 원칙 !! 설명
!원칙!!설명
|-
|-
| 연구 목표
|연구 목표
(Research Goal)  
(Research Goal)  
|| 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다.
||인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다.
|-
|-
| 연구비 지원
|연구비 지원
(Research Funding)  
(Research Funding)  
|| 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.
||인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.
|-
|-
| 과학 정책 연계
|과학 정책 연계
(Science-Policy Link)  
(Science-Policy Link)  
|| 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.
||인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.
|-
|-
| 연구 문화
|연구 문화
(Research Culture)  
(Research Culture)  
|| 인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.
||인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.
|-
|-
| 경쟁 지양
|경쟁 지양
(Race Avoidance)  
(Race Avoidance)  
|| 인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다.
||인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다.
|}
|}


== 윤리 및 가치 13가지 ==
==윤리 및 가치 13가지==
 
;Ethics and Values
;Ethics and Values
{| class="wikitable"
{| class="wikitable"
|-
|-
! 원칙 !! 설명
!원칙!!설명
|-
|-
| 안전
|안전
(Safety)
(Safety)
|| 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다.
||인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다.
|-
|-
| 장애 투명성
|장애 투명성
(Failure Transparency)
(Failure Transparency)
|| 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
||인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
|-
|-
| 사법적 투명성
|사법적 투명성
(Judicial Transparency)
(Judicial Transparency)
|| 사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다.
||사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다.
|-
|-
| 책임성
|책임성
(Responsibility)
(Responsibility)
|| 고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다.
||고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다.
|-
|-
| 가치관 정렬
|가치관 정렬
(Value Alignment)
(Value Alignment)
|| 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.
||고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.
|-
|-
| 인간적 가치
|인간적 가치
(Human Values)
(Human Values)
|| 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.
||보충 요망
|-
|-
| 개인정보 보호
|개인정보 보호
(Personal Privacy)
(Personal Privacy)
|| 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다.
||인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다.
|-
|-
| 자유와 개인정보
|자유와 개인정보
(Liberty and Privacy)
(Liberty and Privacy)
|| 인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다.
||인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다.
|-
|-
| 공동 이익
|공동 이익
(Shared Benefit)
(Shared Benefit)
|| 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다.
||인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다.
|-
|-
| 공동 번영
|공동 번영
(Shared Prosperity)
(Shared Prosperity)
|| 인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다.
||인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다.
|-
|-
| 인간 통제
|인간 통제
(Human Control)
(Human Control)
|| 인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
||인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
|-
|-
| 비파괴
|비파괴
(Non-subversion)
(Non-subversion)
|| 고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다.
||고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다.
|-
|-
| 무기 경쟁
|무기 경쟁
(AI Arms Race)
(AI Arms Race)
|| 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
||치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
|}
|}


== 장기적 이슈 5가지 ==
==장기적 이슈 5가지==
 
;Longer-term Issues
;Longer-term Issues
{| class="wikitable"
{| class="wikitable"
|-
|-
! 원칙 !! 설명
!원칙!!설명
|-
|-
| 능력 주의
|능력 주의
(Capability Caution)
(Capability Caution)
|| 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다.
||합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다.
|-
|-
| 중요성
|중요성
(Importance)
(Importance)
|| 고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.
||고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.
|-
|-
| 위험
|위험
(Risks)
(Risks)
|| 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다.
||인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다.
|-
|-
| 재귀적 자기 개선
|재귀적 자기 개선
(Recursive Self-Improvement)
(Recursive Self-Improvement)
|| 인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
||인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
|-
|-
| 공동의 선
|공동의 선
(Common Good)
(Common Good)
|| 수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.
||수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.
|}
|}

Latest revision as of 17:16, 18 May 2022


인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
  • 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙

연구 이슈 5가지[edit | edit source]

Research Issues
원칙 설명
연구 목표

(Research Goal)

인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다.
연구비 지원

(Research Funding)

인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.
과학 정책 연계

(Science-Policy Link)

인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.
연구 문화

(Research Culture)

인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.
경쟁 지양

(Race Avoidance)

인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다.

윤리 및 가치 13가지[edit | edit source]

Ethics and Values
원칙 설명
안전

(Safety)

인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다.
장애 투명성

(Failure Transparency)

인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
사법적 투명성

(Judicial Transparency)

사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다.
책임성

(Responsibility)

고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다.
가치관 정렬

(Value Alignment)

고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.
인간적 가치

(Human Values)

보충 요망
개인정보 보호

(Personal Privacy)

인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다.
자유와 개인정보

(Liberty and Privacy)

인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다.
공동 이익

(Shared Benefit)

인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다.
공동 번영

(Shared Prosperity)

인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다.
인간 통제

(Human Control)

인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
비파괴

(Non-subversion)

고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다.
무기 경쟁

(AI Arms Race)

치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.

장기적 이슈 5가지[edit | edit source]

Longer-term Issues
원칙 설명
능력 주의

(Capability Caution)

합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다.
중요성

(Importance)

고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.
위험

(Risks)

인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다.
재귀적 자기 개선

(Recursive Self-Improvement)

인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
공동의 선

(Common Good)

수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.