아실로마 인공지능 원칙
IT 위키
- 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
- 2017년 1월에 미국 캘리포니아 아실로마에서 열린 AI컨퍼런스에서 발표된 인공지능 개발 원칙
연구 이슈 5가지[편집 | 원본 편집]
- Research Issues
원칙 | 설명 |
---|---|
연구 목표
(Research Goal) |
인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다. |
연구비 지원
(Research Funding) |
인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다. |
과학 정책 연계
(Science-Policy Link) |
인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다. |
연구 문화
(Research Culture) |
인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다. |
경쟁 지양
(Race Avoidance) |
인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다. |
윤리 및 가치 13가지[편집 | 원본 편집]
- Ethics and Values
원칙 | 설명 |
---|---|
안전
(Safety) |
인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다. |
장애 투명성
(Failure Transparency) |
인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다. |
사법적 투명성
(Judicial Transparency) |
사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다. |
책임성
(Responsibility) |
고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다. |
가치관 정렬
(Value Alignment) |
고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다. |
인간적 가치
(Human Values) |
보충 요망 |
개인정보 보호
(Personal Privacy) |
인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다. |
자유와 개인정보
(Liberty and Privacy) |
인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다. |
공동 이익
(Shared Benefit) |
인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다. |
공동 번영
(Shared Prosperity) |
인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다. |
인간 통제
(Human Control) |
인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다. |
비파괴
(Non-subversion) |
고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다. |
무기 경쟁
(AI Arms Race) |
치명적인 인공지능 무기의 군비 경쟁은 피해야 한다. |
장기적 이슈 5가지[편집 | 원본 편집]
- Longer-term Issues
원칙 | 설명 |
---|---|
능력 주의
(Capability Caution) |
합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다. |
중요성
(Importance) |
고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다. |
위험
(Risks) |
인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다. |
재귀적 자기 개선
(Recursive Self-Improvement) |
인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다. |
공동의 선
(Common Good) |
수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다. |