G20 AI 원칙
From IT Wiki
(Redirected from G20 인공지능 원칙)
신뢰할 수 있는 AI의 책임 관리 원칙[edit | edit source]
포괄적인 성장, 지속가능한 발전과 웰빙[edit | edit source]
- 이해관계자는 인간과 지구를 위한 유익한 결과를 추구하기 위해 신뢰할 수 있는 AI의 책임 있는 관리에 적극적으로 참여해야 한다. 예를 들어, 인간의 능력을 강화하고 창의성을 향상시키고, 과소표시된 인구의 포함을 촉진하고, 경제적, 사회적, 성별 및 기타 불평등을 줄이고, 자연 환경을 보호해야 한다.따라서 포괄적인 성장, 지속 가능한 발전 및 웰빙을 촉진한다.
인간중심적 가치와 공정성[edit | edit source]
- AI 행위자들은 AI 시스템 수명주기 전반에 걸쳐 법치, 인권, 민주적 가치를 존중해야 한다. 여기에는 자유, 존엄성 및 자율성, 프라이버시와 데이터 보호, 비차별과 평등, 다양성, 공정성, 사회 정의, 국제적으로 인정받는 노동권 등이 포함된다.
- 이를 위해 AI 행위자는 문맥에 적합하고 예술 상태에 부합하는 인간 결정 능력 등 메커니즘과 보호장치를 구현해야 한다.
투명성 및 설명가능성[edit | edit source]
- AI 행위자는 AI 시스템에 대한 투명성과 책임 있는 공개를 약속해야 한다. 이를 위해, 그들은 의미 있는 정보를 제공하고, 문맥에 적합하며, 예술의 상태와 일치해야 한다.
- AI 시스템에 대한 일반적인 이해 증진
- 이해당사자들이 작업장을 포함한 AI 시스템과의 상호작용을 인지하도록 하는 것
- AI 시스템의 영향을 받는 사람이 결과를 이해할 수 있도록 한다.
- AI 시스템에 의해 부정적인 영향을 받는 사람들이 요인에 대한 명확하고 이해하기 쉬운 정보와 예측, 권고 또는 결정의 근거가 되는 논리에 근거하여 결과에 이의를 제기할 수 있도록 한다.
견고성, 보안성 및 안전성[edit | edit source]
- AI 시스템은 정상 사용, 예측 가능한 사용 또는 오용 또는 기타 불리한 조건에서 적절하게 작동하고 불합리한 안전 위험을 초래하지 않도록 전체 라이프사이클 동안 견고하고 안전해야 한다.
- 이를 위해 AI 행위자는 AI 시스템 라이프사이클 동안 이루어진 데이터셋, 프로세스 및 의사결정과 관련하여 추적가능성을 보장하여 맥락에 적절하고 예술 상태에 부합하는 AI 시스템의 결과와 질의 응답을 분석할 수 있어야 한다.
- AI 행위자는 역할, 상황 및 행동 능력에 따라 개인 정보 보호, 디지털 보안, 안전 및 편견 등 AI 시스템과 관련된 위험을 해결하기 위해 AI 시스템 라이프사이클의 각 단계에 체계적인 위험 관리 접근법을 지속적으로 적용해야 한다.
책임추적성[edit | edit source]
- AI 행위자는 AI 시스템의 적절한 기능 및 위의 원칙의 존중을 위해 역할, 맥락, 예술 상태와 일치해야 한다.
신뢰할 수 있는 AI를 위한 국가정책과 국제협력[edit | edit source]
AI 연구개발 투자[edit | edit source]
- 정부는 도전적인 기술적 문제와 AI 관련 사회적, 법적, 윤리적 함의와 정책적 문제에 초점을 맞춘 신뢰할 수 있는 AI의 혁신을 촉진하기 위해 장기 공공 투자를 고려하고, 학제간 노력을 포함한 연구 개발에 민간 투자를 장려해야 한다.
- 정부는 또한 부적절한 편견이 없는 AI 연구개발 환경을 지원하고 표준의 상호운용성과 사용을 개선하기 위해 대표적인 개방적 데이터셋에 대한 민간 투자를 권장해야 한다.
AI를 위한 디지털 생태계 구축[edit | edit source]
- 정부는 신뢰할 수 있는 AI를 위한 디지털 생태계의 개발과 접근을 촉진해야 한다. 이러한 생태계에는 특히 디지털 기술과 인프라, AI 지식 공유를 위한 메커니즘이 포함된다. 이와 관련하여, 정부는 데이터의 안전하고 공정하며 합법적이며 윤리적인 공유를 지원하기 위해 데이터 신뢰와 같은 메커니즘을 촉진하는 것을 고려해야 한다.
AI를 위한 정책 환경 조성[edit | edit source]
- 정부는 신뢰할 수 있는 AI 시스템을 위한 연구개발 단계에서 구축 및 운영 단계로의 신속한 전환을 지원하는 정책 환경을 조성해야 한다. 이를 위해 실험을 통해 AI 시스템을 테스트하고 필요에 따라 규모를 조정할 수 있는 제어 환경을 제공하는 것을 고려해야 한다.
- 정부는 신뢰할 수 있는 AI를 위한 혁신과 경쟁을 장려하기 위해 AI 시스템에 적용할 때 정책 및 규제 프레임워크와 평가 메커니즘을 검토하고 적절하게 조정해야 한다.
인적 역량 구축 및 노동시장 혁신 준비[edit | edit source]
- 정부는 노동계와 사회의 변화에 대비하기 위해 이해당사자들과 긴밀히 협력해야 한다. 그들은 사람들이 필요한 기술과 AI 시스템을 동일시하는 것을 포함하여 다양한 애플리케이션에서 AI 시스템을 효과적으로 사용하고 상호작용할 수 있도록 권한을 부여해야 한다.
- 정부는 AI가 전개될 때 근로자를 위한 교육 프로그램, 이동에 따른 피해자에 대한 지원, 노동시장의 새로운 기회에 대한 접근 등 사회적 대화를 통한 공정한 전환을 보장하는 조치를 취해야 한다.
- 정부는 또한 이해당사자들과 긴밀히 협력하여 직장에서 AI의 책임 있는 사용을 촉진하고, 근로자의 안전과 일자리의 질을 향상시키며, 기업가정신과 생산성을 향상시키며, AI로 인한 혜택이 광범위하고 공정하게 공유되도록 해야 한다.
신뢰할 수 있는 AI를 위한 국제 공조[edit | edit source]
- 개발 도상국 및 이해 관계자를 포함한 정부는 이러한 원칙을 발전시키고 신뢰할 수있는 AI에 대한 책임감있는 청지기 진전을 위해 적극적으로 협력해야한다.
- 정부는 적절한 경우 AI 지식 공유를 촉진하기 위해 OECD와 기타 글로벌 및 지역 포럼에서 협력해야 한다. 그들은 AI에 대한 장기적 전문지식을 확보하기 위해 국제적, 부문간, 개방적인 다중 이해관계자 이니셔티브를 장려해야 한다.
- 정부는 상호운용 가능하고 신뢰할 수 있는 AI를 위해 다중 이해관계자, 합의 중심 글로벌 기술 표준의 개발을 촉진해야 한다.
- 정부는 또한 AI 연구, 개발 및 배치를 측정하기 위해 국제적으로 비교할 수 있는 지표의 개발과 사용을 장려해야 하며, 이러한 원칙의 이행의 진척도를 평가하기 위한 근거 기반을 수집해야 한다.