트롤리 딜레마 편집하기
IT위키
편집을 취소할 수 있습니다. 이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.
최신판 | 당신의 편집 | ||
40번째 줄: | 40번째 줄: | ||
* 차량은 어린아이 또는 운전자 중 희생자를 골라야 함 | * 차량은 어린아이 또는 운전자 중 희생자를 골라야 함 | ||
== | == 모랄 머신 == | ||
; Moral Machine | ; Moral Machine | ||
* MIT 공대 lyad Rahwan의 Scalable Cooperation 그룹이 개발한 온라인 플랫폼으로 도덕적 딜레마를 발생시키고 사람들이 두 가지 결과 사이에서 내린 정보를 수집하여 분석. | * MIT 공대 lyad Rahwan의 Scalable Cooperation 그룹이 개발한 온라인 플랫폼으로 도덕적 딜레마를 발생시키고 사람들이 두 가지 결과 사이에서 내린 정보를 수집하여 분석. | ||
* 시나리오는 트롤리 딜레마의 다양한 사례를 활용하며, 수집된 정보는 향후 기계학습이 갖추고 있어야 할 도덕적 가치를 부여하는 데 이용됨 | * 시나리오는 트롤리 딜레마의 다양한 사례를 활용하며, 수집된 정보는 향후 기계학습이 갖추고 있어야 할 도덕적 가치를 부여하는 데 이용됨 |