익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
트롤리 딜레마
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
[[분류:인공지능]] ;Trolley Problem; Trolley Dilemma ;동일한 상황에서 이성적 판단 VS 윤리적 판단 중 어느것이 옳은가의 문제 == 트롤리 문제 == ;Trolley Problem ;트롤리(기차)가 달려오고 있고, 선로에는 다수의 사람들이 있다. * '''문제1''': 당신은 레버를 당겨 선로를 조정할 수 있으나, 변경된 선로에는 1명이 있다. ** [[파일:트롤리문제1.jpg|200px]] ** 즉 선로 조작 시 한명의 희생으로 다수를 살릴 수 있다. ** 선로를 변경하는 것이 도덕적으로 용인되는가? * '''문제2''': 당신은 그보다 앞에, 선로 위에 무거운 사람과 같이 서 있다. ** [[파일:트롤리문제2.jpg|200px]] ** 무거운 사람을 밀어 선로에 떨어뜨리면 그 사람은 죽겠지만 다수의 사람을 살릴 수 있다. ** 무거운 사람을 밀어 다수를 살리는 것이 도덕적으로 용인되는가? * '''결과''' ** 문제1: 85%가 도덕적으로 용인 가능하다고 답변 ** 문제2: 12%가 도덕적으로 용인 가능하다고 답변 * '''도덕적 판단의 기준''' ** 생물학자 마크 하우저는 사람의 도덕적 판단이 이성보다는 감정의 영향을 받는다고 주장 :{| class="wikitable" |- ! 구분 !! 설명 |- | 행동의 원리 || 행동함으로써 일어난 폐해(가령 누군가의 죽음)는 행동하지 않아 일어난 폐해보다 더 비도덕적이라고 판단 |- | 의도의 원리 || 의도적으로 한 행동이 의도적이지 않은 행동보다 더 비도덕적이라고 판단 |- | 접촉의 원리 || 직접적 신체 접촉이 수반되는 위해가 그렇지 않은 위해보다 더 비도덕적이라고 판단 |} == 현대 기술에서의 이슈 == === 드론의 조종사의 감정 === * 직접 총을 쏘지 않고 드론이나 무인항공기로 사람을 죽이는 조종사는 상대적으로 낮은 죄책감을 느낌 * 도덕적 판단이 필요한 순간에 감정의 영향을 적게 받고, 좀 더 쉽게 의사결정을 이룸 === 자율주행 자동차의 판단 === ; 자율주행 자동차를 운전하는 인공지능은 어떤 선택을 할 것인가? * 고속 이동중인 차량 앞에 어린아이 등장, 회피 시 운전자의 사망위험이 큼 * 차량은 어린아이 또는 운전자 중 희생자를 골라야 함 == [[모랄 머신]] == ; Moral Machine * MIT 공대 lyad Rahwan의 Scalable Cooperation 그룹이 개발한 온라인 플랫폼으로 도덕적 딜레마를 발생시키고 사람들이 두 가지 결과 사이에서 내린 정보를 수집하여 분석. * 시나리오는 트롤리 딜레마의 다양한 사례를 활용하며, 수집된 정보는 향후 기계학습이 갖추고 있어야 할 도덕적 가치를 부여하는 데 이용됨
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록