Level 3
윤리, 철학
목록

의무론적 윤리설, 목적론적 윤리설,

동기냐 결과냐 그것이 문제로다

인간의 윤리를 반듯하게 정립하기란 실로 어려운 일이다. 역사 이래 수많은 사상가들이 윤리에 대한 고민을 집적한 결과 두 갈래의 길이 생겼다. 인간이 어떤 행위를 하고 어떤 행위를 하지 말아야 하는지에 대한 두 개의 다른 지침이. 의무론적 윤리설과 목적론적 윤리설을 이해하는 순간, 우리 입에서는 햄릿 같은 탄식이 저절로 나올 것이다. 동기냐 결과냐 그것이 문제로다.
image

미국의 SF소설가 아이작 아시모프는 1942년 ‘로봇 3원칙’을 제시했어.

1원칙 : 로봇은 인간에게 해를 가하거나 인간이 해를 당하는 상황에서 무시하면 안 된다. 
2원칙 : 로봇은 1원칙에 어긋나지 않는 한, 인간의 명령에 복종해야 한다. 
3원칙 : 로봇은 1, 2원칙에 어긋나지 않는 한, 자신을 지켜야 한다.

이 원칙을 가만히 살펴보면 ‘해야 한다’와 ‘하면 안 된다’로 이루어져 있어. 십계명 혹은 《명심보감》을 닮았어. 로봇 3원칙은 일종의 ‘로봇 윤리’를 제시한 셈인데 그럴듯한지 찬찬하게 따져볼까?

우선 ‘해를 가하거나 당한다’는 것부터 판단하기가 만만치 않아. 누군가가 사람을 칼로 찌르려는 걸 발견하고 로봇이 살인을 막았다고 하자. 그런데 로봇 덕분에 목숨을 건진 사람이 히틀러라면 구해야 할까, 말아야 할까? 로봇이 제1원칙을 따르기 위해서는, 사람을 구하기 전에 눈앞에 있는 한 사람뿐만 아니라 당장 눈에는 보이지 않지만 수많은 인명 피해까지 계산해야 한다는 말인데, 과연 이게 가능할까?