미국의 SF소설가 아이작 아시모프는 1942년 ‘로봇 3원칙’을 제시했어.
1원칙 : 로봇은 인간에게 해를 가하거나 인간이 해를 당하는 상황에서 무시하면 안 된다.
2원칙 : 로봇은 1원칙에 어긋나지 않는 한, 인간의 명령에 복종해야 한다.
3원칙 : 로봇은 1, 2원칙에 어긋나지 않는 한, 자신을 지켜야 한다.
이 원칙을 가만히 살펴보면 ‘해야 한다’와 ‘하면 안 된다’로 이루어져 있어. 십계명 혹은 《명심보감》을 닮았어. 로봇 3원칙은 일종의 ‘로봇 윤리’를 제시한 셈인데 그럴듯한지 찬찬하게 따져볼까?
우선 ‘해를 가하거나 당한다’는 것부터 판단하기가 만만치 않아. 누군가가 사람을 칼로 찌르려는 걸 발견하고 로봇이 살인을 막았다고 하자. 그런데 로봇 덕분에 목숨을 건진 사람이 히틀러라면 구해야 할까, 말아야 할까? 로봇이 제1원칙을 따르기 위해서는, 사람을 구하기 전에 눈앞에 있는 한 사람뿐만 아니라 당장 눈에는 보이지 않지만 수많은 인명 피해까지 계산해야 한다는 말인데, 과연 이게 가능할까?