Напомню:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Как видно это достаточно сложные законы, которые в их буквальном смысле слишком сложны для толкования даже человеком, а не только роботом.
Например. Что означает "причинять вред"? Понятно, что бить молотком по голове - это причинять вред, но что если роботу-почтальону дадут задание отнести письмо с приказом об увольнении человеку, а он откажется, потому что это причинит этому человеку вред? Что если с вероятностью 50% после недели тяжелой депрессии, начавшейся после увольнения, этот человек покончит с собой?
Робот должен повиноваться всем приказам - это более однозначный закон, но он связан с первым, а значит тоже противоречив.
Кстати, опять о Первом. Современный мир. В Африке каждые несколько секунд от голода умирает несколько людей. Получается, что каждую секунду робот своим бездействием допускает, что человеку причиняется вред.
Так что делать? Ввести всякие ограничители? Например, "если страдающий объект не рядом, значит робот не должен об этом думать".
Хорошо, другой пример. Робот несет пиццу на заказ, к нему подходит голодающий бомж. Упс.
Значит нужно добавить еще принцип уважения к частной собствености. И тогда робот сможет проигнорировать умирающего от голода и донесет пиццу до того жирдяя, который ее заказал. Или может добавим функцию оценки? Скажем, если убытки меньше 10$, то допустимо спасти человеку жизнь. Нет, 10 мало. 100? 1000? 10000? Сколько стоитжизнь человека?
Законы Изи слишком изи. Очевидно, что они имеют рекламный характер, так же, как заповеди Моисея, и буквально следовать им невозможно. Может быть можно как-то реализовать их практически, но реальное решение, конечно же, будет только более или менее точным приближением к этим законам. Возможно, они будут столь же несовершенны как человеческие, и однажды роботы научатся их обходить, так же, как мы обходим внутренний запрет на убийство. Такие дела.
Кстати, у Айзека был один любопытный рассказ, который говорит, что он и сам осознавал потенциальные проблемы. В рассказе "Лжец" по какой-то случайности один из роботов приобрел телепатические способности. Естественно, люди отнеслись к этому как к находке мешка золота. Ну и пока они расследовали обстоятельства многие решили за счет робота-телепата решить личные проблемы. Его много про что спрашивали, а он в ответ... лгал. Потому что как никто другой знал, какой вред причиняют им неприятные истины. Врал он до тех пор, пока один дотошный исследователь не поймал его на вранье. В этой ситуации он оказался в западне: любое его действие причинило бы человеку вред, так что он впал в электронный эквивалент комы.