Светлый фон

— Нет, я принял меры.

Бейли кивнул.

— С вашего разрешения я процитирую Первый Закон.

— Едва ли в этом есть необходимость.

— Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

— И что же?

— Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…

— Знаю, знаю, — нетерпеливо прервал Либич. — Какое это имеет отношение к делу?

— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?

— По вашему же приказу, — отрезал Либич.

— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.

— Чепуха. Ведь роботы не знали…

Бейли подался вперед.

— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».

— Само собой разумеется.

— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.

— Безумие! Бред! — с лица Либича сползла всякая краска.

Бейли внимательно рассматривал свои пальцы.

— Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?

— Если ему прикажут.