— Нет, я принял меры.
Бейли кивнул.
— С вашего разрешения я процитирую Первый Закон.
— Едва ли в этом есть необходимость.
— Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
— И что же?
— Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…
— Знаю, знаю, — нетерпеливо прервал Либич. — Какое это имеет отношение к делу?
— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?
— По вашему же приказу, — отрезал Либич.
— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.
— Чепуха. Ведь роботы не знали…
Бейли подался вперед.
— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».
— Само собой разумеется.
— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.
— Безумие! Бред! — с лица Либича сползла всякая краска.
Бейли внимательно рассматривал свои пальцы.
— Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?
— Если ему прикажут.