— Цитата из Библии, — поспешно проговорил Харриман. — Это не важно. Я имею в виду: должен ли робот повиноваться приказам ребенка, или идиота, или преступника, или вполне порядочного человека, но недостаточно компетентного, чтобы предвидеть, к каким прискорбным последствиям приведет его желание? А если два человека дадут роботу противоречащие друг другу приказы — какой выполнять?
— Разве за двести лет эти проблемы не возникали и не были решены? — поинтересовался Джордж.
— Нет, — энергично помотал головой Харриман. — Наши роботы использовались только в космосе, в особой среде, где с ними общались высококвалифицированные специалисты. Там не было ни детей, ни идиотов, ни преступников, ни невежд с благими намерениями. И тем не менее случалось, что глупые или попросту непродуманные приказы наносили определенный ущерб, но его размеры были ограничены тем, что роботов применяли в очень узкой сфере. Однако на Земле роботы
— Тогда необходимо внедрить в позитронный мозг способность к взвешенному суждению.
— Вот именно. Мы начали производство модели ДжР, которая сможет судить о человеке, принимая во внимание пол, возраст, социальную и профессиональную принадлежность, ум, зрелость, общественную значимость и так далее.
— И как это повлияет на Три Закона?
— На Третий Закон — вообще никак. Даже самый ценный робот обязан разрушить себя ради самого ничтожного человека. Здесь ничего не изменится. Первого Закона это коснется, только если альтернативные действия в любом случае причинят вред. Тогда решение будет приниматься не только в зависимости от количества людей, но и, так сказать, их качества, при условии, конечно, что на это хватит времени, а основания для суждения будут достаточно вескими. Впрочем, такие ситуации довольно редки. Самым сильным изменениям подвергнется Второй Закон, поскольку любое потенциальное подчинение приказу будет включать в себя суждение о нем. Реакция робота замедлится, за исключением тех случаев, когда в силу вступит Первый Закон, зато исполнение приказа будет более осмысленным.
— Но способность судить о людях — вещь непростая.
— Вернее,
— Это, несомненно, снимает возражения противников роботов.
— Нет, — сердито возразил Харриман. — Теперь они выдвигают новые претензии: им не нравится, что роботы способны к суждениям. Робот, говорят они, не имеет права классифицировать того или иного человека как личность низшего сорта. Отдавая предпочтение приказам некоего А перед приказами некоего Б, они тем самым считают Б менее ценным по сравнению с А и нарушают основные права человека.
— И как вы ответите на это?
— Никак. Я сдаюсь.
— Понимаю.
— Но это касается только меня лично. Потому-то я и обращаюсь к тебе, Джордж.
— Ко мне? — Голос Джорджа остался таким же ровным, лишь мягкое удивление прозвучало в нем. — Почему ко мне?
— Потому что ты не человек, — с нажимом произнес Харриман. — Я уже говорил тебе, что хочу видеть роботов партнерами людей, — вот и стань моим партнером.
Джордж-10 беспомощно, странно человеческим жестом развел руками.
— Что я могу сделать?
— Тебе, конечно, кажется, что ты ничего не можешь, Джордж. Ты создан совсем недавно, в сущности, ты еще дитя. Тебя специально не перегружали информацией — поэтому мне и приходится объяснять все так подробно, — чтобы оставить место для развития. Но твой интеллект будет развиваться и позволит тебе взглянуть на проблему с иной, не человеческой точки зрения. Там, где я не вижу выхода, ты можешь найти его.
— Мой мозг сконструирован людьми. Как он может быть нечеловеческим?
— Джордж, ты последняя модель серии ДжР. Твой мозг — наиболее сложный из всех, которые мы создавали когда-либо, в чем-то он устроен даже более тонко, чем у прежних огромных Машин. Он представляет собой открытую систему, и, несмотря на изначальное человекоподобие, эта система может развиваться — будет развиваться — в любом неожиданном направлении. Оставаясь в непреложных границах Трех Законов, ты можешь обрести тем не менее совершенно нечеловеческий образ мышления.
— Но хватит ли у меня знаний о людях, чтобы правильно подойти к проблеме? Об их истории? Психике?