В фильме «Я, робот» компьютерная система решает, что человечество идет к саморазрушению и гибели – достаточно посмотреть на бесконечные войны людей и их жестокость, – и единственный способ защитить род человеческий – это взять управление на себя и установить благодетельную диктатуру машины. Здесь противоречие возникает не между двумя целями, а внутри одной, притом совершенно нереалистичной. И убийственные роботы не сломались: они логически пришли к выводу, что единственный способ сохранить человечество – взять на себя управление обществом.
Одно из возможных решений этой проблемы состоит в создании иерархии целей. К примеру, желание помочь людям должно перевешивать стремление к самосохранению. Эта тема исследовалась, в частности, в фильме «2001». Компьютерная система HAL9000 представляла собой разумную машину, способную свободно беседовать с людьми. Однако приказы, отдаваемые компьютеру, противоречили один другому и не могли быть одновременно выполнены. Попытавшись сделать невозможное, компьютер, что называется, «съехал с катушек»; он сошел с ума, и единственным способом выполнить противоречивые команды несовершенных людей стало устранение этих самых людей.
Не исключено, что наилучшим решением этой проблемы было бы создание нового закона робототехники, в котором говорилось бы, что робот не может причинить вред человеку, даже если в его предыдущих командах есть противоречия. Робот должен быть запрограммирован не обращать внимания на противоречия низкого уровня в командах; главное – всегда выполнять основной закон. Но и такая система может оказаться несовершенной, и это в лучшем случае. (К примеру, если главная цель роботов – защищать людей и эта цель превыше всех других целей, то все будет зависеть от того, как роботы определят слово «защищать». Их механическое определение этого слова может сильно отличаться от нашего.)
Надо сказать, что некоторые ученые, такие как специалист по когнитивной психологии из Университета Индианы доктор Дуглас Хофстадтер, не боятся такого развития событий. Во время интервью он рассказал, что роботы – как дети, и почему бы нам не любить их, как собственных детей? Его отношение, по его собственным словам, сводится примерно к следующему: мы любим своих детей, хотя прекрасно знаем, что в конце концов они сменят нас и управление перейдет в их руки.
Доктор Ханс Моравек, бывший директор Лаборатории искусственного интеллекта в Университете Карнеги – Меллона, согласен с доктором Хофстадтером. В своей книге «Робот» (Robot) он пишет: «Дети нашего разума, не скованные тяжелой поступью биологической эволюции, будут вольны двигаться вперед и расти, чтобы в конце концов взять на себя безграничные и фундаментальные вызовы большой Вселенной… На какое-то время мы, люди, получим выгоду от их труда, но… как настоящие живые дети, они будут искать собственный путь и собственную судьбу, тогда как мы, их пожилые родители, молча отойдем в сторону».
Другие, напротив, считают, что такое решение ужасно. Может быть, проблему можно решить, если уже сейчас, пока еще не поздно, изменить наши цели и приоритеты. Раз роботы – наши дети, то мы и должны «научить» их доброжелательности.
Дружественный искусственный интеллект
Роботы – это механические существа, которых мы сами изготавливаем в лаборатории, поэтому, будут ли они дружественными или агрессивными, зависит от направления исследований искусственного интеллекта. Значительная часть финансирования поступает от военных, задача которых – выигрывать войны, так что создание роботов-убийц вполне вероятно.
Однако поскольку 30 % всех промышленных роботов производится в Японии, существует и другая возможность: роботов с самого начала будут конструировать и создавать как полезных работников и товарищей по играм. Это вполне достижимая цель, если в исследованиях по робототехнике будет доминировать потребительский сектор. Философия «дружественного искусственного интеллекта» состоит в том, что изобретатели должны создавать роботов такими, чтобы те с первых шагов были запрограммированы на доброжелательность к людям.