МС: Сандей, вы этого хотите? Вы поэтому продолжаете так себя вести, провоцируете нас, хотите, чтобы мы вас исключили? Вы знаете, что можете уйти, если вам тут плохо. Вас никто не держит против вашей воли. Я знаю, что ваши родители будут счастливы увидеть вас снова. Удивлены, но… счастливы.
СА: Я не похожа на Кая. Я ни на кого из них не похожа.
МС: Это очевидно.
СА: Он такой, как все вы. Делает то, что ему говорят; ничего не спрашивает, если вы не хотите. А вам больше ничего не надо. Вам нужна кучка счастливых тупых роботов, которые будут строить милые тупые мосты всю свою жизнь, такую же счастливую и тупую. И я даже не понимаю, зачем мы вам нужны.
МС: Вы знаете зачем.
СА: Мы – запаска. Нас даже будить не будут, если только корабль не наткнется на что-нибудь непонятное и не сможет с ним справиться. Если ничего не случится, мы так и не очнемся.
МС: Случится. В таком долгом путешествии…
СА: А что если нет? Да и зачем мы вам в принципе нужны, почему не сделать машины такими же умными, как мы – или еще умнее, – а нас вывести за скобки?
ТИШИНА: 3 СЕК.
МС: Все не так просто. Машину побыстрее, это нормально. Побольше – нет проблем. Умнее, вот тут… Дело в том, что мы не можем предсказать со стопроцентной уверенностью, как будет действовать человек, хотя нам известны все переменные. А если построить нечто умнее человека, можно с уверенностью сказать, что оно взбунтуется и станет действовать по-своему, как только мы это запустим. И мы понятия не имеем, как оно поступит.
СА: Но люди тоже могут взбунтоваться и действовать по-своему.
МС: Люди более… стабильны. У нас есть биологические нужды, инстинкты возрастом в миллионы лет. Но…
СА: Ты хочешь сказать, что нас легче контролировать. А машину нельзя уморить голодом, чтобы она вела…
МС: Но да, Сандей, люди могут взбунтоваться и поступать по-своему. В этом весь смысл. И вот почему нам не нужна кучка счастливых тупых роботов, как вы выразились. Мы хотим, чтобы вы проявляли инициативу. Именно поэтому мы снисходительно относимся, когда кто-нибудь из вас проявляет не ту инициативу. Но только до определенного предела. Поэтому следите за собой, юная леди.
ТИШИНА: 5 СЕК.
СА: Это все?
МС: А должно быть что-то еще?
СА: Вы не станете наказывать меня? За Кая?
МС: Думаю, вы должны извиниться перед ним, если на то пошло. И это должно быть ваше решение. Но вы и Кай – да и каждая спора в программе – все вы должны сами вырабатывать динамику общения со своими товарищами по кораблю. Через пятьдесят тысяч лет мы не сможем вас наказывать.
ТИШИНА: 2 СЕК.
МС: Я бы так хотел увидеть, как ваши социальные системы эволюционируют со временем. Я бы так многое отдал, чтобы отправиться с вами.
СА: Вы… вы знали. Вы точно все знали.
МС: О чем?
СА: Что я изобью Кая. Вы хотели, чтобы я это сделала!
МС: Почему вы так говорите, Сандей? Зачем нам хотеть, чтобы вы напали на своего товарища?
СА: Понятия не имею. Может, он был плохим, и я была его наказанием. Может, вы захотели посмотреть, как наши «социальные системы эволюционируют со временем». А может, вам просто нравится, когда мы деремся.
МС: Уверяю вас, Сандей, никому из нас не нравится, когда…
СА: А может, вы даже не знаете, зачем вам это нужно. Вы же не такие, как мы, да? Мы легкие в обращении, вы нас так сконструировали. Вот почему вы знаете, как мы поступим. Но кто сконструировал вас? Никто. Вы случайны.
ТИШИНА: 3 СЕК.
СА: Вы свободны.