- Мало того, с куклой-то долго интересно не будет, - продолжал профессор. - А программная составляющая в них уже давно использовала искусственный интеллект на основе нейронных сетей. Как-то незаметно они стали интересными собеседниками. Они стали полноценными помощниками в практически любой сфере деятельности. Они стали настоящими компаньонами по жизни, в самом прямом смысле слова. Идеальные во всех отношениях. И даже не приторно идеальные, а на любой вкус. Хочешь побольше стервозности? Увеличь параметр стервозности. Хочешь, чтобы тебя ревновали? Включи ревность. Хочешь, чтобы она перестала неуместно ревновать и закатывать истерики? Выключи ревность. И так далее и тому подобное. Не просто так данные модели нарекли спутниками жизни. Женщинам тоже угодили, как могли. Они получили, наконец-то, своих "идеальных принцев", фигурально и даже буквально, тягающих их на руках, и выполняющих все их прихоти. Правда, довольно быстро были наложены некоторые ограничения на использование роботов в обществе. Потому что многие женщины отправляли своих мэнботов на афёры, на ограбления или на ещё какие незаконные действия. Этим иногда и мужики грешили. И, собственно, благодаря таким вот людям ответственность за поведение робота сегодня по закону лежит на его хозяине, кроме тех случаев, когда роботы были взломаны. Но это всё тривия. Опыт и обучаемость - это ещё один их плюс. Специалисты узкого профиля получили реальную возможность передавать опыт, размножать его на множество копий и загружать на платформы в любой точке мира. А это - фактическая реализация концепции о присутствии сразу в нескольких местах и выполнении сразу нескольких дел одним человеком. С разработкой алгоритмов сращивания обученных нейросетей появились первые комплексные базы с перекрёстным опытом. А отсюда и возможность отсеивания неудачных решений, то есть фактически реализация концепции обучения на чужих ошибках. А потом сделали первый ВИСКИ.
- Виски?
- Не напиток, детектив. Виртуальный интерактивный самокорректирующийся интеллект. Это комплексная особым образом срощенная нейросеть, способная самостоятельно оценивать, очищать от мусора и приращивать к себе другие обученные нейросети. Она полностью независима от платформы, у неё облачная среда и система самовосстановления частей. Этакий саморазвивающийся разум технороя. Это была реальная технологическая революция, возможно, что последняя подобного уровня. Обычно ВИСКИ один или два на целый город. А с недавних пор элементы ВИСКИ внедряются ещё и в спутников вместе с обновлениями. Вы не замечали...
- Замечал, - оборвал его я.
И я действительно замечал. Замечал, что Сати и Лейла начали со мной иначе разговаривать. Где-то более учтиво, чем раньше, где-то более дерзко. Причём дерзко именно тогда, когда это было уместно. Замечал, что поступки их стали более уверенными, и они значительно реже стали спрашивать о чём бы то ни было вообще. Я, конечно, списывал всё это на их пресловутую обучаемость, но тут был какой-то реальный рывок. Вместо характерных для их уровня опыта пары вопросов в неделю, Сати задала мне корректирующий её поведение вопрос буквально сегодня первый раз за последние два месяца.
- Ну а теперь скажите мне, детектив, какие преимущества против подобных чудес имели живые люди с их недостатками?
Я промолчал. А что говорить - у меня самого два фэмбота. И с реальной женщиной меня встречаться не тянет. От них заразиться можно какой-нибудь хернёй, залететь она может, да и мозг выносить будет обязательно.
- Вы, небось, сейчас подумали о болезнях, скандалах, и детях, так, детектив? - ехидно спросил профессор.
- Ну, почти.
- Из чего следует, что люди, подобные Синтии, уже победили. Зачем вас заставлять что-либо делать или не делать, зачем провоцировать какие-то ситуации, зачем проливать кровь? Вы сами от всего отказались. И что самое главное - вы сами выбрали уменьшение контактов с противоположным полом до критически низкого уровня, при котором появление у вас потомства находится на уровне вероятности меньшей, чем статистическая погрешность. И не вы один. Почти весь мир сегодня это выбрал.
- А почему у вас, профессор, нет фэмбота?
- Не знаю, детектив. Староват, наверно. Да и привык я всё сам делать. А ещё я им не доверяю.
- А вот это зря, - сказала Джалил.
- Не вам, дорогуша, мне об этом говорить, уж точно не вам.
Я опять посмотрел в окно. Машина двигалась очень медленно. Лейла довольно исполнительная "девочка". А я за разговором забыл ей сказать, чтобы немного прибавила скорости. Что я и поспешил исправить, наклонившись и шепнув ей на ухо новое распоряжение.
- Ну, хорошо, - сказал я, - но я что-то пока не могу найти мотива её убийства во всём этом потоке информации. По крайней мере, явного. Вы же сами говорите, что мы этот выбор сделали, даже если за ним кто-то и стоит. Получается, что даже если захотеть, то на Синтию нет смысла держать зло за внедрение роботов в нашу жизнь. В чём конкретно её вина тут? Я не понимаю. Вы что-то говорили про серый снег, вроде... к чему он в данном контексте?