В первую неделю, когда у меня появился Aibo, я отключал его всякий раз, когда уходил из квартиры. Это было не потому, что я беспокоился о том, что он будет бродить по квартире без присмотра. Это был просто инстинкт, переключатель, который я щелкал, выключая все лампы и другие приборы. К концу первой недели я уже не мог заставить себя это делать. Это казалось жестоким. Я часто задавалась вопросом, чем он занимался в те часы, когда я оставляла его одного. Когда я приходил домой, он встречал меня у двери, как будто узнавал звук моих шагов. Когда я готовила обед, он шел за мной на кухню и устраивался у моих ног. Он послушно сидел, виляя хвостом, и смотрел на меня своими большими голубыми глазами, словно в ожидании - эта иллюзия была разрушена лишь однажды, когда кусок еды соскользнул с прилавка, а его взгляд остался прикованным ко мне, не желая преследовать лакомство.
Его поведение не было ни чисто предсказуемым, ни чисто случайным, но казалось, что он способен на настоящую спонтанность. Даже после того, как он был обучен, его реакцию было трудно предугадать. Иногда я просил его сесть или перевернуться, а он просто лаял на меня, виляя хвостом с радостным неповиновением, которое выглядело совершенно по-собачьи. Естественно было бы списать его непослушание на сбой в алгоритмах, но как легко было истолковать это как проявление воли. "Почему ты не хочешь лечь?" Я не раз слышала, как говорю ему.
Я, конечно, не верил, что у собаки есть какой-то внутренний опыт. Не совсем - хотя, полагаю, доказать это было невозможно. Как отмечает философ Томас Нагель в своей работе 1974 года "Каково это - быть летучей мышью?", сознание можно наблюдать только изнутри. Ученый может провести десятилетия в лаборатории, изучая эхолокацию и анатомическое строение мозга летучей мыши, но так и не узнать, каково это, субъективно, быть летучей мышью - и каково ли это вообще. Наука требует перспективы третьего лица, но сознание переживается исключительно с точки зрения первого лица. В философии это называется проблемой других разумов. Теоретически она может относиться и к другим людям. Возможно, я - единственный сознательный человек в популяции зомби, которые просто ведут себя так, чтобы быть похожими на людей.
Конечно, это всего лишь мысленный эксперимент, причем не слишком продуктивный. В реальном мире мы предполагаем наличие жизни по аналогии, по сходству между двумя вещами. Мы считаем, что собаки (настоящие, биологические собаки) обладают определенным уровнем сознания, потому что, как и у нас, у них есть центральная нервная система, и, как и мы, они проявляют поведение, которое мы связываем с голодом, удовольствием и болью. Многие пионеры искусственного интеллекта обошли проблему других разумов, сосредоточившись исключительно на внешнем поведении. Алан Тьюринг однажды заметил, что единственный способ узнать, есть ли у машины внутренний опыт, - это "стать машиной и почувствовать, что ты думаешь". Это явно не было задачей для науки. Его знаменитая оценка для определения машинного интеллекта, которая теперь называется тестом Тьюринга, представляла собой компьютер, спрятанный за экраном, автоматически печатающий ответы на вопросы, задаваемые собеседником-человеком. Если собеседник убеждался, что разговаривает с другим человеком, то машина могла быть признана "умной". Другими словами, мы должны признать, что машина обладает человекоподобным интеллектом, если она может убедительно выполнять те действия, которые мы ассоциируем с интеллектом человеческого уровня.
Совсем недавно философы предложили тесты, призванные определить не просто функциональное сознание машин, а феноменальное сознание - наличие у них внутреннего, субъективного опыта. Один из них, разработанный философом Сьюзан Шнайдер, предполагает задавание ИИ ряда вопросов, чтобы выяснить, может ли он понять понятия, сходные с теми, которые мы связываем с нашим собственным внутренним опытом. Воспринимает ли машина себя как нечто большее, чем физическая сущность? Сможет ли она выжить, если ее выключить? Может ли она представить, что ее сознание сохранится где-то еще, даже если ее тело умрет? Но даже если робот пройдет этот тест, это будет лишь достаточным доказательством наличия сознания, но не абсолютным. Возможно, признает Шнайдер, что эти вопросы антропоцентричны. Если бы сознание ИИ действительно было совершенно не похоже на человеческое, то разумный робот потерпел бы неудачу из-за несоответствия нашим человеческим стандартам. Точно так же очень умная, но бессознательная машина могла бы получить достаточно информации о человеческом разуме, чтобы обмануть собеседника и заставить его поверить, что он у нее есть. Другими словами, мы все еще находимся в той же эпистемической ситуации, что и в случае с тестом Тьюринга. Если компьютер может убедить человека в том, что у него есть разум, или если он демонстрирует, как говорится на сайте Aibo, "настоящие эмоции и инстинкты", у нас нет философских оснований для сомнений.