Обратите внимание, что на этом этапе все интенциональные состояния и действия робота хоть и остаются производными от ваших целей, но начинают несколько отклоняться от этих целей. Поскольку вы сконструировали робота таким образом, чтобы он в некоторой степени “думал за себя”, его “мышление” может выйти за очерченные вами рамки. Реальным, а не выдуманным примером такого артефакта может служить играющий в шахматы компьютер, который способен победить своего создателя в шахматной партии. Да, мы можем сказать, что компьютер в настоящее время “изучает” возможные ходы ладьи ферзевого фланга и “решает” не проводить рокировку, лишь на основании того, что компьютер представляет собой артефакт, созданный человеком именно для совершения этих действий. Но мы также можем сказать, что имеющаяся у создателя цель спроектировать хорошо играющий в шахматы компьютер предполагает, что многие выводы создателя о (производной) очемности компьютерных состояний оказываются вынужденными: при условии, что шахматисту необходима точная информация о правилах и состоянии партии, должны существовать состояния, которые описывают положение каждого слона и каждой пешки, а также состояния, которые предполагают оценку партии, если ферзь компьютера текущим ходом возьмет коня противника, и так далее. Никакие указания не могут связать (производную) очемность состояния компьютера с количеством оставшихся на доске пешек, если только это состояние не было должным образом соотнесено с обнаружением каждой пешки на доске. Когда основная цель создателя достигнута (сделать шахматиста, гигантского робота, симулятор ураганов), в дело вступает жестокая природа, которая определяет, что будет работать, а что работать не будет, а следовательно, какие состояния какой системы считать ошибочными или неточными. Возможно, поэтам и сходит с рук заявление, что в стихотворении о лошадях на самом деле речь идет о профессуре – как сказал Уильям Блейк, “тигры гнева мудрей лошадей поученья”[38], – но компьютерные специалисты не могут подобным образом переносить свои намерения на свои детища.
Подытожим сказанное. Симулякр психических состояний гигантского робота был бы именно таким – на самом деле он ничего не решал бы, ничего не видел, ни о чем не размышлял и ничего не планировал, но словно бы решал, размышлял и планировал. Нужно сделать паузу и убедиться, что мы полностью понимаем это утверждение. Воображаемый робот, само собой, гораздо сложнее скромного четвертачника. Мы наделили его способностью “планировать” новые варианты действий, “учиться” на прошлых ошибках, “формировать альянсы” и “коммуницировать” с конкурентами. Более того, чтобы он осуществлял это “планирование”, “обучение” и “коммуникацию”, его необходимо будет снабдить контрольными структурами, обладающими высокой способностью к саморефлексии или самоконтролю. Иными словами, робот, подобно человеку, будет иметь доступ к собственным внутренним состояниям и сможет “сообщать”, “заявлять” и “комментировать”, что “значит” быть выжимкой своих внутренних состояний (когда “решит”, что не “хочет” нас “обманывать”). У него будут “мнения” о смысле этих состояний, и нам следует воспринимать эти мнения всерьез как прекрасное свидетельство – возможно, даже лучшее из доступных нам свидетельств – о том, что “значат” эти состояния, выражаясь метафорически (не забывайте: робот остается всего лишь артефактом и не обладает исходной интенциональностью; мы рассматриваем его производную интенциональность, которая для наблюдателей не очевиднее нашей интенциональности, интенциональности “настоящих” агентов). Четвертачник не получил такой возможности отмахиваться от наших интерпретативных суждений, с очевидной уверенностью делая “заявления” о том, что он понятия не имеет, что теперь работает в Панаме, или что он был очень удивлен, узнав о существовании четвертаков бальбоа.