Не всякое изменение оказывается настолько радикальным, но смена фрейма почти всегда событие исключительное. Это не та вещь, которую мы привычно и без усилий совершаем каждый день. Для нее требуется покинуть исследованную и надежную ментальную территорию. Инстинкт требует от нас сопротивляться, воздерживаться от действия. Лишь изредка мы совершаем прыжок.
Фрейминг – это главное умение людей, которое не могут воспроизвести машины. Идея, что компьютеры и алгоритмы не способны к фреймингу, не нова. В 1969 году один из отцов искусственного интеллекта Джон Маккарти из Стэнфордского университета выступил в качестве соавтора статьи, скромно озаглавленной «Некоторые философские проблемы с точки зрения искусственного интеллекта». В числе затруднений, стоявших перед относительно новой отраслью, он назвал «проблему фрейма».
Смысл, который он вкладывал в понятие «фрейм», отличался от обсуждаемого в этой книге, но они друг с другом связаны. Маккарти писал о необходимости представить «состояние знания» на отдельно взятый момент времени при помощи математики, логики и компьютерного кода. С 1970-х по 1990-е годы проблеме фрейма посвящались книги, конференции и диссертации.
Пятнадцать лет спустя после выхода статьи философ и когнитивист Даниэл Деннет увлекся идеей когнитивных фреймов в более широком смысле, то есть понятием, близким к тому, которое используется в теории принятия решений и в этой книге. В эссе, озаглавленном «Колеса сознания» (
«Представьте себе робота, – говорит Деннет, – единственная инструкция которого – защищать самого себя. Он узнает, что в комнате, где находится его запасная батарея, должна взорваться бомба. Робот находит комнату и обнаруживает батарею на тележке. В результате он формулирует план, в соответствии с которым добирается до батареи, выкатив тележку из комнаты. Он пытается это проделать, но раздается “Ба-бах!”».
Бомба была на тележке. Робот знал это, но не понимал, что, выкатывая тележку с батареей из комнаты, вместе с ней забирает и бомбу. «Не годится, разрабатываем заново», – пишет Деннет.
«Решение очевидно, – говорят инженеры в эссе Деннета. – Наш следующий робот должен уметь учитывать не только желаемые последствия своих действий, но и последствия их побочных эффектов, выводя их из описаний, которые использует при построении планов». И во втором сценарии, добравшись до тележки и батареи, робот останавливается, чтобы рассчитать последствия своих действий. Он приходит к выводу, что выкатывание тележки не изменит цвет стен комнаты, но в то же время будет означать вращение колес, а еще… Ба-бах!
«Нужно научить его отличать важные выводы от неважных», – сказали инженеры. «И не обращать внимания на неважные», – пишет Деннет. На этот раз робот обнаруживает себя за пределами комнаты с задумчивым выражением на лице. В этот момент он очень похож на Гамлета. «Сделай что-нибудь!», – кричат ему. «Я делаю, – отвечает он, – я напряженно игнорирую тысячи выводов, которые согласно моему алгоритму не важны. Как только я прихожу к неважному выводу, я помещаю его в список тех, которые должен игнорировать, и…» Ба-бах!
Три сценария Деннета превосходно иллюстрируют три элемента работы с фреймами. В первом сценарии робот не справился с простейшими причинно-следственными связями. Во втором не смог быстро построить важные контрфактические предположения. В третьем попытался применить слишком много ограничений и оказался парализован. «Машина, – заявляет Деннет, – может производить огромные объемы расчетов, применяя при этом множество правил формальной логики и перемалывая горы данных, но она не способна к фреймингу».
В области искусственного интеллекта многое изменилось с тех пор, как Деннет создал свои сценарии. Ему больше не нужны люди, чтобы загружать в машины абстрактные правила. Вместо этого самые популярные методы сегодняшнего дня – машинное и глубокое обучение – подразумевают, что система отчасти оптимизирует себя сама, обучаясь на больших массивах данных. Но трудность не перестала существовать оттого, что процесс изменился. Даже снабженный большими объемами обучающих данных робот может оказаться в тупике, столкнувшись с новым для себя явлением, например, с тикающей бомбой.
Фрейминг, то есть отражение некоторых существенных свойств реальности при помощи ментальной модели с целью разработки эффективного плана действий – одна из тех вещей, на которые человек способен, а машины нет.