За последние 30 лет автоматизация изменилась необратимо и обрела динамическое свойство, за счет которого механически повторяющиеся задачи больше не определяют ее функцию. Эти новые логические возможности, ставшие доступными сегодняшним машинам, можно понять изнутри культурного воображаемого, если просто сопоставить кинематографически усовершенствованные версии искусственного интеллекта в «2001: Космической Одиссее» Стэнли Кубрика 1968 года и в фильме Гарленда «Из машины» (2015). В частности, нельзя не заметить разительного контраста между ЭАЛ, разумным компьютером космического корабля, работающим по логическим правилам, исключающим погрешности, и Авой, андроидом с искусственным интеллектом, запрограммированным обмануть тест Тьюринга (то есть сойти за разумного агента, способного рассуждать за рамками любой достоверной диспозиции отклика). Искусственный интеллект ЭАЛ воплощает здесь логическую модель так называемой «высокой церкви компьютеционализма» и сильного тезиса ИИ (идеи, что машины могут превзойти человеческий разум). Этот тезис поддерживается репрезентативной моделью мышления, базирующейся на ассоциации по аналогии между символическими структурами и нейробиологически закодированными и потому исчисляемыми понятиями (то есть подсчитываемыми, так как они являются производными от данных предпосылок). Здесь алгоритмы программировались по модели дедуктивной или монотонной логики, характеризуемой пошаговой процедурой и последовательными рассуждениями, нацеленными на решение задач, которые могут быть обоснованы в рамках предустановленных истин и аксиом.
В «2001: Космическая Одиссея» ИИ ЭАЛ настаивает на том, что его логические процедуры не могут дать сбой и что резервные копии центральной системы ЭАЛ 9000 потерпели неудачу только из-за подверженного ошибкам в поведении человека. Неспособный понять, что дедуктивное мышление машины ограничено и может ошибаться, ЭАЛ решает избавиться от человеческих ошибок, задумав убить астронавтов, находящихся на корабле. Вдохновленную известным американским когнитивистом Марвином Ли Минским неудачу ЭАЛ также подтверждало бытовавшее тогда научное мнение, что логическая модель искусственного интеллекта неспособна иметь дело с непредвиденными обстоятельствами и мыслить за рамками подчиняющегося правилам поведения. ЭАЛ должен был вести себя как нейросеть, способная наращивать искусственный интеллект, точно зеркаля развитие человеческого мозга. В книге «Персептроны» Минский заявил, что один-единственный нейрон может просчитать только небольшое количество логических предикатов в любом конкретном случае, что сильно сказалось на исследованиях нейросетей в 1970-е.
В конце 1980-х и в 1990-е, после так называемой зимы искусственного интеллекта, новые исследовательские модели ИИ обратились к субсимволическим проявлениям интеллекта и начали использовать недедуктивные и эвристические методы, чтобы справиться с неточностями или неполнотой информации. После отказа от символической логики появились ИИ-системы, способные учиться напрямую методом проб и ошибок, взаимодействуя с окружением. Эти встроенные агенты – обучающиеся машины, извлекающие информацию из сенсомоторных откликов, которые позволяют агентам прокладывать маршрут и ориентироваться в пространстве, создавая нейронные связи между интерактивными узлами. Центральной для этих моделей является идея о том, что интеллект – это не спускаемая сверху программа к исполнению и автоматизированным системам нужно развивать интеллектуальные навыки, характеризуемые последовательностями быстрых, неосознанных, неиерархических решений, основанных на интерактивном извлечении информации, сортируемой методом проб и ошибок при определении функций. Статистические подходы были особенно важны в этом переходе к недедуктивной логике и расширению развивающей или немонотонной обработки информации.