В какой момент мы будем готовы сказать, что машина мыслит? Когда она сможет делать расчеты, когда сможет понимать контекстуальные сигналы и соответствующим образом изменять свое поведение, когда сможет подражать эмоциям и вызывать их у других? Ответ на основной вопрос зависит от того, что мы подразумеваем под мышлением. Есть множество сознательных (Система 2) процессов, с которыми машина справится лучше, точнее и с меньшим объемом искажений, чем мы. Но машина не может мыслить в автоматическом (Система 1) режиме. Мы не до конца понимаем автоматические процессы, которые определяют то, как мы себя ведем и как мыслим, поэтому мы не можем запрограммировать машину вести себя так, как человек.
Тогда ключевой вопрос таков: если машина способна мыслить в режиме Системы 2 на скорости человеческой Системы 1, то не будет ли ее «мышление» в чем-то превосходить наше? Что ж, тут очень важен контекст: в чем-то — да, так и получится; в чем-то — нет. Машины не будут близоруки. Они сумеют решить наши экологические проблемы; они не станут жертвой стереотипов и оценочных суждений; они облегчат страдания многих; они будут лишены нашей склонности к аффективному прогнозированию и т. д. Но, с другой стороны, компьютер может не понравиться нам. Что, если поэт и машина напишут одно и то же стихотворение? Понимая, что стихотворение сгенерировано программой, читатель наверняка воспримет его хуже; знание об авторе-человеке окрашивает линзу, через которую читатель оценивает и интерпретирует стихи.
Как предотвратить взрыв интеллекта
Значительная часть риторики по поводу экзистенциальных рисков, связанных с искусственным интеллектом (и сверхинтеллектом вообще), задействует метафору «взрыв интеллекта». Проводится аналогия с ядерными цепными реакциями: исследователи искусственного интеллекта словно бы работают с каким-то элементом смартонием, и, если будет достигнута достаточная его концентрация, мы получим неконтролируемый взрыв интеллекта — цепную реакцию — с непредсказуемыми результатами. Это нельзя назвать точным описанием реальных рисков. Взаимосвязанные алгоритмы искусственного интеллекта не станут ни с того ни с сего захватывать Вселенную. Взрыв интеллекта не произойдет случайно; это потребует построения особого вида системы ИИ, которая сможет обнаруживать в мире упрощающие структуры, конструировать вычислительные устройства, которые будут их использовать, а затем предоставлять автономию и ресурсы своим детищам, и т. д.
Чтобы произошел взрыв интеллекта, необходимое рекурсивное выполнение четырех шагов. Во-первых, система должна уметь проводить эксперименты в физическом мире. В противном случае она не сможет добавить никакого нового знания к уже созданному человеком. (Большая часть недавних достижений в области искусственного интеллекта связана с применением машинного обучения для воспроизведения человеческого знания, а не для его расширения.) В большинстве философских дискуссий по поводу искусственного интеллекта прослеживается естественная тенденция фокусироваться на чистом рассуждении, как будто этого достаточно для расширения знания. В особых случаях (например, в математике и некоторых разделах физики) новое знание может быть получено в ходе чистого рассуждения. Но, как правило, развитие научного знания почти исключительно достигается в ходе сбора эмпирических данных, подтверждающих или опровергающих те или иные гипотезы. Поэтому мы и построили Большой адронный коллайдер, поэтому любые инженерные изыскания связаны с созданием и тестированием прототипов. Машины явно способны с этим справиться, более того, уже существует несколько «автоматизированных ученых».
Во-вторых, эти эксперименты должны обнаруживать новые упрощающие структуры, которые можно использовать для того, чтобы обойти нераскрываемость рассуждения вычислительными средствами. Практически все интересные логические задачи (такие как нахождение оптимальной стратегии в игре, оптимизация на основании комплексных ограничений, доказательство математических теорем, построение предположений о структуре молекул) имеют класс NP. В рамках сегодняшнего нашего понимания вычислительной сложности это означает, что цена решения одного случая для определенной задачи экспоненциально возрастает с увеличением размерности этого случая. Прогресс в области разработки алгоритмов обычно требует отыскания определенной упрощающей структуры, которую можно использовать для того, чтобы обойти эту экспоненту. Взрыва интеллекта не случится, если не будет открыто множество таких структур (или пока не выяснится, что нынешнее наше понимание вычислительной сложности неверно).