Но, если поймут, смогут ли они эти вещи обсуждать? Нет лучшего примера символического мышления, чем то, как мы используем писк и свист, лай и вой, чтобы продуцировать человеческий язык. Возьмем слово «dog». Англоговорящие люди произвольно сопоставили слово «dog» с пушистым, пахучим существом, которое виляет хвостом. Еще примечательнее то, что мы разделяем слово «dog» на бессмысленные компоненты-звуки — «d», «o» и «g», а затем рекомбинируем эти звуки (фонемы), чтобы создавать новые слова с новыми произвольными значениями, например «g-o-d». Разделят ли когда-нибудь машины свои щелчки и свист на базовые звуки или фонемы, составят ли из них другие комбинации, чтобы создать новые слова и придать им произвольные значения, будут ли использовать эти слова для описания абстрактных явлений? Я сомневаюсь.
А как насчет эмоций? Эмоции направляют наше мышление. Роботы могут осознать, например, несправедливость, но почувствуют ли они ее? В этом я тоже сомневаюсь.
Я пою хвалу человеческому разуму. Наш мозг содержит свыше 100 миллиардов нейронов, у многих из которых до 10 000 связей со своими соседями. Этот трехфунтовый ком клеток — главное достижение жизни на Земле. Большинство антропологов уверено, что современный человеческий мозг появился около 200 000 лет назад, но все согласны с тем, что около 40 000 лет назад наши прародители создавали произведения искусства и хоронили своих мертвых, демонстрируя тем самым определенные представления о загробной жизни. Сегодня любой здоровый взрослый человек из любого общества может разделить слова на составляющие их звуки, перемешать эти звуки множеством разных способов, чтобы создать новые слова, уловить их произвольное значение и уяснить абстрактные понятия, такие как «дружба», «грех», «чистота» и «мудрость».
Один известный ученый, занимающийся конструированием роботов, недавно сказал за ужином, что у его творения уходит пять часов на то, чтобы сложить полотенце. Я соглашусь с неким Уильямом Келли, который говорил: «Человек — это медленный, небрежный и гениальный мыслитель; машина — быстрый, точный и глупый».
Они сделают нас лучше?
Искусственный интеллект нужен нам, как и раньше, в первую очередь для того, чтобы строить машины, которые лучше принимают решения. Считается, что сегодня это означает увеличение ожидаемой полезности, насколько возможно. Однако на самом деле смысл состоит немного в другом, а именно: дана функция полезности (или функция вознаграждения, или цель), нужно максимизировать ее ожидаемое значение. Исследователи искусственного интеллекта усердно работают над алгоритмами такой максимизации — над игрой «поиск по дереву», над обучением с подкреплением и т. д. — и над методами (включая восприятие) получения, репрезентации и обработки информации, необходимыми для вычисления ожиданий. Во всех областях был достигнут значительный прогресс, и он, похоже, только ускоряется.
Среди всей этой активности незамеченным остается один важный момент: уметь хорошо принимать решения и принимать хорошие решения — не одно и то же. Неважно, насколько безупречно машина максимизирует ожидания, неважно, насколько точна ее модель мира, — решения, принятые с помощью алгоритма, могут быть несказанно глупы в глазах обычного человека, если функция полезности плохо соотносится с человеческими ценностями. Известный пример со скрепками — хорошая иллюстрация: если единственная цель машины — увеличивать число канцелярских скрепок, она может изобрести потрясающие технологии, чтобы преобразовать всю материю в досягаемой области Вселенной в канцелярские скрепки, но ее решения все равно будут совершенно тупыми.
Искусственный интеллект вслед за исследованием операций, статистикой и даже экономикой рассматривает функцию полезности как нечто, заданное экзогенно. Мы говорим: «Решения отличные, проблема с функцией полезности, но это не вина системы ИИ». Почему это не вина системы ИИ? Если бы я вел себя как машина, вы бы сказали, что это моя вина. Когда мы оцениваем людей, то ожидаем от них и способности осваивать прогностические модели мира, и способности выяснять, что является целесообразным, то есть общей системы человеческих ценностей.
Как объясняют Стив Омохундро, Ник Бостром и другие ученые, несовпадение ценностей и все более эффективные системы принятия решений в сочетании способны вызвать ряд проблем, возможно даже таких, которые приведут к исчезновению целого вида, если машины окажутся более эффективны, чем люди. Некоторые утверждают, будто человечеству ничто не угрожает в ближайшие несколько веков, забывая при этом, что временной интервал между уверенным заявлением Эрнеста Резерфорда о том, что энергию атома высвободить невозможно, и открытием Лео Силардом цепной реакции, инициируемой воздействием нейтронов, составил менее 24 часов.