Научная проблематика в моей области — физике частиц — это смесь физики и философии. Доступные нам сейчас инструменты измерения дают настолько неправдоподобные результаты, что некоторые начали воображать, будто мы живем в одной из множества вселенных и среди них обязательно есть те, где существуют такие же неправдоподобные физические константы. Философия просачивается в физику вместе со словом «неправдоподобные». Несмотря на все, чего мы достигли в области решения научных проблем, темная энергия и темная материя все еще остаются для нас тайнами, таким образом, 96 % материи/энергии во Вселенной не укладываются в наши нынешние представления. Есть ли теоретические основания, находящиеся за пределами квантовой теории поля, для того чтобы описать законы природы в экстремумах малых частиц и больших скоростей? Может ли наше понимание элементарной частицы оказаться попросту необоснованным?
Машины уже помогают нам лучше формулировать вопросы. Их информационные аппетиты позволяют нам мечтать о том, чтобы по-новому взаимодействовать с нашим окружением. Но если бы машины могли мыслить, какие вопросы о Вселенной интересовали бы их в первую очередь? Как бы они подходили к их разрешению? Готова поспорить, у людей было бы что добавить к ответам на их вопросы. Все-таки наш мозг — удивительная машина.
Мыслящие машины — это старые алгоритмы на более быстрых компьютерах
Машины не думают. Они аппроксимируют функции. Они превращают входные данные в выходные данные. Кнопка карманного калькулятора «корень квадратный» превращает число 9 в число 3. Хорошо тренированная сверточная нейронная сеть превращает изображение вашего лица в результат «1». Она также превращает изображение, на котором вашего лица нет, в результат «0».
Многослойная или «глубинная» нейронная сеть сводит оценку любого изображения к оценке вероятности того, что на нем есть ваше лицо. Таким образом, тренированная сеть аппроксимирует вероятностную функцию. Этому процессу, чтобы хоть иногда получать правильные результаты, требуется ошеломительное количество вычислений. Но в конечном итоге он все равно преобразует входные данные в выходные. Он всего лишь аппроксимирует функцию, даже если результат походит на человеческое восприятие или мышление. Для этого просто нужно много вычислительной мощности.
«Разумные» машины аппроксимируют комплексные функции, которые работают с паттернами, такими как речь, изображения или любые другие сигналы. Паттерны изображений обычно состоят из множества пикселей или вокселей и часто имеют большую размерность. Связанные с ними паттерны вполне могут выходить за пределы того, что в состоянии охватить человеческий разум. В этом вопросе преимущество компьютеров будет усиливаться по мере их совершенствования.
В решении числовых задач большого объема нам удалось добиться действительно серьезных успехов. Это стало следствием постоянного удвоения плотности монтажа схем, которое происходит примерно раз в два года в соответствии с законом Мура, а не появления каких-то принципиально новых алгоритмов. Такой экспоненциальный рост вычислительной мощности позволяет обычным с виду компьютерам решать более сложные задачи, связанные с большими данными и распознаванием паттернов.
Рассмотрим наиболее популярные алгоритмы больших данных и машинного обучения. Один алгоритм неконтролируемый (ему не требуется учитель, чтобы присваивать данным метки), другой — контролируемый (ему требуется учитель), именно с ними связана значительная часть работ в области прикладного ИИ.
Неконтролируемый алгоритм называется кластеризацией методом k-средних, и, возможно, это самый популярный способ работы с большими данными. Он объединяет подобное с подобным и лежит в основе Google News. Начнем с миллиона измерительных точек. Сгруппируем их в 10, 50 или 100 кластеров или паттернов. Это вычислительно сложная задача. Но кластеризация методом k-средних является итеративным способом формирования кластеров по меньшей мере с 1960-х годов. Что изменилось, так это размерность задач, с которыми могут справляться современные компьютеры. Сам алгоритм называли разными именами, так или иначе намекающими на ИИ, например «самоорганизующаяся карта» или «адаптивная квантизация векторов». Но это все тот же старый двухступенчатый итеративный алгоритм из 1960-х.