В нашем случае получается схожий результат. Четыре случайных фрагмента из статей новостного портала раскрывают исключительно односторонние взгляды: два оптимистичных, два пессимистичных. Непременно существуют публикации, где в полной мере освещается перспективность технологии и риски, связанные с ней, однако быстрый поиск не позволил их выявить. Опять же напомним: подобный анализ может воспроизвести любой исследователь, используя в качестве материала новостные публикации за определенный период или посты из социальных сетей. Более того, мы призываем это сделать — очень увлекательное занятие.
Большая выборка статей позволяет выявить следующие тренды:
• Перспектива потери контроля над миром в последнее время более чем в три раза чаще волнует авторов, чем в 1980 году.
• Волнения морального и этического характера также встречаются чаще. Человек переживает, что мы создадим машину, которая сможет принимать решения, однако не будет обладать моральным кодексом, свойственным человеку.
• В то же время наравне с публикациями, выражающими беспокойство, имеется столько же материалов, связанных с перспективностью технологии. Так, медицина благодаря ИИ может получить неожиданную помощь от технологий в вопросах поддержки пациентов, которым требуется уход, например напоминание о приеме медикаментов, ранняя диагностика заболеваний, выявление шумов в сердце, анализ генетических предрасположенностей к болезням.
В целом ИИ упоминается во множестве областей: в военной отрасли, в принятии решений, в работе, кибернетике, образовании, развлечениях, философии и этике. В анализе каждой можно встретить позитивные и негативные тренды, однако один имеет единственную тенденцию — сугубо негативную: риск потерять контроль.
Хотя в последние десять лет общество ожидает больше положительного от технологии, страх потерять контроль над искусственным разумом все еще доминирует в нашем сознании. Чего мы боимся? Что нас поработят? Будут манипулировать? Наши желания станут вдруг не нашими, а чем-то продиктованными? Настанет технологический апокалипсис и роботизированная нога раздавит человеческий череп? Пока это неизвестно, ясно лишь одно: что вместе со страхом мы движимы любопытством, а это, как-никак, первый шаг к открытиям. И мы задаем себе вопросы из категории «А что, если?..».
А что, если:
• при помощи ИИ и алгоритмов глубокого обучения мы найдем внеземную цивилизацию? Этим заняты исследователи проекта «Галилей»;
• ИИ и ассистенты, работающие на его принципах, освободят нам ценное время, которое мы тратим на уборку, приготовление еды и поддержание хозяйства в чистоте?
• мы найдем способ увеличить продолжительность жизни?
• научный поиск и написание статьи будут требовать значительно меньшего времени и ресурсов?
• слепые от рождения дети вдруг обретут зрение, а глухие слух?
• люди, искалеченные обстоятельствами, смогут снова интегрироваться в общество благодаря новым технологическим, умным протезам и биогаджетам?
Подобных «А что, если?..» каждый читающий может привести множество. Попробуйте и напишите об этом пост в социальных сетях и не забудьте хештег «ачтоесли…».
Технолуддит против техноевангелиста
Суть противостояния проста: одни хотят развития технологий, другие — ограничения. С первыми все более или менее ясно: всегда найдутся те, кто станет первым пользователем технологии, от кого зависит успех и развитие нового, кто находится на самом изломе кривой инновации. Их меньшинство, но они упорно пытаются склонить чашу весов в сторону повсеместного использования технологии.
Вторые, чего-то испугавшись или сконструировав некую «реальность», которая продиктована никак не здравым смыслом, а тем, как какой-то феномен представляется общественности, в нашем случае Голливудом и новостными агентствами, пытаются остановить развитие. До этого момента мы не занимали никакую позицию, однако настало время, когда каждый читатель может сделать выбор самостоятельно. Попробуйте перечитать еще раз, только теперь внимательней, и ответить на простой вопрос: «Действительно ли мое мнение мое или оно кем-то навязано?».
В завершение главы предлагаю рассмотреть два совершенно разных взгляда на вопрос безопасности ИИ. Первый представил Юваль Ной Харари, ученый, историк и философ. Он выражает совершенно здравую мысль: что человеческий культурный код зашит в речи и языке, который используется для передачи смыслов, а человек с появлением ИИ потерял эксклюзивное право обладания кодом. Вывод, сформулированный Харари, контрастирует с нашей позицией, которая будет представлена ниже.
Юваль Ной Харари: ИИ взломал операционную систему человеческой цивилизации
Статья в оригинале находится на сайте Economist, и любой желающий может с ней ознакомиться. Мы лишь приведем основной тезис и доводы Харари.