И, наконец, о сложности. Хакинг с помощью ИИ открывает путь для сложных стратегий, выходящих за рамки того, что может создать человеческий разум. Сложный статистический ИИ-анализ может выявлять взаимосвязи между переменными, а значит, и возможные эксплойты, которые лучшие стратеги и эксперты никогда бы не распознали. Такая изощренность может позволить ИИ развертывать стратегии, подрывающие сразу несколько уровней целевой системы. Например, ИИ, созданный для максимизации доли голосов политической партии, может определять точную комбинацию экономических переменных, предвыборной агитации и процедурных настроек голосования, которые могут принести победу на выборах. Это новый виток той самой революции, которую устроила картография, обеспечив появление джерримендеринга. И это не говоря о трудно обнаруживаемых хаках, которые ИИ может внедрить для манипулирования фондовым рынком, законодательными системами или общественным мнением.
Достигнув сверхчеловеческой скорости, гигантских масштабов, размаха и сложности, хакинг превратится в проблему, с которой мы как общество уже не сможем совладать.
Мне вспоминается сцена из фильма «Терминатор», где Кайл Риз описывает Саре Коннор киборга, который на нее охотится: «С ним бесполезно торговаться. Его нельзя переубедить. Оно не чувствует ни жалости, ни раскаяния, ни страха. И оно не остановится. Никогда…» Я не утверждаю, что нам придется иметь дело с киборгами-убийцами в буквальном смысле, но по мере того, как ИИ становится нашим противником в мире социального хакинга, попытки угнаться за его нечеловеческой способностью выискивать наши уязвимости будут точно так же обречены.
Некоторые исследователи ИИ выражают опасения в отношении того, что сверхмощные системы ИИ могут преодолеть наложенные человеком ограничения и потенциально захватить господствующую роль в обществе. Хотя это смахивает на дешевую спекуляцию, такой сценарий все же стоит рассмотреть и принять меры для его предотвращения.
Однако сегодня и в ближайшем будущем хакерские атаки, описанные в этой книге, будут по-прежнему осуществляться в основном правящими элитами против обычных граждан. Все существующие системы ИИ, воплощенные в вашем ноутбуке, облаке или роботе, запрограммированы другими людьми и, как правило, в их интересах, а не в ваших. Хотя подключенное к интернету устройство, такое как Alexa, может имитировать надежного друга, нельзя забывать, что оно создано в первую очередь для продажи товаров компании Amazon. И точно так же, как веб-сайт Amazon подталкивает вас к покупке его домашних брендов вместо более качественных конкурирующих товаров, Alexa далеко не всегда действует в ваших интересах. Если говорить точнее, она хакает ваше доверие ради целей акционеров Amazon.
В отсутствие какого-либо значимого регулирования мы действительно ничего не можем сделать, чтобы предотвратить распространение ИИ-хакинга. Нам нужно просто принять его неизбежность и создать надежные структуры управления, которые смогут быстро и эффективно реагировать, нормализуя полезные хаки и нейтрализуя вредоносные или непреднамеренно наносящие ущерб.
Эта проблема поднимает более глубокие и сложные вопросы, чем те, о которых мы говорили: как будет развиваться ИИ? Как должны реагировать общественные институты? Какие хаки считать полезными, а какие вредными? Кто принимает решения? Если вы свято верите в то, что правительство должно быть немногочисленным и малозаметным, то, вероятно, вам придутся по душе хаки, которые снижают возможности правительств в плане контроля над гражданами. Однако и в этом случае вы вряд ли захотите сменить политических владык на технологических. Если вы исповедуете принцип превентивности{259}, то должны понимать, как важно, чтобы разные эксперты тестировали и оценивали хаки, прежде чем они будут внедрены в наши социальные системы. И, возможно, стоит применить этот принцип и «выше по течению», то есть к институтам и структурам, которые делают эти хаки возможными.
Вопросы только множатся. Должны ли ИИ-хакеры регулироваться локально или глобально? Администраторами или референдумом? Есть ли какой-то способ позволить рынку или гражданскому обществу принимать решения? (Нынешние попытки применить модели управления к алгоритмам служат ранним индикатором того, как это будет происходить.) Структуры управления, которые мы разрабатываем, предоставят отдельным людям и организациям право отбирать хаки, которые определят будущее. И нужно сделать так, чтобы эти полномочия использовались с умом.
60
Системы управления хакингом
Защитный ИИ – это потенциальный ответ на ИИ-хакинг. Пока он еще недостаточно развит, чтобы можно было реализовать этот проект. Сегодня нам нужны люди и команды, которые бы включились в разработку структур управления и последующий процесс внедрения этой технологии.