С тех пор как осенью 2012 года Макаскилл впервые продал Сэму идею зарабатывать, чтобы отдавать, движение ЕА явно изменилось. Оно стало гораздо менее заинтересовано в спасении жизней существующих людей, чем будущих. В начале 2020 года соучредитель движения Тоби Орд опубликовал книгу "Край пропасти", в которой изложил свои мысли (и мысли всех в пентхаусе) на протяжении некоторого времени. В ней он предложил приблизительные оценки вероятности различных экзистенциальных рисков для человечества. Вероятность звездного взрыва он оценил как один к миллиарду, а удара астероида - как один к миллиону. У техногенных рисков, таких как ядерные бомбы и изменение климата, шанс уничтожить весь вид был один на тысячу. У патогена, созданного человеком, - в отличие от болезни, возникшей естественным путем, - шансы были один к тридцати. Наиболее вероятной угрозой для человечества, по мнению Орд, является беглый искусственный интеллект. Он оценил вероятность того, что искусственный интеллект покончит с жизнью в том виде, в котором мы ее знаем, как один к десяти. "Если это произойдет, то мы все погибнем", - объяснил Сэм. "В случае с биологическим риском, даже если все будет очень плохо, я не знаю, у него не хватит интеллекта, чтобы отсеять оставшихся, как это может сделать ИИ".
Один из ответов на такого рода расчеты заключается в том, что они являются своего рода гонзо-научной фантастикой. Никто на самом деле не знает, какова вероятность того или иного события, и ваша готовность выдумать какие-то цифры должна сделать вас менее, а не более авторитетным в этом вопросе. И все же... очевидно, что существует некоторая вероятность того, что все эти ужасные вещи могут произойти. А если есть какая-то вероятность, то как можно не попытаться выяснить, какова эта вероятность? Вы можете свободно спорить о конкретных шансах. Однако если вы ввяжетесь в спор, вам будет трудно избежать определенной логики: ожидаемая ценность снижения даже мизерной вероятности экзистенциальной угрозы для всех будущих человеческих существ гораздо выше, чем ожидаемая ценность всего того, что вы можете сделать для спасения жизней людей, которые в данный момент еще живы. "Основной аргумент был таким: "Послушайте, будущее огромно", - говорит Сэм. "Вы можете попытаться определить его цифрами, но очевидно, что все, что в него попадает, будет иметь огромный множитель".
Когда-нибудь какой-нибудь историк эффективного альтруизма восхитится тем, как легко он трансформировался. Он отвернулся от живых людей без кровопролития и даже без особого крика. Можно подумать, что люди, пожертвовавшие славой и состоянием ради спасения бедных детей в Африке, восстанут против идеи перейти от бедных детей в Африке к будущим детям в другой галактике. Но этого не произошло - что говорит о роли обычных человеческих чувств в этом движении. Это не имело значения. Важна была математика. Эффективный альтруизм никогда не получал эмоционального заряда из тех мест, которые заряжают обычную филантропию. Он всегда подпитывался холодным стремлением к наиболее логичному способу вести хорошую жизнь.
Во всяком случае, люди, сидевшие в гостиной Сэма и обсуждавшие, куда потратить деньги Сэма, говорили не о покупке противомоскитных сеток для детей в Африке, чтобы предотвратить малярию. Они искали хитроумные способы снизить экзистенциальный риск. Суммы, которые они могли раздать, должны были значительно увеличиться - так они все себе представляли. После раздачи 30 миллионов долларов в 2021 году они планировали раздать 300 миллионов долларов в 2022 году, а затем 1 миллиард долларов в 2023 году. Как сказал мне незадолго до этого Нишад: "Наконец-то мы перестанем говорить о том, что делаем добро, и начнем его делать".
Список того, что они только что сделали или собирались сделать... в общем, скоро он станет совершенно неважным. Но в ретроспективе он будет интересен по другим причинам. Некоторое время они рассказывали о предложениях, которые они получили и могут профинансировать. Например, экономист из Стэнфорда надеялся основать новый университет, специализирующийся исключительно на искусственном интеллекте и биотехнологиях и набирающий в свои ряды молодых людей из семей с низким и средним уровнем дохода в развивающихся странах. Инженер из аналитического центра, специализирующегося на катастрофических рисках, хотел запустить спутник связи, который служил бы резервным каналом для служб экстренной помощи, если 911 когда-нибудь выйдет из строя. Компания под названием Apollo Academic Surveys на деньги FTX создала механизм для быстрого определения консенсуса экспертов по любой теме. Странно, но такой инструмент был только у экономистов. Первым вопросом, который они задали, была вероятность того, что Земля будет уничтожена астероидом. Как оказалось, не так уж и вероятно. "Одним поводом для беспокойства меньше", - сказала Авиталь.