Даже с учетом понижения рейтинга, "по нашим оценкам, в Facebook, несмотря на то, что мы лучшие в мире специалисты в этой области, мы можем бороться с 3-5% случаев ненависти и 0,6% случаев [насилия и подстрекательства]", - говорится в одной из презентаций. По словам людей, работавших с ним, Джин знал эту статистику, но был слишком вежлив, чтобы подчеркнуть ее.
Не только Цивик и старые работники новостной ленты, вроде Джина, беспокоились к осени 2019 года. Множество исследователей, которые и близко не подходили к вопросам механики платформы, были напуганы. Хотя QAnon - теория о том, что, хотя президент Трамп проводит рекордное количество дней, играя в гольф, он также находится в смертельной схватке со злобными, педофильскими силами Глубинного государства, - зародилась на 4Chan и была инкубирована на Reddit, группы Facebook обеспечили ей тепличные условия для экспоненциального роста. Некоторый рост этого движения был обусловлен гиперактивностью его приверженцев. Те, кто купился на теорию заговора, представляя ее как борьбу Трампа со злом, распространяли ее с мессианским рвением.
Часть из них также исходила от алгоритмов Facebook. Как только Facebook узнал, что его "Группы, в которые вам стоит вступить" подпитывают немецкий экстремизм в 2016 году, платформа, как оказалось, необычайно любит рекомендовать QAnon.
Этот феномен не стал неожиданностью: рекомендательные системы, подобные той, что использует Facebook, неизбежно пытаются "завести" пользователей, и чем непонятнее их интересы, тем лучше. Знание о том, что кто-то увлекается греко-римской борьбой, помогает Facebook персонализировать его ленту больше, чем знание о том, что ему нравится футбол. Теории заговора, такие как QAnon, имеют именно такую узкую, но глубокую привлекательность.
Исследователи компании использовали несколько методов, чтобы продемонстрировать притяжение QAnon, но самое простое и наглядное доказательство было получено при создании тестового аккаунта и наблюдении за тем, куда его завели алгоритмы Facebook.
Создав фиктивный аккаунт для "Кэрол" - гипотетической сорокадвухлетней консервативной женщины из Уилмингтона, Северная Каролина, чьи интересы включали семью Трампа, Fox News, христианство и воспитание детей, - исследователь наблюдал, как Facebook направляет Кэрол от этих основных интересов к более темным местам.
Уже через день рекомендации Facebook "отклонились в сторону полярного контента". А через неделю Facebook стал продвигать "шквал экстремального, конспирологического и графического контента".
Проблема была не только в ленте новостей. Это были рекомендации страницы , предложения просмотреть "похожие посты" и даже уведомления. В статье исследователя содержался призыв к действию: если Facebook собирается так активно продвигать контент, компания должна быть более разборчивой в том, что она продвигает.
В более поздних записях будет признано, что эти предупреждения остались без внимания.
Можно с уверенностью сказать, что из миллионов пользователей Facebook, которые со временем вступили в группы, посвященные этому заговору, многие не были его реальными адептами. Но уже к осени 2019 года правоверные QAnon совершили несколько странных преступлений - заблокировали мост через дамбу Гувера, похитили людей, захватили цементный завод, а исследователи пользовательского опыта компании получили больше информации о странном заговоре, чем многие другие.
Один из директоров Facebook вспоминает встречу с пользователем в Лас-Вегасе - обычном месте для исследователей пользователей, пытающихся выбраться из культурного пузыря района залива, чтобы набрать испытуемых. Обстановка была ничем не примечательной: один из сотрудников директора опрашивал нескольких пользователей Facebook об их активности на платформе, а директор и его коллега сидели за односторонним зеркалом в арендованном офисном помещении для маркетинговых исследований. Объекты были намеренно разнообразными, а профессионально подготовленный сотрудник Facebook, проводивший интервью, задавал строго нейтральные вопросы. Но одна из участниц интервью, белая женщина средних лет, смотрела на происходящее иначе.
В ее постах, в основном повторных, было много "Сделаем Америку снова великой" и материалов QAnon, и она казалась подозрительной даже на самые простые вопросы о том, как она использует Facebook.
Женщина начала жестикулировать, а затем повысила голос. Поначалу режиссеру показалась забавной несговорчивость испытуемой. Но по мере того как интервьюер пытался успокоить женщину и не смог, он и его коллега начали обмениваться обеспокоенными взглядами.
Черт возьми, подумал режиссер. Она собирается пересечь стол.
За односторонним стеклом директор и его коллега поднялись со своих мест. Они остались стоять, пока интервьюер торопливо , готовый ворваться в комнату, если женщина набросится на нее.
"Мы это поняли", - сказал он. "Наши пользователи - сумасшедшие".
-