Эти дебаты время от времени вспыхивали на Workplace, хотя абсолютное мнение сотрудников с той или иной стороны было редкостью. Максималисты с сайта не считали, что Facebook должна принимать меры против всего потенциально вредного контента, а минималисты не думали, что Facebook должна уважать аппетит белых супремасистов к расистским мемам. Facebook не отвечал за все, что размещали и потребляли его пользователи, но и не был вольницей открытого интернета.
Где бы ни находился Цукерберг и большинство высших руководителей Facebook, сомнений не возникало. Несмотря на попытки некоторых кругов представить Facebook как тирана, помешанного на цензуре, генеральный директор всегда казался более озабоченным тем, чтобы не переусердствовать с модерацией. Facebook должен как можно меньше управлять своей платформой, удаляя только однозначно плохой контент и требуя перевеса доказательств для даже скромного подавления контента. Эти препятствия привели к тому, что вмешательство в добросовестность происходило в основном на периферии - позднее исследование показало, что корректировки ленты новостей, снижающие рейтинг графического насилия, некачественной медицинской информации и дезинформации, изменяли лишь крошечный процент сеансов пользователей, и даже тогда пользователи не сообщали, что их лента стала меньше стоить их времени. В ослабленном виде понижение Sparing Sharing Гомеса-Урибе затронуло лишь одного из тысячи.
Циник мог бы справедливо заметить, что такая принципиальная сдержанность давала дополнительные преимущества: требовала меньше работы и приносила больше отдачи. Но люди, общавшиеся с генеральным директором, в целом считали, что его позиция отражает идеологию в большей степени, чем выгоду или целесообразность. Если вы считали, что ленты пользователей Facebook отражают их желания - а Цукерберг считал именно так, - то вы с подозрением относились к попыткам вмешаться в них.
Каков бы ни был источник этих настроений, они практически исключали самый простой подход к борьбе с дезинформацией: просто снижать уровень сенсационности и привлекательности приманки чаще и жестче, чем сейчас, жертвуя точностью ради повышения запоминаемости. Такой подход был исключен.
Обязанность Facebook уважать предпочтения пользователей создавала еще одну проблему. Согласно метрикам, которые использовала платформа, дезинформация была тем, чего хотели люди. Все метрики, которые использовал Facebook, показывали, что людям нравятся истории с сенсационными и вводящими в заблуждение заголовками, и они ими делятся.
Макнелли подозревал, что показатели затушевывают реальное положение дел. Его команда решила доказать, что на самом деле это не так. Они обнаружили, что, несмотря на то, что пользователи регулярно пользуются контентом-приманкой, в ходе опросов они соглашались с тем, что такой материал не представляет для них ценности. Когда им сообщали, что они поделились ложным контентом, они испытывали сожаление. И, как правило, они считали, что проверка фактов содержит полезную информацию.
Поэтому Макнелли, действуя в духе институционализма, организовал еженедельные встречи с Адамом Моссери и Джоном Хегеманом, чтобы доказать, что, когда речь идет о приманках и фальшивых новостях, на показатели вовлеченности просто нельзя полагаться, чтобы отразить то, что пользователи действительно ценят.
Его усилия окупились. В мае 2017 года Facebook объявил, что начнет удалять кликбейт не потому, что он вводит в заблуждение, является сенсационным или мошенническим, а потому, что пользователи сказали им, что им не нравятся вещи, которые вводят в заблуждение, являются сенсационными или спамными. Оказалось, что официальный нейтралитет - это ключ, который может открыть целый корпус работ.
"Мы пытаемся выяснить, что вызывает раздражение, и боремся с дезинформацией независимо от нее", - говорит Макнелли о таком подходе.
Стратегия заключалась в том, чтобы обвинять издателей мистификаций в их неприятном поведении, а не в публикации фальшивых новостей. На сайтах фальшивых новостей, как правило, было много рекламы, а люди не любят рекламу, что оправдывало снижение рейтинга. Кроме того, такие сайты обычно запускают всплывающие окна, а их все ненавидят. Сайты фальшивых новостей в среднем загружались на мгновение дольше, чем более легитимные издания, а никто не любит ждать.
Если бы не проблема фальшивых новостей, у Facebook не было бы шансов сделать приоритетными эти инициативы, многие из которых были, по крайней мере, в некоторой степени избыточными. Но здесь велась какая-то игра. Чтобы избежать необходимости разбираться в истине, компания наказывала издателей фальшивок за все, кроме того, что их новости не соответствовали действительности.