Читаем Десять уравнений, которые правят миром. И как их можете использовать вы полностью

Мы познакомились с Алексом, когда я начал проверять точность методов Cambridge Analytica. Он интересный собеседник. Возможно, с ним не стоит вести бизнес, но он отлично понимает, как можно и как нельзя использовать данные. Алекс действительно пытался создать то, что Крис Уайли назвал инструментом «психологической войны», для точной фиксации избирателей, но пришел к выводу, что такое оружие невозможно разработать. Данных недостаточно.

Работая в компании, он пришел к тому же выводу о деятельности Cambridge Analytica, что и я: «Эта дрянь не работает». На слушаниях в Сенате он сказал сенаторам то же, но в более вежливой форме.

* * *

Основная «проблема» с алгоритмом компании Cambridge Analytica состояла в том, что он не работал.

В начале эры «больших данных» многие так называемые эксперты предполагали, что корреляционные матрицы могут вести непосредственно к лучшему пониманию пользователей и клиентов. Но все не так просто. Алгоритмы, основанные на корреляциях в данных, использовались не только для политической рекламы, но и при рекомендациях для тюремного заключения, оценке работ школьных учителей и для обнаружения террористов. Название книги Кэти О’Нил «Оружие математического поражения»[147] хорошо отражает возникающие проблемы[148]. Как и ядерные бомбы, алгоритмы не избирательны. Термин «таргетированная реклама» подразумевает жесткий контроль над тем, кому она показывается, но на самом деле эти методы имеют очень ограниченные возможности по надлежащей классификации людей.

Для интернет-рекламы это невелика беда. Жизнь игрока в Fortnite не рухнет, если ему покажут рекламу косметики. Но совсем другое дело – если алгоритм назовет вас преступником, плохим учителем или террористом. Это может изменить карьеру и жизнь. Алгоритмы на базе корреляций изображались объективными, потому что основаны на данных. На деле же, как я обнаружил при написании своей последней книги – «В меньшинстве», – многие алгоритмы делают почти столько же ошибок, сколько и точных прогнозов.

Нашлось и множество других проблем, которые могут возникнуть при конструировании алгоритмов, основанных на корреляционных матрицах. Например, метод представления слов Google в его поисковой системе и сервисе перевода основан на корреляции между использованием слов[149]. Для определения того, когда те или иные группы слов употребляются вместе, применяются также Википедия и базы данных для новостных статей[150]. Когда я посмотрел, как эти алгоритмы рассматривают мое имя Дэвид по сравнению с именем Сьюзен (самым популярным именем для женщин моего возраста в Великобритании), я пришел к нелестным выводам. Там, где я в качестве «Дэвида» был «смышленым», «сообразительным» и «умным», алгоритм давал для Сьюзен определения «изворотливая», «жеманная» и «сексуальная». Основная причина проблемы в том, что эти алгоритмы построены на корреляциях в наших исторических текстах, которые набиты стереотипами.

Алгоритмы, используемые для больших данных, нашли корреляции, но не поняли их причин. В результате они совершали колоссальные ошибки.

* * *

Последствия перехваливания «больших данных» были сложны, но причины просты. Помните, как мы разделили мир на данные, модели и бессмыслицу? Произошло вот что: компаниям и общественности рассказали о данных, но не обсудили модели. Когда моделей нет, верх берет бессмыслица. Александр Никс и Крис Уайли говорили бессмыслицу о таргетировании по личностным качествам и инструментам психологической войны. Компании, прогнозирующие качество работы учителей и создающие программы для вынесения приговоров, говорили бессмыслицу об эффективности их продуктов. Facebook подкреплял ложные стереотипы своей рекламой, ориентированной на этническую принадлежность[151].

У Ани Ламбрехт есть ответ. Она решает проблему причинности, вводя модель – создавая историю, например, Эммы и Джулии с их способом совершения покупок. Мы можем оценить успех рекламной кампании, если рассмотрим точку зрения потребителей, а не просто взглянем на собранные данные. Ламбрехт разделяет проблему на модель и данные (хотя и не использует таких терминов) – именно эту стратегию мы применяли в данной книге. Сами по себе данные говорят очень мало, но при их объединении с моделью можно получить многое.

Такой базовый подход к определению причинности известен как A/B-тестирование. Я уже описывал этот метод в главе 1, а сейчас мы можем применить его на практике. Компания должна попробовать на своих клиентах две разные рекламы: А) оригинальную, эффективность которой нужно проверить, и В) контрольную, например благотворительной организации, где не будет никаких отсылок к компании игрушек. Если компания продает столько же товаров пользователям, которые смотрят благотворительную рекламу, сколько тем, кто видел оригинал, то она будет знать, что ее реклама не оказывает никакого эффекта.

Перейти на страницу:

Все книги серии МИФ. Научпоп

Как рождаются эмоции. Революция в понимании мозга и управлении эмоциями
Как рождаются эмоции. Революция в понимании мозга и управлении эмоциями

Как вы думаете, эмоции даны нам от рождения и они не что иное, как реакция на внешний раздражитель? Лиза Барретт, опираясь на современные нейробиологические исследования, открытия социальной психологии, философии и результаты сотен экспериментов, выяснила, что эмоции не запускаются – их создает сам человек. Они не универсальны, как принято думать, а различны для разных культур. Они рождаются как комбинация физических свойств тела, гибкого мозга, среды, в которой находится человек, а также его культуры и воспитания.Эта книга совершает революцию в понимании эмоций, разума и мозга. Вас ждет захватывающее путешествие по удивительным маршрутам, с помощью которых мозг создает вашу эмоциональную жизнь. Вы научитесь по-новому смотреть на эмоции, свои взаимоотношения с людьми и в конечном счете на самих себя.На русском языке публикуется впервые.

Лиза Фельдман Барретт

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература

Похожие книги