Пригласив десятки лучших разработчиков в лабораторию искусственного интеллекта Facebook, занимавшую офисы в Нью-Йорке и Кремниевой долине, Шрепфер создал вторую организацию, которой должна была внедрять разрабатываемые лабораторией технологии на практике – «группу прикладного машинного обучения». Поначалу она привнесла в крупнейшую в мире социальную сеть такие новшества, как распознавание лиц, автоматический перевод и автоматическое создание подписей к изображениям. Но затем миссия группы начала меняться.
В конце 2015 года, когда исламские боевики убили сто тридцать человек и ранили почти пятьсот, проведя скоординированные теракты в Париже и его окрестностях, Марк Цукерберг отправил в группу запрос о том, что они могли бы сделать для борьбы с терроризмом в самой социальной сети. В течение следующих нескольких месяцев они проанализировали тысячи размещенных на страницах Facebook записей, связанных с такими организациями, как «Исламское государство» и «Аль-Каида» и нарушающих правила пользования сетью, и придумали систему, которая может самостоятельно, автоматически помечать террористическую пропаганду. Затем модераторы анализируют то, что система пометила и окончательно решают, следует ли его удалять. Именно на эту технологию указывал Цукерберг, когда говорил сенаторам, что искусственный интеллект Facebook может автоматически идентифицировать 99 процентов всей террористической пропаганды. Однако компания не обнародовала этот инструмент, когда он был развернут, потому что некоторые руководители, включая операционного директора Шерил Сандберг, опасались, что идея ИИ, отслеживающего террористическую угрозу, будет вызывать слишком много кривотолков на фоне дискуссии о разрушительном сверхразуме, поднятой Илоном Маском.
Другие специалисты, однако, весьма скептически относились к этим планам, понимая, насколько сложной и полной нюансов может быть такая технология. В ноябре 2016 года, когда Цукерберг все еще отрицал роль Facebook в распространении фейков, Дин Померло бросил перчатку. Через тридцать лет после создания при помощи нейронных сетей беспилотного автомобиля в Университете Карнеги – Меллона, он объявил Fake News Challenge540, как он его назвал в своем твите, поставив 1000 долларов541 на то, что никто не сможет создать автоматизированную систему, способную отличать реальность от фейка. «Я вызываю каждого и ставлю 20 против 1542 (до 200 долларов на одного претендента, всего 1000 долларов), что они не смогут разработать автоматизированный алгоритм, который отличит реальные утверждения от фейков в интернете», – написал он. Он понимал, что современным технологиям эта задача, требующая очень тонкого человеческого чутья и здравомыслия, не под силу. Если бы удалось создать технологию искусственного интеллекта, способную надежно идентифицировать фейки, это было бы настоящим прорывом, важной вехой в развитии ИИ. «Это означало бы, что ИИ сравнялся с человеческим интеллектом»543, – сказал он. Он также понимал, что само понятие фейка является относительным. Что реальность, а что фейк – это вопрос мнения. Если люди не могут договориться между собой о том, что является и что не является фейками, как они могут обучить машины распознавать их? Любые новости содержат в себе внутренний конфликт между объективным наблюдением и субъективным суждением. «Во многих случаях544, – утверждал Померло, – правильного ответа попросту нет». Поначалу его челлендж вызвал всплеск активности. Но из этого ничего не вышло.
На следующий день после того, как Померло объявил свой челлендж, компания Facebook, продолжавшая отрицать существование проблемы, провела круглый стол для прессы в своей корпоративной штаб-квартире в Менло-Парке545. Там был Ян Лекун546, и репортер спросил его, способен ли ИИ обнаруживать фальшивые новости547 и другой токсичный контент, который так стремительно распространяется по социальной сети, включая показы сцен насилия в прямом эфире. В частности, двумя месяцами ранее мужчина повесился в Бангкоке, и это все в режиме реального времени снималось и транслировалось через Facebook. Лекун сослался на этическую дилемму. «Где грань между фильтрацией и цензурой?548 Между свободой самовыражения и благопристойностью? – сказал он. – Технические возможности сами по себе либо уже существуют, либо могут быть созданы. Вопрос в другом: как правильно эти возможности использовать? А это уже не по моей части».
Внешнее давление на компанию продолжало нарастать, и Шрепфер начал перемещать больше ресурсов в группу прикладного машинного обучения в надежде на то, что она сумеет-таки очистить социальную сеть от токсичной активности, будь то порнография или фейковые аккаунты. К середине 2017 года обнаружение нежелательного контента занимало больше времени и внимания членов команды, чем любая другая задача. Шрепфер назвал эту задачу «безусловно главным приоритетом». В то же самое время компания продолжала расширять число внештатных подрядчиков, которые просматривали контент «вручную». Искусственный интеллект сам не справлялся.