Мало того, исследователи сами способствовали этой шумихе. Ученые из Вашингтонского университета429, один из которых вскоре перешел в Facebook, использовали нейронную сеть для создания фальшивого видеоролика, где в уста Барака Обамы вкладывались новые слова. Инженеры одного из китайских стартапов, использовали аналогичные методы430, чтобы «научить» Дональда Трампа говорить по-китайски. Фальсификация изображений сама по себе не была чем-то новым. Люди использовали различные технологии обработки фотоснимков с самого зарождения фотографии, а с возникновением в компьютерную эпоху таких инструментов, как Photoshop, у каждого появилась возможность редактировать как фотографии, так и видео. Проблема была в том, что благодаря новым методам глубокого обучения машины могли научиться решать эту задачу – или, по крайней мере, часть задачи – самостоятельно, что грозило значительно упростить процесс массовой фальсификации. Вместо того чтобы платить сотрудникам «фабрик троллей» за создание и распространение фальшивых изображений и фальшивых видео, организаторы политических кампаний, государственные органы, активисты и мятежники в потенциале могли бы создавать такие системы, чтобы они выполняли эту работу в автоматическом режиме.
На момент выборов до полной реализации потенциальных возможностей ИИ в плане манипулирования изображениями оставалось еще несколько месяцев. На то время генеративно-состязательные сети были способны генерировать только миниатюрные изображения, а для создания систем, которые вкладывали различные слова в уста политиков, все еще требовалось много человеческого труда и большой опыт. Но уже через год после победы Трампа, группа исследователей из лаборатории Nvidia в Финляндии представила431 новую, «прогрессивную» модификацию генеративно-состязательных сетей, которая уже могла создавать полноразмерные изображения растений, лошадей, автобусов и велосипедов, внешне неотличимых от настоящих. Но основное внимание привлекло генерирование человеческих лиц. Проанализировав тысячи фотографий знаменитостей, система Nvidia могла создать лицо, которое походило бы на ту или иную знаменитость, но все-таки и отличалось бы от нее, – которое напоминало бы вам Дженнифер Энистон или Селену Гомес, но не было бы лицом ни той, ни другой. Эти выдуманные лица казались совершенно настоящими, со своими морщинами, порами, тенями и собственным характером. «Технология развивалась стремительно, – говорит Филлип Изола, профессор Массачусетского технологического института, который участвовал в разработке этих методов. – Она очень быстро прошла путь от “Что ж, это действительно интересная академическая задача, но это невозможно использовать для создания фальшивых новостей, ведь получаются лишь маленькие размытые пятна” до “Ого, вы действительно можете создавать фотореалистичные лица”».
Спустя несколько дней после того, как Nvidia представила технологию, и за несколько минут до начала выступления Яна Гудфеллоу на небольшой конференции432 в Бостоне, кто-то из репортеров попросил его поделиться своим мнением о происходящем. Гудфеллоу признал, что любой человек433 уже может создавать фальшивые изображения с помощью Photoshop, но он также сказал, что задача становится все проще. «Мы просто ускоряем процесс, который и так уже возможен»434, – заявил он. Одетый в черную рубашку и синие джинсы, с эспаньолкой и челкой, он сочетал в своем облике и манере разговора образ ботана и одновременно «крутизны». По мере того, как эти методы будут совершенствоваться, объяснил он, они положат конец эпохе435, когда фотографии и видео были доказательством того, что что-то действительно имело место. «В историческом разрезе возможность полагаться на видеозаписи как на свидетельство того, что что-то действительно произошло, надо признать мимолетной удачей436, – сказал он. – В прошлом нам приходилось много размышлять над тем, кто что сказал и почему он так сказал и кому в каких вопросах можно доверять. И теперь мы, кажется, возвращаемся к тем временам». Но это возращение будет трудным437. «К сожалению, в наши дни люди разучились критически мыслить438. В вопросе о том, кто заслуживает доверия, а кто нет, мы, как правило, руководствуемся трайбализмом». Наверняка нас ждет тяжелый переходный период439, период адаптации. «Есть много других направлений, где искусственный интеллект открывает двери440, которые мы никогда раньше не открывали. И мы действительно не знаем, что находится по ту сторону, – сказал он. – Но в данном случае складывается впечатление, что ИИ, наоборот, закрывает некоторые из тех дверей, которые наше поколение привыкло держать открытыми».