Компания получила название Clarifai. Она разместилась в Нью-Йорке, в небольшом офисе на Третьей улице, недалеко от лаборатории глубокого обучения Нью-Йоркского университета, и занималась созданием технологии, способной автоматически распознавать объекты на цифровых фотографиях – например, просматривать снимки обуви, платьев и сумочек на сайте интернет-магазина в поисках нужного товара или идентифицировать лица в потоковой видеозаписи, передаваемой с камер наблюдения. Идея состояла в том, чтобы скопировать системы распознавания изображений, на создание которых Google и Microsoft потратили годы труда в своих лабораториях искусственного интеллекта, а затем продавать их другим компаниям и государственным учреждениям, включая полицию.
В один из дней 2017 года, спустя четыре года после основания компании, Дебора Раджи сидела за своим столом в офисе Clarifai в нижнем Манхэттене. Флуоресцентные лампы ярко освещали ее, ее стол, холодильник с пивом в углу и всех остальных сотрудников, которые – молодые, двадцати с чем-то лет, – сидели в наушниках, не отрывая глаз от огромных компьютерных мониторов. Раджи тоже смотрела в экран, заполненный лицами – фотографиями, которые компания использовала для обучения своей системы распознавания лиц. Прокручивая эти лица, страница за страницей, она не могла не заметить проблему. Раджи была чернокожей двадцатиоднолетней жительницей Оттавы. На большинстве фотографий – более 80 процентов – были изображены белые лица. А еще не могло не броситься в глаза то, что на более 70 процентов из них были мужчины. Когда система пройдет обучение на этих исходных данных, она наверняка сможет хорошо распознавать белых мужчин, думалось Раджи, но в распознавании небелых, а также, вероятно, женщин, систему ждет жестокое фиаско.
И это была отнюдь не единичная проблема. Мэтт Зилер и возглавляемая им компания Clarifai также создавали так называемую «систему модерирования контента», инструмент, который позволял автоматически идентифицировать и удалять порнографию из моря изображений, размещаемых людьми в социальных сетях. Компания обучала эту систему, используя два набора данных: тысячи «непристойных» фотографий, взятых с порносайтов, и тысячи «безобидных» фотографий, приобретенных в сервисах стоковых изображений. Идея заключалась в том, чтобы система научилась отличать порнографический контент от безобидного. Проблема заключалась в том, что на приличных фотографиях преобладали белые люди, а на порнографических – чернокожие. Как вскоре поняла Раджи, система приучалась ассоциировать чернокожих людей с порнографией. «Данные, которые мы используем для обучения этих систем,
Корни этой проблемы уходили в далекие годы и уж по меньшей мере к тому моменту, когда кто-то начал выбирать фотографии для стоковых сервисов, на которых компания Clarifai затем обучала свои нейронные сети. По сути, это была вездесущая проблема социальной стереотипизации. И теперь опасность состояла в том, что разработчики ИИ, использующие такие предвзятые данные, лишь усугубят проблему при обучении автоматизированных систем. Для Раджи это было совершенно очевидно. Но остальные сотрудники компании ее опасений не разделяли. Ведь люди, выбиравшие исходные данные для обучения нейросетей, – сам Мэтт Зилер и те инженеры, которых он пригласил в Clarifai, – были по преимуществу белыми мужчинами. И поскольку они были белыми мужчинами, они не понимали, что выбираемым ими исходным данным недоставало объективности. История с тегом «гориллы» должен была прозвучать тревожным сигналом для всей отрасли. Но этого не случилось.
Привлечь внимание общественности к этой фундаментальной проблеме удалось другой чернокожей женщине. Тимнит Гебру, которая изучала искусственный интеллект в Стэнфордском университете под руководством Фэй-Фэй Ли, происходила из эритрейской семьи, эмигрировавшей в США. Когда она во время очередной конференции NIPS вошла в главный зал перед началом первого доклада и окинула взглядом сотни людей, собравшихся в аудитории, ее поразил тот факт, что подавляющее большинство присутствующих составляли белые мужчины, хотя и было некоторое количество выходцев из Восточной Азии и Индии, а также несколько женщин. В тот году на конференцию приехало более пяти с половиной тысяч человек, но среди них Гебру насчитала только шестерых чернокожих, и все они были мужчинами. И это была не чисто американская или канадская конференция. Это была международная встреча в Барселоне. Проблема, на которую Дебора Раджи обратила внимание в Clarifai, распространялась на всю технологическую индустрию и все научные круги.
Вернувшись в Пало-Альто, Гебру рассказала мужу о том, что видела, и решила, что это больше не должно оставаться без внимания. В тот же вечер, сев с ноутбуком на диван, она изложила эту проблему на своей странице в Facebook: