Когда было объявлено о создании OpenAI, Альтман в отношении идеи моделирования человеческого разума был не так застенчив, как Суцкевер. «По мере того, как время идет и мы приближаемся к созданию того, что может превзойти человеческий разум629, возникают вопросы о том, в какой мере компания Google будет готова поделиться своими достижениями», – сказал он. Когда его спросили, сможет ли OpenAI создать такую же технологию, он сказал, что рассчитывает на это630, и добавил, что OpenAI непременно поделится с обществом плодами своих трудов. «Это будет выложено в общий доступ631, и пользоваться этим смогут все, а не только, скажем, Google». Искусственный интеллект был самой масштабной идеей, какой когда-либо приходилось заниматься Альтману, но он смотрел на нее примерно так же, как и на все остальное, чем когда-либо занимался.
В апреле 2018 года Альман и его коллеги опубликовали новый устав лаборатории632, где миссия OpenAI излагалась совсем не так, как это звучало при ее создании. Выступая на открытии лаборатории, Альтман утверждал, что она будет открыто делиться результатами своих исследований. Потому-то ее и назвали OpenAI. Но ввиду той суматохи, которая была вызвана развитием генеративных моделей и технологии распознавания лиц, а также ввиду угроз, связанных с возможным созданием автономного летального оружия и нарушающих права граждан систем слежения, в новом уставе лаборатории теперь говорилось, что по мере необходимости она будет ограничивать обнародование некоторых технологий, пока не станет понятна степень их влияния на мир в целом. Такова была реальность, которую теперь осознавали многие организации. «Если вы с самого начала настраиваетесь на то, что это будет открытая платформа, которую каждый может использовать как угодно, последствия могут быть значительными, – говорит Мустафа Сулейман. – Прежде чем создавать какие-то технологии, нужно как следует подумать о том, в какой мере эта технология может быть использована не по назначению и как обеспечить надлежащий надзор». Ирония заключалась в том, что OpenAI довела эту осторожность до крайности. В последующие месяцы это стало для лаборатории новым способом продвижения на рынок. После создания новой системы анализа и синтеза речи, аналогичной Google’овской BERT, OpenAI через прессу объявила, что эту технологию слишком опасно выпускать в свет, поскольку она позволит злоумышленникам автоматически генерировать фейки и другую вводящую в заблуждение информацию. Многие специалисты подняли это утверждение на смех, заявив, что опасность технологии сильно преувеличена. И в конце концов ее все-таки обнародовали.
В то же время в новом уставе OpenAI прямо и четко говорилось, что лаборатория занимается созданием AGI. Альтман и Суцкевер видели ограничения и опасности современных технологий, но их целью было создание машины, которая могла бы делать все то, что может делать человеческий мозг. «Миссия OpenAI состоит в том, чтобы гарантировать633, что искусственный интеллект общего назначения (AGI) – под которым мы подразумеваем системы с высокой степенью автономии, способные выполнять экономически значимую работу эффективнее человека, – принесет пользу всему человечеству. Мы попытаемся сами создать полезные и безопасные формы AGI, но будем считать нашу миссию выполненной также и в том случае, если наши усилия помогут достичь этого результата другим разработчикам», – говорится в уставе. И Альтман, и Суцкевер заявляли, что они будут развивать AGI примерно так же, как DeepMind создавал системы, научившиеся играть в го и другие игры. Они утверждали, что для этого нужно лишь иметь достаточное количество исходных данных, нарастить вычислительные мощности и усовершенствовать алгоритмы анализа данных. Они знали о скептическом отношении многих специалистов и понимали, что эта технология может быть опасной. Но это их не беспокоило. «Моя цель – создать AGI, имеющий широкий спектр полезных функций, – говорит Альтман. – И я прекрасно понимаю, как смешно это звучит».