Читаем The Worlds I See полностью

Точная форма этой эволюции, конечно, остается загадкой, но интригующие намеки уже появляются. Среди наиболее значимых событий последних лет - растущий спектр альтернатив человеческому узкому месту в обучении модели - растущие затраты, время и даже этические проблемы, связанные с организацией достаточного количества ручного труда для подготовки наборов данных в больших и больших объемах, которые требует прогресс. Однако прогресс в том, как модели обрабатывают эти данные, в том, что касается их размера, способности работать параллельно и способности самостоятельно выявлять полезные закономерности - их "внимания", как это называется в литературе, - делает возможным обучение на наборах данных настолько больших, что в некоторых случаях они составляют значительную часть самого интернета. В случае с текстом, например, это часто означает всю Википедию, библиотеки книг и академических периодических изданий и даже истории сообщений на онлайн-форумах вроде Reddit. В результате, когда анализируется каждое слово, пробел и знак препинания, получается статистическая модель человеческого языка, настолько обширная и в то же время плотная, что она способна экстраполировать даже короткую подсказку - зародыш идеи в виде одного предложения, будь то вопрос, утверждение или строка диалога - в огромные массивы потрясающе реалистичной прозы. Полученные модели, которые теперь принято называть "большими языковыми моделями", или LLM, демонстрируют настолько беглую лингвистическую компетенцию, настолько неуловимо человеческую, что легко забыть, что читаешь не слова автора из плоти и крови.

Теперь, после стольких лет прорывов в области компьютерного зрения, LLM вызывают ренессанс в обработке естественного языка и, вполне возможно, предвещают следующую великую эпоху ИИ. Под капотом новый тип модели машинного обучения, известный как "трансформатор", который, вероятно, является самым большим эволюционным скачком в дизайне нейронных сетей со времен AlexNet в 2012 году, делает LLM возможными, воплощая в себе все необходимые качества: гигантский масштаб, возможность ускорить время обучения за счет обработки данных большими параллельными массивами и невероятно сложный механизм внимания. По любым меркам это веха, если не точка перегиба; почти сразу после публикации трансформатор продемонстрировал возможности, настолько впечатляющие, что они шокировали даже экспертов, стоявших за его созданием, и с тех пор прогресс не замедлился.

Мое первое знакомство с текстом, созданным с помощью большой языковой модели, было сюрреалистическим опытом, и оно заставило вспомнить о нашей работе с Андреем. Я вспомнил, как захватывающе было видеть, как в те дни ИИ составлял одно полное предложение - даже неуклюже сформулированное - для описания того, что он видел. Всего несколько лет спустя алгоритмы стали настолько искусными словесниками, что могут отвечать на вопросы, сочинять истории и даже объяснять шутки. Более того, зарождающийся класс "мультимодальных" сетей, обученных не только на тексте, но и на фотографиях, аудио, записанном голосе и даже видео, учится генерировать и эти медиа. Это развитие, которое на практике часто кажется опережающим на поколение или два: всего за десять лет алгоритмы прошли путь от попыток распознать содержимое фотографий до сверхчеловеческого уровня, а теперь, что удивительно, самостоятельно создают совершенно новые изображения, ничуть не хуже фотографических, но полностью синтетические и с зачастую тревожным уровнем реализма и детализации. Похоже, что эра глубокого обучения уже уступает место новой революции - наступает эра генеративного ИИ.

Но в основе этой технологии, которая даже мне порой кажется абсолютным волшебством, лежит еще один урок силы данных в больших масштабах. И, конечно, "масштаб" - это главное слово. Для сравнения: AlexNet дебютировала с сетью, состоящей из шестидесяти миллионов параметров - этого достаточно, чтобы разумно воспринимать набор данных ImageNet, по крайней мере частично. В то время как трансформаторы, достаточно большие для обучения на мире текстов, фотографий, видео и многого другого, имеют сотни миллиардов параметров. Это, конечно, создает бесконечные инженерные проблемы, но удивительно элегантную науку. Как будто эти возможности ждали нас все это время, со времен считывателя ZIP-кодов ЛеКуна, неокогнитрона Фукусимы или даже перцептрона Розенблатта. Со времен ImageNet. Все это было где-то здесь. Нужно было только сделать простую идею достаточно большой.

Перейти на страницу:

Похожие книги

12 недель в году
12 недель в году

Многие из нас четко знают, чего хотят. Это отражается в наших планах – как личных, так и планах компаний. Проблема чаще всего заключается не в планировании, а в исполнении запланированного. Для уменьшения разрыва между тем, что мы хотели бы делать, и тем, что мы делаем, авторы предлагают свою концепцию «года, состоящего из 12 недель».Люди и компании мыслят в рамках календарного года. Новый год – важная психологическая отметка, от которой мы привыкли отталкиваться, ставя себе новые цели. Но 12 месяцев – не самый эффективный горизонт планирования: нам кажется, что впереди много времени, и в результате мы откладываем действия на потом. Сохранить мотивацию и действовать решительнее можно, мысля в рамках 12-недельного цикла планирования. Эта система проверена спортсменами мирового уровня и многими компаниями. Она поможет тем, кто хочет быть эффективным во всем, что делает.На русском языке публикуется впервые.

Брайан Моран , Майкл Леннингтон

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература
1991. Хроника войны в Персидском заливе
1991. Хроника войны в Персидском заливе

Книга американского военного историка Ричарда С. Лаури посвящена операции «Буря в пустыне», которую международная военная коалиция блестяще провела против войск Саддама Хусейна в январе – феврале 1991 г. Этот конфликт стал первой большой войной современности, а ее планирование и проведение по сей день является своего рода эталоном масштабных боевых действий эпохи профессиональных западных армий и новейших военных технологий. Опираясь на многочисленные источники, включая рассказы участников событий, автор подробно и вместе с тем живо описывает боевые действия сторон, причем особое внимание он уделяет наземной фазе войны – наступлению коалиционных войск, приведшему к изгнанию иракских оккупантов из Кувейта и поражению армии Саддама Хусейна.Работа Лаури будет интересна не только специалистам, профессионально изучающим историю «Первой войны в Заливе», но и всем любителям, интересующимся вооруженными конфликтами нашего времени.

Ричард С. Лаури

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / История / Прочая справочная литература / Военная документалистика / Прочая документальная литература
100 способов уложить ребенка спать
100 способов уложить ребенка спать

Благодаря этой книге французские мамы и папы блестяще справляются с проблемой, которая волнует родителей во всем мире, – как без труда уложить ребенка 0–4 лет спать. В книге содержатся 100 простых и действенных советов, как раз и навсегда забыть о вечерних капризах, нежелании засыпать, ночных побудках, неспокойном сне, детских кошмарах и многом другом. Всемирно известный психолог, одна из основоположников французской системы воспитания Анн Бакюс считает, что проблемы гораздо проще предотвратить, чем сражаться с ними потом. Достаточно лишь с младенчества прививать малышу нужные привычки и внимательно относиться к тому, как по мере роста меняется характер его сна.

Анн Бакюс

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Детская психология / Образование и наука