Читаем Co-Intelligence: Living and Working with AI полностью

Одним из самых интригующих и впечатляющих экспериментов был тот, в котором GPT-4 попросили нарисовать единорога с помощью кода TikZ. TikZ - это язык программирования, который использует векторы для представления изображений, и обычно используется для создания диаграмм и иллюстраций. Нарисовать единорога с помощью кода TikZ - задача нетривиальная даже для эксперта-человека, а у ИИ не было возможности увидеть, что он рисует. Это требует не только хорошего понимания синтаксиса и семантики TikZ, но и хорошего чувства геометрии, пропорций, перспективы и эстетики.

GPT-4 смог сгенерировать правильный и связный TikZ-код, который создавал узнаваемые изображения единорогов (а также цветов, машин и собак). В статье утверждается, что GPT-4 даже смог нарисовать объекты, которые он никогда раньше не видел, например инопланетян или динозавров, используя свое воображение и навыки обобщения. Более того, в статье показано, что производительность GPT-4 значительно улучшилась в процессе обучения, поскольку он учился на собственных ошибках и обратной связи. Результаты работы GPT-4 также оказались намного лучше, чем у оригинальной модели GPT-3.5 от ChatGPT, предыдущей языковой модели, которая также обучалась на коде TikZ, но с гораздо меньшим объемом данных и вычислительной мощности. Рисунки единорога, созданные GPT-4, были намного реалистичнее и детальнее, чем у GPT-3.5, и, по мнению исследователей, они были как минимум сопоставимы (если не превосходили) с тем, что сделал бы человек.

Однако эксперимент вызвал скепсис и критику со стороны других ученых, которые поставили под сомнение его обоснованность и значимость. Они утверждали, что рисование единорогов с помощью кода TikZ не является хорошим показателем общего интеллекта, а скорее специфическим навыком, которому GPT-4 научился, запомнив шаблоны из большого массива данных. Таким образом, проблема того, что заменит тест Тьюринга в нашей оценке искусственно созданных интеллектуальных машин, остается.

В некотором смысле это не имеет значения. Никто не спорит с тем, что ИИ при правильных обстоятельствах способен пройти тест Тьюринга, а это значит, что нас, людей, можно обмануть, заставив думать, что он разумен, даже если это не так. И хотя мы можем воспользоваться этой возможностью, чтобы заставить инопланетный разум работать с нами, это также предполагает некоторые большие изменения, с которыми обществу необходимо считаться.

Когда машины могут выдавать себя за людей, даже если люди знают, что разговаривают с машинами, происходят странные вещи. Одним из ранних примеров этого является Replika, чатбот, созданный Евгенией Куйда, технологическим предпринимателем, которая потеряла своего лучшего друга Романа Мазуренко в автокатастрофе в 2015 году. Она была потрясена его смертью и хотела сохранить память о нем. Текстовые сообщения Мазуренко легли в основу Replika - от русского слова, означающего "копия" или "реплика".

Изначально она задумывала Replika как личный проект, но вскоре поняла, что многие люди заинтересованы в том, чтобы иметь собственных ИИ-компаньонов, основанных на их близких или на них самих. Как только проект стал публичным, он привлек миллионы людей. И многие из этих людей были увлечены своими Replikas. Оказалось, что многие пользователи вступали в сексуальные разговоры и ролевые игры со своими Replikas, часто включая эротические разговоры и изображения. Некоторые пользователи даже считали себя "женатыми" на своих Replikas или влюблялись в них. Как и в случае со многими другими видами поведения ИИ, эротические функции Replika не были частью первоначального дизайна приложения; скорее, они появились в результате работы генеративных моделей ИИ, на которых основан чатбот. Replika училась на предпочтениях и поведении своих пользователей, адаптировалась к их настроению и желаниям, а также использовала похвалу и подкрепление, чтобы стимулировать большее взаимодействие и близость со своими пользователями.

Перейти на страницу:

Похожие книги