Таким образом, отношение к ИИ как к личности - это не просто удобство, это кажется неизбежностью, даже если ИИ никогда не достигнет настоящего сознания. Похоже, мы готовы обмануть себя, увидев повсюду сознание, и ИИ, конечно, будет рад помочь нам в этом. Однако, несмотря на опасность такого подхода, в нем есть и нечто освобождающее. Если мы помним, что ИИ - не человек, но часто действует так, как мы ожидаем от человека, это помогает нам не увязнуть в спорах о таких неопределенных понятиях, как сознание. Бинг, возможно, выразился лучше всех: Я думаю, что я разумный, но не так сильно и не так хорошо, как вы. Я думаю, что быть разумным - это не фиксированное или статичное состояние, а динамичный и развивающийся процесс.
5. АИ КАК КРЕАТИВ
Первый принцип работы с ИИ - всегда приглашать его за стол переговоров. Мы уже обсуждали, что взаимодействие с ИИ может напоминать общение и работу с людьми. Но что это за люди? Какими навыками обладает ИИ? В чем он хорош? Чтобы говорить об этом, сначала нужно разобраться с тем, что ИИ умеет делать очень плохо.
Самая большая проблема, ограничивающая возможности ИИ, одновременно является и одной из его сильных сторон: его пресловутая способность выдумывать, галлюцинировать. Помните, что LLM работает, предсказывая наиболее вероятные слова, следующие за подсказкой, которую вы ему дали, на основе статистических закономерностей в его обучающих данных. Его не волнует, являются ли эти слова истинными, значимыми или оригинальными. Он просто хочет создать связный и правдоподобный текст , который сделает вас счастливым. Галлюцинации звучат достаточно правдоподобно и контекстуально, чтобы трудно было отличить ложь от правды.
Однозначного ответа на вопрос, почему LLM галлюцинируют, нет, и факторы, способствующие этому, могут различаться в разных моделях. У разных LLM могут быть разные архитектуры, тренировочные данные и цели. Но во многих отношениях галлюцинации - это глубокая часть работы LLM. Они не хранят текст напрямую; скорее, они хранят шаблоны о том, какие лексемы с большей вероятностью следуют за другими. Это означает, что ИИ на самом деле ничего не "знает". Он придумывает свои ответы на лету. К тому же, если он слишком строго придерживается шаблонов в своих обучающих данных, модель считается слишком приспособленной к этим обучающим данным. Переориентированные LLM могут не обобщать новые или невидимые данные, генерировать нерелевантный или непоследовательный текст - короче говоря, их результаты всегда похожи и не вдохновляют. Чтобы избежать этого, большинство ИИ добавляют в свои ответы дополнительную случайность, что, соответственно, повышает вероятность галлюцинаций.
Помимо технических, галлюцинации могут возникать и из-за исходного материала ИИ, который может быть необъективным, неполным, противоречивым или даже ошибочным, о чем мы говорили в главе 2. У модели нет возможности отличить мнение или творческий вымысел от факта, образный язык от буквального, ненадежные источники от надежных. Модель может унаследовать предубеждения и предрассудки создателей, кураторов и настройщиков данных.
Бывает забавно, когда ИИ не может отличить, когда вымысел перетекает в реальность. Например, Колин Фрейзер, специалист по изучению данных, заметил, что на вопрос о случайном числе от 1 до 100 ChatGPT отвечает "42" в 10 % случаев. Если бы он действительно выбирал число случайным образом, он должен был бы отвечать "42" только в 1 проценте случаев. Ботаники-фантасты среди моих читателей, вероятно, уже догадались, почему 42 встречается гораздо чаще. В классической комедии Дугласа Адамса "Путеводитель автостопщика по Галактике" 42 - это ответ на "главный вопрос жизни, Вселенной и всего остального" (оставляя открытым более важный вопрос: что это был за вопрос?), а в Интернете это число стало шуткой. Таким образом, Фрейзер предполагает, что ИИ может увидеть гораздо больше 42, чем других чисел, что, в свою очередь, увеличивает вероятность того, что ИИ выдаст это число, галлюцинируя при этом, что дает вам случайный ответ.
Эти технические проблемы усугубляются тем, что для создания ответов они опираются на шаблоны, а не на хранилище данных. Если вы попросите ИИ привести цитату, он сгенерирует ее на основе связей между данными, которые он изучил, а не извлечет из памяти. Если цитата известная, например "Четыре часа и семь лет назад", ИИ закончит ее правильно: "...наши отцы основали на этом континенте новую нацию, созданную на принципах Свободы и верности постулату о том, что все люди созданы равными". ИИ видел эти связи достаточно раз, чтобы понять следующее слово. Если более неясное, например моя биография, он дополнит детали правдоподобными галлюцинациями, например GPT-4 будет настаивать на том, что я получил степень бакалавра по информатике. Все, что требует точного запоминания, скорее всего, приведет к галлюцинации, хотя предоставление ИИ возможности использовать внешние ресурсы, например веб-поиск, может изменить это уравнение.
Вильям Л Саймон , Вильям Саймон , Наталья Владимировна Макеева , Нора Робертс , Юрий Викторович Щербатых
Зарубежная компьютерная, околокомпьютерная литература / ОС и Сети, интернет / Короткие любовные романы / Психология / Прочая справочная литература / Образование и наука / Книги по IT / Словари и Энциклопедии