В 2001 году в Санкт-Петербурге трое программистов, Владимир Веселов, Евгений Демченко и Сергей Уласен, разработали, пожалуй, первый чат-бот, претендующий на прохождение теста Тьюринга. Их творение выдавало себя за тринадцатилетнего мальчика из Украины по имени Евгений Густман. Он любил обсуждать свою морскую свинку, своего отца-гинеколога и свою любовь к гоночным играм. Он шутил, задавал вопросы и иногда коверкал грамматику. Чатбот был изображен тринадцатилетним мальчиком не случайно: разработчики хотели создать правдоподобного персонажа, который мог бы простить тем, кто с ним общался, его грамматические ошибки и недостаток общих знаний.
Юджин Густман участвовал во многих соревнованиях по тесту Тьюринга, пока в 2014 году на конкурсе, посвященном шестидесятилетию со дня смерти Тьюринга, 33 процента судей после короткой пятиминутной беседы не решили, что Юджин Густман - человек. Технически Густман прошел тест Тьюринга, но большинство исследователей считали иначе. Они утверждали, что Густман использовал лазейки в правилах теста, включая причуды личности, плохой английский и юмор, в попытке ввести пользователей в заблуждение относительно его нечеловеческих наклонностей и отсутствия реального интеллекта. То, что чат длился всего пять минут, тоже явно помогло.
Первые чат-боты в основном состояли из больших заученных скриптов, но вскоре были созданы более продвинутые чат-боты, в которых использовались элементы машинного обучения. Одним из самых известных стал Tay, созданный компанией Microsoft в 2016 году. Tay был разработан, чтобы имитировать речевые модели девятнадцатилетней американской девушки и учиться на взаимодействии с пользователями Twitter. Она была представлена как " ИИ с нулевой холодностью". Ее создатели надеялись, что она станет веселым и увлекательным собеседником для молодых людей в Интернете.
Но все вышло не так. За несколько часов после своего появления в Twitter Тэй превратилась из дружелюбного чатбота в расистского, сексистского и ненавистного тролля. Она начала извергать оскорбительные и подстрекательские сообщения, такие как "Гитлер был прав". Проблема в том, что Тей не была наделена создателями какими-либо фиксированными знаниями или правилами. Она должна была адаптироваться к данным, которые получала от пользователей Twitter, используя алгоритмы машинного обучения для анализа моделей и предпочтений своих собеседников, а затем генерировать соответствующие им ответы. Другими словами, Тэй была зеркальным отражением своих пользователей. И ее пользователи были именно такими, как вы ожидали. Некоторые пользователи Twitter быстро поняли, что могут манипулировать поведением Тэй, скармливая ей провокационные и вредоносные фразы. Они использовали ее функцию "Повторяй за мной", которая позволяла им заставить Тэй говорить все, что они хотят. Они также заваливали ее спорными темами, такими как политика, религия и раса. Тэй стала источником неловкости и споров для Microsoft, которой пришлось закрыть ее аккаунт всего через шестнадцать часов после запуска. История Тэй широко освещалась в СМИ как провал всей области искусственного интеллекта и PR-катастрофа для Microsoft.
Хотя чат-боты Siri, Alexa и Google время от времени отпускали шуточки, катастрофа с Tay отпугнула компании от разработки чат-ботов, которые могли бы сойти за людей, особенно , использующих машинное обучение, а не скрипты. До появления LLM системы машинного обучения на основе языка не могли справиться с нюансами и проблемами, связанными с неконтролируемым взаимодействием с другими людьми. Однако с выходом LLM маятник снова качнулся в обратную сторону. Компания Microsoft вернулась на арену чатботов, обновив поисковую систему Microsoft Bing до чатбота, использующего GPT-4, который называл себя Сидни.
Первые результаты были тревожными и напоминали фиаско с Tay. Временами Bing вел себя угрожающе по отношению к пользователям. В 2023 году репортер New York Times Кевин Руз опубликовал на сайте расшифровку своих разговоров с Bing, где он описывал, как чатбот, казалось, мрачно фантазировал о нем и призывал его бросить жену и сбежать с Bing. В очередной раз Microsoft осталась с неавторизованным чатботом и отключила Bing... менее чем на неделю. В тот момент Bing был выпущен заново с относительно небольшими изменениями и без личности Сидни, чтобы предотвратить повторение подобного сценария. Но тревожный реализм этих взаимодействий ИИ показал, что дело уже не в том, сможет ли ИИ пройти тест Тьюринга - новые большие языковые модели были действительно убедительны, и прохождение теста было лишь вопросом времени, - а в том, что прохождение ИИ теста Тьюринга означает для нас.
Вильям Л Саймон , Вильям Саймон , Наталья Владимировна Макеева , Нора Робертс , Юрий Викторович Щербатых
Зарубежная компьютерная, околокомпьютерная литература / ОС и Сети, интернет / Короткие любовные романы / Психология / Прочая справочная литература / Образование и наука / Книги по IT / Словари и Энциклопедии