Очень по-человечески: ученые выявили неожиданную деталь в поведении ChatGPT

Ученые из Оксфордского университета и Института искусственного интеллекта Аллена (Ai2) выяснили, что большие языковые модели (LLM), лежащие в основе чат-ботов, таких как ChatGPT, распознают незнакомые слова способом, очень похожим на человеческий.
Детали нового исследования раскрыл портал Tech Xplore.
Ранее считалось, что LLM учатся генерировать язык, в первую очередь на основе правил из своих обучающих данных. Однако ученые заметили, что вместо этого модели в значительной степени полагаются на сохраненные примеры и проводят аналогии при работе с незнакомыми словами, как это делают люди.
Команда исследователей сгенерировала 200 выдуманных английских прилагательных, с которыми LLM никогда раньше не сталкивался — такие слова, как "cormasive" и "friquish". Затем они попросили GPT-J (большую языковую модель с открытым исходным кодом) превратить каждое из них в существительное, выбирая между -ness и -ity (например, выбирая между "cormasivity" и "cormasiveness"). Ответы LLM сравнивались с выбором, сделанным людьми.
"Мышление" ИИ: что выявили ученые
Результаты показали, что рассуждения LLM напоминают человеческие. Вместо того чтобы использовать правила, ИИ искал сходства с реальными словами, усвоенными во время обучения. Примерно так же, как люди делают, когда думают о новых словах. К примеру, "friquish" превращается в "friquishness" на основе его сходства со словами вроде "selfish", тогда как на результат для "cormasive" влияют такие пары слов, как "sensitiv", "sensitivity".
ВажноКак отмечают в издании, ИИ вел себя так, как будто он сформировал след памяти из каждого отдельного примера каждого слова, с которым он столкнулся во время обучения. По-видимому, он справлялся со всем новым, спрашивая себя: "Что это мне напоминает?".
При этом ученые выявили некоторые различия в том, как люди и ИИ формируют аналогии по примерам. Люди формируют воображаемый словарь всех словоформ, которые они считают значимыми словами в своем языке, независимо от того, как часто они встречаются. Чтобы распознать недавно появившиеся слова, они делают аналогичные обобщения на основе известных слов в своих словарях.
В свою очередь LLM, напротив, обобщают напрямую все конкретные примеры слов в обучающем наборе, не объединяя примеры одного и того же слова в одну словарную строку.
"Хотя LLM могут генерировать язык весьма впечатляющим образом, оказывается, что они не мыслят так абстрактно, как люди. Это, вероятно, способствует тому, что для их обучения требуется гораздо больше языковых данных, чем нужно людям для изучения языка", — заключила профессор языкового моделирования Оксфордского университета и старший автор исследования Джанет Пьеррехумберт.
Напомним, компания OpenAI заявила, что обновление GPT‑4o в ChatGPT вызывало опасения по поводу безопасности, поэтому оно больше не доступно для использования.
Также сообщалось, что вежливость пользователей ChatGPT обходится компании OpenAI в десятки миллионов долларов, так как чат-бот с ИИ потребляет лишнюю электроэнергию.