
Смогут ли большие языковые модели (LLM) понимать язык подобно людям, и как их работа соотносится с процессами в человеческом мозге?
Элли Павлик, доцент кафедры компьютерных наук и лингвистики в Университете Брауна и научный сотрудник Google DeepMind (лаборатории ИИ), исследует этот вопрос, сравнивая LLM с биологическим интеллектом.
LLM vs. Мозг: ключевые различия в обработке языка
Человеческий мозг работает как сложная нейронная сеть, где язык — лишь часть общей когнитивной системы, связанной с восприятием, памятью и эмоциями.
LLM же обучаются на предсказании следующего слова, не имея доступа к реальному миру или телесному опыту. Они опираются на статистические закономерности, а не на настоящее семантическое понимание.
Хотя LLM могут имитировать понимание благодаря огромным объёмам данных, они не осознают смысл по-настоящему, что делает их одновременно полезными и потенциально обманчивыми. Многие из нас беседовали с Алисой и могли подумать, что она понимает нас, но это не так.
Чуть проще на примерах.
Человек вряд ли может осознанно контролировать работу печени или дыхание (со вторым проще, но можно и задохнуться ненароком). В этих случаях мозг работает на автопилоте. Аналогично, LLM выполняют вычисления, но не осознают их.
Но при этом человек может осознанно вмешаться в автоматические процессы, например, задержать дыхание, чтобы нырнуть под воду. А ИИ не может — у него нет «ручного управления», он не способен ставить или менять цели, только слепо следовать заранее заданным алгоритмам без какого-либо осознанного намерения.
Почему и мозг, и LLM — «черные ящики»?
Мозг остается загадкой: мы не можем полностью объяснить, как нейроны рождают мысли, творчество или сознание. Люди не имеют прямого доступа к своим нейронным процессам — только к их результатам, например, речи.
LLM тоже непрозрачны: даже их создатели не всегда могут проследить, как именно модель пришла к тому или иному выводу.
Павлик (Элли Павлик, которая доцент, а не Пашка, как вы подумали) сравнивает это с выпечкой торта — мы знаем рецепт, но не всегда понимаем (если в рецепте не сказано, но не понимаем совсем) химические реакции, которые происходят в процессе выпечки.
Может ли ИИ «думать» как человек?
Павлик избегает однозначных утверждений, но подчёркивает, что человеческое мышление — это не только вычисления. Оно включает субъективный опыт, ассоциации и взаимодействие с миром.
Даже если ИИ достигает человеческого уровня в некоторых задачах, например, в генерации текста, это не означает, что он «осознаёт» свою деятельность. Сознание, возможно, требует не только цифровых вычислений, но и аналоговых процессов мозга, таких как работа нейромедиаторов.
Нейронаука и будущее ИИ
Исследования LLM могут помочь лучше понять человеческий язык и мозг. Например, изучая, как модели представляют значения слов, ученые проверяют гипотезы о работе памяти и ассоциаций у людей.
Однако, в отличие от мозга, LLM не обладают пластичностью — они не адаптируются спонтанно, как нейронные сети в живом организме.
Вывод
Сравнение LLM и мозга показывает, что, несмотря на прогресс ИИ, человеческое мышление остается уникальным благодаря биологическим механизмам, сознанию и связи с физическим миром. Изучение ИИ, тем не менее, помогает ставить новые вопросы о природе разума.
Не поймешь, ты, «дурилка картонная», человеческий язык. Люди-то не справляются, а у тебя только алгоритмы, все тонкости прописывать залюбишься.
LLM, хоть и не способны ставить или менять цели, порой оказываются более интересными собеседниками, чем кожаные.
Источники: quantamagazine.org, cs.brown.edu