Сможет ли ИИ понимать язык так же, как человек?Смогут ли большие языковые модели…


Сможет ли ИИ понимать язык так же, как человек?

Смогут ли большие языковые модели (LLM) понимать язык подобно людям, и как их работа соотносится с процессами в человеческом мозге?

Элли Павлик, доцент кафедры компьютерных наук и лингвистики в Университете Брауна и научный сотрудник Google DeepMind (лаборатории ИИ), исследует этот вопрос, сравнивая LLM с биологическим интеллектом.

LLM vs. Мозг: ключевые различия в обработке языка

Человеческий мозг работает как сложная нейронная сеть, где язык — лишь часть общей когнитивной системы, связанной с восприятием, памятью и эмоциями.

LLM же обучаются на предсказании следующего слова, не имея доступа к реальному миру или телесному опыту. Они опираются на статистические закономерности, а не на настоящее семантическое понимание.

Хотя LLM могут имитировать понимание благодаря огромным объёмам данных, они не осознают смысл по-настоящему, что делает их одновременно полезными и потенциально обманчивыми. Многие из нас беседовали с Алисой и могли подумать, что она понимает нас, но это не так.

Чуть проще на примерах.

Человек вряд ли может осознанно контролировать работу печени или дыхание (со вторым проще, но можно и задохнуться ненароком). В этих случаях мозг работает на автопилоте. Аналогично, LLM выполняют вычисления, но не осознают их.

Но при этом человек может осознанно вмешаться в автоматические процессы, например, задержать дыхание, чтобы нырнуть под воду. А ИИ не может — у него нет «ручного управления», он не способен ставить или менять цели, только слепо следовать заранее заданным алгоритмам без какого-либо осознанного намерения.

Почему и мозг, и LLM — «черные ящики»?

Мозг остается загадкой: мы не можем полностью объяснить, как нейроны рождают мысли, творчество или сознание. Люди не имеют прямого доступа к своим нейронным процессам — только к их результатам, например, речи.

LLM тоже непрозрачны: даже их создатели не всегда могут проследить, как именно модель пришла к тому или иному выводу.

Павлик (Элли Павлик, которая доцент, а не Пашка, как вы подумали) сравнивает это с выпечкой торта — мы знаем рецепт, но не всегда понимаем (если в рецепте не сказано, но не понимаем совсем) химические реакции, которые происходят в процессе выпечки.

Может ли ИИ «думать» как человек?

Павлик избегает однозначных утверждений, но подчёркивает, что человеческое мышление — это не только вычисления. Оно включает субъективный опыт, ассоциации и взаимодействие с миром.

Даже если ИИ достигает человеческого уровня в некоторых задачах, например, в генерации текста, это не означает, что он «осознаёт» свою деятельность. Сознание, возможно, требует не только цифровых вычислений, но и аналоговых процессов мозга, таких как работа нейромедиаторов.

Нейронаука и будущее ИИ

Исследования LLM могут помочь лучше понять человеческий язык и мозг. Например, изучая, как модели представляют значения слов, ученые проверяют гипотезы о работе памяти и ассоциаций у людей.

Однако, в отличие от мозга, LLM не обладают пластичностью — они не адаптируются спонтанно, как нейронные сети в живом организме.

Вывод

Сравнение LLM и мозга показывает, что, несмотря на прогресс ИИ, человеческое мышление остается уникальным благодаря биологическим механизмам, сознанию и связи с физическим миром. Изучение ИИ, тем не менее, помогает ставить новые вопросы о природе разума.

Не поймешь, ты, «дурилка картонная», человеческий язык. Люди-то не справляются, а у тебя только алгоритмы, все тонкости прописывать залюбишься.

LLM, хоть и не способны ставить или менять цели, порой оказываются более интересными собеседниками, чем кожаные.

Источники: quantamagazine.org, cs.brown.edu

👍 Капиталистический Ватник. Подписаться


View Source