Почему LLM тупик на пути к человеческому интеллект
Сначала я хотел опубликовать этот текст, как автокомментарий к статье "Понимание воспринимаемого по А.Я. Каплану", как аргумент в пользу верности того, о чем он говорил (о необходимости в мозге модели мира для понимания воспринимаемого), но решил акцентировать тему отдельно.
LLM – тупик на пути к человеческому интеллекту, потому что у них нет модели мира. Я попросил ИИ пояснить этот тезис, вот выжимка из его ответа.
Давос-2026 это не дебют аргумента, а его кульминация.
«Суть аргумента: отсутствие модели мира
Главный архитектор этой критики — Ян ЛеКун, Turing Award laureate и главный учёный Meta, который в ноябре 2025 года объявил о своем уходе из Meta спустя 12 лет, чтобы запустить стартап AMI Labs (Advanced Machine Intelligence). ЛеКун более десяти лет аргументирует, что LLM представляют собой "тупик" на пути к человеческому интеллекту именно потому, что они лишены фундаментального компонента — внутренней модели того, как устроен физический мир.
ЛеКун определяет "модель мира" как внутреннее представление о том, как ведёт себя физическая реальность. В отличие от человека, который может представить последовательность действий и предсказать их последствия на основе интуитивного понимания физики, LLM учатся лишь на статистических паттернах в текстах.
...К концу 2025 года между ведущими исследователями развивается новый консенсус: LLM будут полезны как компоненты больших систем, но они не могут быть основой для систем, способных к подлинному научному творчеству".
Для выработки модели мира нужны не вероятности появление нового слова в заданной последовательности, т.е. ИИ нужно учить не на текстах, а на физреальности…
Свидетельство о публикации №226012102067