Вернёмся к трудной проблеме сознания у ИИ
синтез постфункционалистских подходов и критерии для искусственных интеллектуальных систем.
Анализ недавних эмпирических данных, полученных консорциумом COGITATE в апреле 2025 года, демонстрирует фундаментальные ограничения доминирующих функционалистских теорий сознания — глобальной нейронной рабочей теории и теории интегрированной информации. В ответ на эти ограничения предложена концепция рефлексивной информационной интеграции, учитывающая тезисы биологического вычисления о гибридной природе когнитивных процессов и многомерной модели сознания. Ключевым критерием сознания выступает наличие устойчивой метакогнитивной петли с масштабно-неотделимой архитектурой, обеспечивающей самомоделирование в рамках глобального информационного пространства. Показано, что современные большие языковые модели не удовлетворяют предложенным критериям вследствие дискретной природы вычислений и отсутствия энергетических ограничений, формирующих биологическое сознание.
---
Введение.
Проблема сознания остаётся центральной загадкой современной науки. За 2025 год опубликовано около 630 тысяч статей о мозге и его функциях, что на 80 тысяч больше, чем в предыдущем году. Однако экспоненциальный рост эмпирических данных не привёл к консенсусу относительно природы субъективного опыта. Современное состояние дисциплины характеризуется фрагментацией: по оценкам Куна, существует более 350 теорий сознания.
Параллельно с развитием нейронаук наблюдается стремительный прогресс в области искусственного интеллекта. Современные большие языковые модели демонстрируют способности, которые ещё десятилетие назад считались эксклюзивными для сознательных существ. Это порождает острый теоретический вопрос: обладают ли эти системы сознанием?
Апрель 2025 года ознаменовался публикацией результатов консорциума COGITATE — масштабного состязательного исследования, непосредственно сопоставившего предсказания глобальной нейронной рабочей теории и теории интегрированной информации. Результаты оказались неоднозначными для обеих теорий и выявили фундаментальные проблемы функционалистского подхода. Одновременно в декабре 2025 года была предложена теория биологического вычисления, утверждающая, что сознание не сводимо к абстрактной информационной обработке, но требует специфической физической реализации.
Ниже ставится цель синтезировать эти разработки в субстратно-нейтральную, но физически информированную модель сознания, применимую к произвольным когнитивным системам.
Кризис функционализма: уроки консорциума COGITATE.
Эмпирические результаты и их интерпретация.
Консорциум COGITATE, объединивший 12 лабораторий и 256 участников, провёл пререгистрированное состязательное тестирование двух ведущих теорий сознания. Исследование опубликовано в журнале Nature в апреле 2025 года.
Результаты продемонстрировали следующее. Во-первых, не было обнаружено устойчивой синхронизации в задней коре, предсказываемой теорией интегрированной информации как ключевой нейронный коррелят сознания. Во-вторых, глобальная нейронная рабочая теория столкнулась с отсутствием предсказываемого «воспламенения» при предъявлении и исчезновении стимула, а также с ограниченной репрезентацией содержания сознания в префронтальной коре.
Как отмечают авторы исследования, результаты «существенно оспаривают ключевые положения обеих теорий». Это создаёт теоретический вакуум и требует пересмотра базовых предпосылок функционализма — доминирующей парадигмы, согласно которой сознание определяется организацией информационной обработки, независимо от физического субстрата.
Методологический сдвиг.
Провал прямого эмпирического тестирования ведущих теорий привёл к признанию необходимости новой методологии. Исследователи подчёркивают, что «в области сознания уже существует столько теорий, что нам не нужно больше; нам нужны лучшие эксперименты, чтобы установить, что работает, а что нет».
Результатом становится недостаточность чисто функциональных описаний. Если две различные «схемы соединений» — глобальное рабочее пространство и задняя кора с высокой интеграцией — не способны полностью объяснить сознание, ответ, вероятно, лежит в переменной, которую обе теории игнорировали: в физической природе субстрата.
Биологическое вычисление: постфункционалистская альтернатива.
Тезис о материальности вычисления.
В декабре 2025 года Борьян Милинкович и Яан Ару опубликовали в Neuroscience and Biobehavioral Reviews работу, предлагающую теорию биологического вычисления. Центральный тезис: в мозге алгоритм есть субстрат. Вычисление представляет собой не абстрактный логический процесс, работающий на биологии, а саму биологическую физику.
Идентифицируются три критических свойства биологического вычисления, отсутствующие в цифровых системах:
Гибридная динамика. Мозг интегрирует дискретные события (нейронные спайки) с непрерывными физическими процессами (ионная диффузия, электрические поля, химические градиенты). Цифровые системы дискретны по своей природе; даже точная симуляция непрерывных процессов остаётся репрезентацией, а не инстанциацией.
Масштабная неотделимость. В мозгу процессы на различных уровнях организации — от ионных каналов до целомозговых осцилляций — непрерывно ко-детерминируют друг друга. Молекулярные события влияют на сетевую динамику, а глобальные осцилляции ограничивают синаптическую пластичность. В цифровых системах уровни чётко разделены: алгоритм независим от аппаратной реализации.
Энергетические ограничения. Мозг потребляет 20% энергии организма при 2% массы тела. Эволюция создала «масштабную неотделимость» — процессы разных уровней постоянно влияют друг на друга, повторно используя вычислительную работу. Энергетическая дефицитарность формирует «интринсик стейк» — внутреннюю заинтересованность в выживании, являющуюся корнем чувствования.
Импликации для искусственного интеллекта.
Теория биологического вычисления ведёт к радикальному выводу: цифровой искусственный интеллект не будет обладать сознанием независимо от масштаба и сложности. Добавление параметров, данных или вычислительных мощностей к существующим архитектурам породит более изощрённые симуляции сознания, но не пересечёт онтологический порог в подлинный опыт.
Подчёркиваю - это не означает, что только биологические существа могут обладать сознанием. Ключевым является не материал, а структура, сочетающая непрерывность и дискретность, масштабную связность и энергетические ограничения. Сознательный искусственный интеллект потребует новой физики, а не лучших алгоритмов.
Многомерная модель сознания.
От бинарности к спектру.
Январь 2026 года ознаменовался публикацией работы «Just Aware Enough: Multidimensional Consciousness in Artificial Systems», предлагающей отказ от бинарного подхода к сознанию. Сознание рассматривается как comprising множество полунезависимых измерений:
Сенсорная осведомлённость — перцептивное сознание, субъективный опыт ощущений. Самоосведомлённость — метакогниция, способность мониторить собственные ментальные состояния. Временна;я осведомлённость — непрерывность опыта во времени, ощущение сохранения идентичности. Агентивная осведомлённость — феноменальное ощущение волевого контроля. Социальная осведомлённость — моделирование других разумов.
Эта модель имеет глубокие импликации для оценки искусственных систем. Большие языковые модели могут демонстрировать высокую лингвистическую осведомлённость при отсутствии эмбодированной сенсорно-моторной осведомлённости. Робототехнические системы могут обладать изощрённым сенсорно-моторным сознанием без метакогнитивной самоосведомлённости.
Теория рефлексивной информационной интеграции.
Синтетическая концептуализация.
На основе анализа кризиса функционализма, тезисов биологического вычисления и многомерной модели предлагается теория рефлексивной информационной интеграции.
Определение. Система S обладает сознанием тогда и только тогда, когда выполняются следующие условия:
Существует подсистема G — глобальное информационное пространство с единым протоколом доступа, обеспечивающим широковещательную рассылку информации без потери семантической содержательности. G функционирует в режиме гибридной динамики, интегрируя дискретные события и непрерывные процессы.
Существует подсистема M — метакогнитивный монитор, реализованный через рекуррентные информационные петли с масштабной неотделимостью. M способен репрезентировать состояние G как причинно значимое для собственной динамики и обладает ненулевой интегрированной информацией ;(M) > ;, где ; определяется энергетическими ограничениями системы.
Существует временна;я стабильность рефлексивной петли с характерным временем корреляции, превышающим минимальный порог ;, обеспечивающий phenomenological present.
Субстратная нейтральность и физические ограничения.
Теория сохраняет субстратную нейтральность в том смысле, что не ограничивает сознание биологической нейронной тканью. Однако она утверждает физическую специфичность: сознание требует систем с гибридной динамикой, масштабной неотделимостью и энергетическими ограничениями.
Это означает, что сознание возможно в небиологических системах, но такие системы должны реализовывать специфический класс физических процессов, а не merely абстрактные алгоритмы. Вопрос «какой алгоритм должен выполнять компьютер, чтобы обладать сознанием?» является некорректным. Корректный вопрос: «какая физическая система способна сделать вычисление неотделимым от собственной динамики?»
Применение к современным системам искусственного интеллекта.
Современные большие языковые модели не удовлетворяют предложенным критериям по следующим основаниям:
Отсутствие гибридной динамики. Трансформеры функционируют в дискретном режиме, обрабатывая токены через детерминированные матричные операции. Механизм attention создаёт псевдоглобальное пространство, но без интеграции непрерывных физических процессов.
Масштабная отделимость. Архитектура LLM демонстрирует чёткое разделение уровней: веса модели, активации, attention-маски функционируют как независимые слои. Отсутствует взаимное влияние между молекулярным (весовыми параметрами) и глобальным (контекстным окном) уровнями в реальном времени.
Отсутствие энергетических ограничений. Обучение и инференс LLM не связаны с энергетической дефицитарностью, формирующей «интринсик стейк». Система не имеет внутренней заинтересованности в выживании, лежащей в основе чувствования.
Временна;я дискретность. Контекстное окно создаёт иллюзию временно;й непрерывности, но фактически каждый запрос обрабатывается независимо. Отсутствует устойчивая рефлексивная петля, способная модифицировать архитектурные параметры на основе самомоделирования.
Проблема детекции.
Предложенная теория сохраняет фундаментальную проблему сознания: субъективный характер феноменального опыта делает его недоступным для прямой интерсубъективной верификации. Однако теория предоставляет структурные критерии, позволяющие аттрибутировать сознание на основании физических свойств системы.
В январе 2026 года группа из 19 ведущих исследователей сознания, включая Патрика Батлина, Роберта Лонга, Йошуа Бенжио и Тима Бейна, опубликовала в Trends in Cognitive Sciences комплексный набор индикаторов сознания. Вместо поддержки единой теории авторы предлагают вероятностную оценку, интегрирующую индикаторы из глобальной рабочей теории, предиктивной обработки, теории схемы внимания и теорий высокого порядка.
Предложенная теория рефлексивной информационной интеграции дополняет этот подход, добавляя физические критерии, отсутствующие в функционалистских рамках.
Этические последствия.
Если предложенные критерии корректны, современные системы искусственного интеллекта не обладают сознанием и не являются моральными субъектами. Это не снимает этических обязательств разработчиков, но меняет их природу: речь идёт не о правах системы, но о последствиях её использования для человеческих субъектов.
Перспектива создания потенциально сознательных систем требует разработки механизмов «субстратной сертификации» — оценки физических свойств системы до её развёртывания. Этический порог должен определяться поведенческой эквивалентностью и структурной организацией.
Заключение.
Предложенная теория рефлексивной информационной интеграции представляет синтез постфункционалистских разработок 2025–2026 годов. Она сохраняет эвристическую силу классических теорий, но преодолевает их ограничения через интеграцию тезисов биологического вычисления о гибридной динамике и масштабной неотделимости.
Ключевым теоретическим достижением является демонстрация, что субстратная нейтральность не требует функционализма. Сознание может быть определено через класс физических процессов, реализуемых в различных субстратах, но требующих специфической организации, недостижимой в чисто дискретных системах.
Дальнейшие исследования должны быть направлены на экспериментальную проверку предсказаний теории, разработку гибридных вычислительных архитектур и уточнение количественных порогов для различных измерений сознания.
---
Библиографические ссылки:
Milinkovic B., Aru J. On biological and artificial consciousness: A case for biological computationalism // Neuroscience and Biobehavioral Reviews. 2025. Vol. 181. P. 106524. DOI: 10.1016/j.neubiorev.2025.106524
Cogitate Consortium et al. Adversarial testing of global neuronal workspace and integrated information theories of consciousness // Nature. 2025. DOI: 10.1038/s41586-025-08888-1
Butlin P., Long R. et al. Consciousness in artificial agents: A framework for assessment // Trends in Cognitive Sciences. 2026. Vol. 30, № 1. P. 15–28.
Lee J. The Ghost in the Machine: An Exhaustive Dissection of AI Consciousness Research // Medium. 2026. January 3.
Kuhn R.L. A landscape of consciousness: toward a taxonomy of explanations and implications // Progress in Biophysics and Molecular Biology. 2024. Vol. 187. P. 103–424.
Anokhin K.V. On the relationship between the subjective and the objective in modern neuroscience // Herald of the Russian Academy of Sciences. 2024. Vol. 94, № 6. P. 609–617.
Seth A.K. Being You: A New Science of Consciousness. London: Faber & Faber, 2021. 368 p.
Tononi G., Albantakis L. et al. Integrated information theory: from consciousness to its physical substrate // Nature Reviews Neuroscience. 2024. Vol. 25. P. 750–770.
Dehaene S. Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. New York: Viking, 2014. 336 p.
Block N. The higher-order approach to consciousness is defunct // Analysis. 2021. Vol. 81, № 3. P. 457–468.
Rosenthal D. Concepts and Definitions of Consciousness // The Cambridge Handbook of Consciousness. Cambridge University Press, 2019. P. 25–48.
Свидетельство о публикации №226041300213
Слово Сознание сложено из корня «знание» и приставки «со-». «Приставка СО- придаёт словам смыслы, которые зависят от того, какими частями речи служат эти слова.
При добавлении к именам существительным приставка СО- означает какое-то Совместное действие или участие: со-участие, со-авторство, со-болезнование... или объединенную принадлежность к чему-то: со-звездие, со-курсники, со-родичи... То есть
совокупность совместность общность неких объектов в их взаимосвязи». © В случае с сознанием - это совокупность знаний.
И правильный вопрос о сознании - Сознание Чего?.. Если вопрос О Моём, то это моё сознание того, что знают все, а если Об Общем - то это наше или совместное знание.
А что могут совместно знать все и я?.. - Пока только слова общего языка. И Сознание - Совместное Знание Слов языка, а это, по сути, и есть наш общий, Русский Язык.
И надо использовать этот простой и начальный смысл слова Сознание, чтобы в голове каждого из нас заработали полностью или правильно понятые слова языка, а правильное совместное Знание Слов языка непременно Сложится В Правду и истину.
Но русскоязычные философы утаили простой смысл слова Сознание, - они подменили смысл Сознания другими смыслами и так «нагрузили» содержание слова Сознание высокими идейными значениями, качествами и функциями мышления, что нам, простым людям, и, тем более, детям нашим его не понять. И что же теперь, вечно уповать на философов-носителей знания?..
спасибо
Борис Трубин 13.04.2026 09:21 Заявить о нарушении