Нейробиологическая теория Карла Фристона и темпера
Успешное применение цифровых алгоритмов, от простых устройств до сложных систем с искусственным интеллектом, позволяет предположить, что темперамент также может быть объяснен рефлекторностью нейронных связей. В этом контексте психологические термины могут быть заменены цифровым описанием поведения сознания. Практическое использование находится в плоскости от обмена информацией человека с цифровыми устройствами до коррекции поведения, модулирование необходимой реакции человека.
1. Темперамент и связь с алгоритмами искусственного интеллекта.
1.1 Способности сознания к взаимодействию с окружающей средой в психологии описываются понятием темперамент (манера реагировать на события, взаимодействовать с окружающим миром). Чтобы представить общее направление содержания понятия темперамента кратко опишем теории наиболее популярных учёных.
Юнг в работе "Психологические типы" опубликованной в 1921 году выделил в темпераменте функции ощущения, чувств, мышления, бессознательных артефактов, экстравертивное или инвертированное направление деятельности сознания. Айзенк в работе «Аспекты личности» опубликованной в 1947 году добавляет фактор устойчивость/неустойчивость эмоций (качества нейротизма и психотизма), а все градации темперамента повторяя за Галеном (II век нашей эры) выражает в четырёх типах: сангвиник, холерик, флегматик, меланхолик.
Иван Петрович Павлов после 20 лет исследований в своей работе "Двадцатилетний опыт объективного изучения высшей нервной деятельности (поведения) животных", опубликованной в 1923 году, темперамент определяет физиологическими факторами, следующими свойствами нервной системы:
-сила - способность нервной системы выдерживать длительное и сильное возбуждение или торможение;
-уравновешенность - соотношение процессов возбуждения и торможения;
-подвижность - скорость смены процессов возбуждения и торможения.
А.Томас и С. Чесс в 1977 году американские психологи, разработали теорию на основе изучения темперамента детей, которая включает в себя девять характеристик: уровень активности, ритмичность, скорость реакции, приспособляемость, интенсивность эмоций, порог реакции, настроение, отвлекаемость и устойчивость внимания. Исследователи считали, что темперамент опосредуется генетикой и формируется на ранних этапах развития ребенка.
Для целей данной статьи, при построении алгоритма определения темперамента, теоретически наиболее подходят работы И.П. Павлова и А. Томас с С. Чесс. Они описывают физические аспекты поведения: силу, скорость, точность, устойчивость и другие . Эти качества, как предполагается, зависят от эмоционального контроля и степени интеграции в культурные ценности.
Однако, пока нет оснований полагать, что популярные схемы Юнга и Айзенка не могут быть использованы для алгоритмизации определения темперамента. Предполагается что при составлении первых цифровых алгоритмов темперамента, сопутствующие аспекты также получат цифровое описание.
В настоящее время часть из перечисленных процессов темперамента используется в практически действующих цифровых устройствах, такие как: процессы сканирования, распознавания, восприятия, анализ информации.
По аналогии мы предполагаем что для выражения сознанием ответной реакции на уровнях физической, эмоциональной и умственной деятельности будут найдены аутентичные способы цифровой обработки.
Также психологическое описание темперамента в виде рефлекторной способности организма к взаимодействию с окружающей средой (выражение в виде стратегии, стиля взаимодействия или познания) в настоящее время моделируются на примере алгоритмов Искусственного интеллекта (ИИ), (технология, позволяющая машинам выполнять задачи, которые требуют человеческого интеллекта: распознавать речь, анализировать изображения, писать тексты, принимать решения).
Действующий на практике ИИ показывает впечатляющие результаты. Аналитика совершенствуется до прогнозирования результатов и поиска решений, предложения необходимых действий, используются алгоритмы точности описания, планирования реализации, формулирования текста, выводов и последующего изучения.
Автор предполагает что аппараты сканирования, распознавания способны считывать, определять первичные рефлексы и поведение организма в характеристиках темперамента, а ИИ интерпретировать эмоциональную и типологическую реакцию.
1.2 Цель данной статьи
Анализ цифровых алгоритмов взаимодействия в сравнении с качествами темперамента позволяет перейти к гипотезе о цифровой организации первичных рефлексов, а возможно, и всей нервной деятельности.
Поэтому задача автора описать возможность создания цифрового паспорта темперамента. Для решение которой предлагаются следующие цели.
а) Описать темперамент как ответ нейронного комплекса организма на стимулы физической и социальной среды в гипотезе с цифровой организацией первичных рефлексов, а возможно и всей нервной деятельности.
б) Определить последовательность преобразования раздражения от рецептора до зон анализаторов, выделить факторы аутентичных физиологическим реакциям определённые Павловым и Томасом.
в) Психологи пользуются терминами и концепциями темперамента с уровнем соответствующих знаний природы нервной системы середины 20-го века. Поэтому на основе полученных цифровых данных описания темперамента необходимо уточнить термины, приспособить наблюдения и выводы психологов к цифровому анализу и действительной сущности понятий.
г) Описать теоретическое представление общения ИИ с человеком с использованием аутентичного алгоритма обработки информации. (статья «Взаимодействие ИИ с человеком (алгоритм)»)
д) Применить на практике результаты цифрового описания темперамента, например в вопросах контакта с клиентами в организациях, в моделирующем общении, непосредственном взаимодействии ИИ с человеком.
2. Эволюция развития нейросетей
Развитие темы темперамента в психологии и развитие нейронной сети в информатике фактически происходили в одно культурное время, имели разные прикладные задачи, но как оказалось опирались на общее представление о рефлекторности прохождения сигнал/реакции.
История описания темперамента начинается с работы Юнга в 1921 году, Павлова в 1923 году и продолжается в работах Айзенка в 1947 году. Совсем ненамного отстают от психологов и физиологов разработчики нейронных алгоритмов.
Нейрофизиолог по образованию Маккалох и Питтс, математик-самоучка в 1943 году опубликовали статью «A Logical Calculus of the Ideas Immanent in Nervous Activity». Создали первую математическую модель искусственного нейрона. В модели нейрон мог находиться только в двух состояниях (активен или неактивен).
Дональд Хебб в 1949 году, сформулировав «правило Хебба»: «Нейроны, которые активируются вместе, связываются вместе». Это правило до сих пор используется во многих алгоритмах обучения нейросетей. Книга Хебб «The Organization of Behavior» заложила теоретические основы машинного обучения.
В 1957 году Фрэнк Розенблатт построил физическое устройство «Марк-1», с помощью которого распознавали простые изображения.
Джеффри Хинтон совместно с Дэвидом Румельхартом и Рональдом Уильямсом в 1986 году разработал алгоритм обратного распространения ошибки (backpropagation), который до сих пор является основой обучения большинства нейросетей.
В 1980-х годах Ян Лекун создал сверточные нейронные сети (CNN), разработал базу данных MNIST для распознавания рукописных цифр, которая стала стандартом для тестирования алгоритмов машинного обучения. PyTorch — одну из самых популярных библиотек для работы с нейросетями. Его работы легли в основу современного компьютерного зрения.
Работы Йошуа Бенджио в 1994–1997 годах сыграли важную роль в понимании и улучшении обучения рекуррентных сетей, таких как алгоритм обратного распространения через время (Backpropagation Through Time, BPTT), а также исследования, связанные с проблемой затухающего и взрывающегося градиента, алгоритмов обработки естественного языка.
В 2000-х и 2010-х годах Бенджио активно участвовал в продвижении глубокого обучения, что в итоге привело к революции в области ИИ и появлению современных мощных моделей.
В 2016 году исследовательские подразделения Google DeepMind, создала AlphaGo — первую AI-систему для игры в го. В 2018 году разработала AlphaFold, которая решила проблему предсказания структуры белков.
Разработка командой Google в 2017 году под руководством Ашиша Васвани в статье «Attention Is All You Need» описана обработка естественного языка, архитектура трансформера, лежащая в основе ChatGPT, создали механизм внимания (attention), который позволил нейросетям эффективно работать с последовательностями данных.
Команды OpenAI, основанной в 2015 году группой предпринимателей и исследователей во главе с Сэмом Альтманом, Илоном Маском, Грегом Брокманом и другими создали ChatGPT.
Первая версия GPT была представлена в 2018 году и содержала 117 миллионов параметров. GPT-2, выпущенная в 2019 году, уже имела 1.5 миллиарда параметров, а GPT-3 (2020) — поражающие 175 миллиардов.
Ключевыми моментами являются технологии которые позволяют компьютерам улавливать и количественно выражать семантические отношения между словами. Это означает, что слова с похожим значением или используемые в схожих контекстах будут иметь близкие векторные представления в многомерном пространстве.
Векторное представление заключается в представлении каждого слова в виде числового вектора (набора чисел). Эти векторы не являются случайными; они обучаются на больших корпусах текстов таким образом, чтобы отражать смысловые связи.
Векторные представления помогли программе компьютера перейти от простого распознавания слов к более глубокому пониманию контекста и смысла в тексте. Это открыло двери для множества продвинутых NLP-задач.
Например метод обработки естественного языка Word2Vec (Skip-gram и CBOW) учится предсказывать соседние слова по данному слову или наоборот.
GloVe (алгоритм обучения векторных представлений слов (эмбеддингов) без учителя) использует статистику глобальной совместной встречаемости слов в корпусе.
FastText (метод представления слов в векторной форме ) расширяет идеи Word2Vec, учитывая не только слова целиком, но и их подслова (n-граммы символов), что позволяет лучше работать с редкими словами и морфологически богатыми языками.
Эти методы лежат в основе многих современных NLP-приложений, включая: машинный перевод, анализ тональности (sentiment analysis), извлечение информации, поиск информации, с оздание чат-ботов, рекомендательные системы.
Широкое изучение нейронных связей с развитием возможностей экспериментальной науки получены в нейробиологии, нейрофизиологии, но в данной статье нейронная структура рассматривается на примере темперамента психологии.
3. Разработки Карла Фристона
Для цифрового представления темперамента автор считает интересны теоретические и практические разработки К.Фристона. В университете Кембриджа Фристон изучал физику и психологию, поэтому исследователь опирался на физиологию с использованием математического аппарата,
По роду профессиональной деятельности Фристон известен как британский нейробиолог и специалист по визуализации мозга, воксельной морфометрии, изобретатель статистической параметрической разметки (является международным стандартом для анализа и визуализации данных), опирается на общие линейные модели и теорию случайного поля (разработанную с Кейт Уорсли, статистический аналитик изображений мозга, 1951-2009 гг). В настоящее время является наиболее цитируемым нейрофизиологом в мире.
Фристон при разработке теории прохождения сигналов от рецепторов в зоны анализа опирался на математические модели статистики. Этому способствовало совместная работа над проектами с Кейт Уорсли, который является ведущим статистиком и математиком в области нейробиологии изображений в мире.
Уорсли разработал теорию случайного поля в картирование мозга. Эта работа позволила исследователям обнаружить тонкую активацию мозга при функциональной магнитно-резонансной томографии (фМРТ). Создал, написал и разработал программное обеспечение FMRISTAT, которое стало стандартом для определенного статистического анализа данных фМРТ.
Уорсли также разработал программное обеспечение SurfStat, которое выполняет статистический анализ данных измерения объема, включая данные, полученные с помощью позитронно-эмиссионной томографии.
Далее опишем теории свободной энергии Гельмгольца и линейной модели, которые повлияли на Фристона.
3.1 Свободная энергия Гельмгольца
Свободная энергия Гельмгольца для системы с постоянным числом частиц определяется так: F=U;TS
где U — внутренняя энергия, T — абсолютная температура, S — энтропия.
Отсюда дифференциал свободной энергии равен:
dF=d(U;TS)=;Q;;A;d(TS)=;PdV;SdT
Видно, что это выражение является полным дифференциалом относительно независимых переменных T и V. Поэтому часто свободную энергию Гельмгольца для равновесного состояния выражают как функцию F=F(T,V)
Для системы с переменным числом частиц дифференциал свободной энергии Гельмгольца записывается так: dF=;PdV;SdT+;dN
где ; — химический потенциал, а N — число частиц в системе. При этом свободная энергия Гельмгольца для равновесного состояния записывается как функция F=F(T,V,N) [6]
Фристон свел мозговые функции всех типов к необходимости минимизировать свободную энергию [7].
Множеству сигналов таким образом присваевается энергетическое качество с сопутствующими периодами активности и затухания.
3.2 Линейная модель
Использование вероятностных моделей для анализа сигналов, принимаемых множеством рецепторов.
В основе математической статистики лежит линейная модель вида Y = XB + U. Здесь Y представляет собой матрицу измеряемых данных, B — матрицу интересующих нас параметров, X — матрицу коэффициентов, а U — матрицу случайных ошибок.
В зависимости от природы матрицы X, линейные модели находят применение в различных областях:
Если каждый элемент X является бинарным (0 или 1) и указывает на принадлежность к группе, модель используется в дисперсионном анализе.
Если X содержит непрерывные числовые переменные, применяется регрессионный анализ.
При сочетании бинарных и непрерывных переменных в X используется ковариационный анализ.
[8]
3.3 Тезисы идей на момент создания теории Фристона
А.В. Гришаев и В.Ф. Сазонов изучая работы Фристона выделили ключевые тезисы известных учёных, предшествовавших его теоретическим представлениям.
В Р. Грегори в 1980 году [9] «продолжая идею «бессознательного вывода», сравнил перцепции с гипотезами в науке. А сам процесс восприятия он сопоставил с деятельностью ученого экспериментатора, выдвигающего гипотезы, а затем проверяющего их в эксперименте» [1, с.3]
«Дж. Хинтона специалист искусственного интелекта и машинного обучения с соавторами [10] «...предложили считать, что «перцептивная система представляет собой устройство для статистического вывода, чья функция заключается в выводе вероятных причин сенсорного входа». Кроме того, они использовали в этой работе такие понятия (похожие по содержанию на понятия, используемые Фристоном), как «модель распознавания» и «порождающая модель».
Модель распознавания, согласно Хинтону и соавторам, используется для «вывода вероятностного распределения основных причин из сенсорного входа», а порождающая модель используется для «обучения модели распознавания». Порождающая модель также обучается. Иначе говоря, Хинтон и соавторы наполняют ...статистическим смыслом, значительно расширяя и уточняя это понятие» [10, с.4]
«Второй важной работой, которую можно считать предтечей теории Фристона, является работа Рао и Балларда 1999 года о предиктивном кодировании (predictive coding), описывающем процесс обработки зрительной информации.
Идея предиктивного кодирования (по отношению к зрительной системе) состоит в том, что обратные связи от вышестоящих в иерархии областей зрительной коры несут прогнозы (предсказания) нейронной активности для нижестоящих областей зрительной коры, а прямые связи от нижестоящих областей зрительной коры возвращают вышестоящим областям ошибки между прогнозами (предсказаниями) и фактической активностью нижестоящих областей коры» [11].
4. Нейробиологическая теория Фристона
Фристон высказывался о своей теории как «объединяя в рамках единого подхода экспериментальные данные о восприятии, обучении и двигательной активности, предлагает целостную теоретико информационную и математическую конструкцию для объяснения самых разнообразных аспектов работы мозга» [12],
В работе 2023 года А. В. Гришаева, В. Ф. Сазонова «Нейробиологическая теория Карла Фристона: критический обзор, Интеллектуальные системы. Теория и приложения» выделяют следующие главные темы теории Фристона: принцип свободной энергии, гипотеза байесовского мозга, предиктивное кодирование, ошибка предсказания, наблюдаемые состояния, ненаблюдаемые состояния. [1, с.2]
4.1 Принцип свободной энергии
«...В мотивировке принципа свободной энергии Фристон пишет о том, что биологические системы функционируют в условиях постоянно меняющейся среды, испытывают её воздействие на себя и с помощью гомеостаза поддерживают своё внутреннее состояние (или состояния) в пределах определённых границ «[12], [13].
«... принцип свободной энергии заключается в том, что «любая самоорганизующаяся система, находящаяся в равновесии с окружающей средой, должна минимизировать свою свободную энергию, противостоя естественной тенденции к беспорядку» [1, с.13].
«...набор физиологических и сенсорных состояний, в которых может находиться организм, ограничен, и эти состояния определяют фенотип организма. Математически это означает, что вероятность этих (интероцептивных и экстероцептивных) сенсорных состояний должна иметь низкую энтропию; другими словами, существует высокая вероятность того, что система будет находиться в любом из небольшого числа состояний, и низкая вероятность того, что она будет в остальных состояниях. Энтропия — это также средняя собственная информация или «сюрприз»...» [12].
« исходя из рассуждений Фристона, можно сказать, что степени свободы варьирования (в дальнейшем, просто степени свободы) своих состояний, которыми может обладать организм и не погибать или не повреждаться, находятся в определённых рамках. Поэтому, для того чтобы поддерживать свои физиологические параметры в пределах этих границ, организму необходимо соблюдать определённый оптимум степеней свободы. Для этого он должен уменьшать количество степеней свободы своих состояний.» [1, с. 10]
«...В теории информации мерой неопределенности состояний системы является величина, называемая информационной энтропией [14]. Устранение неопределённости своих сенсорных состояний, исходя из вышеописанного, согласно Фристону [12], эквивалентно минимизации информационной энтропии.»[1, с.12]
В одной из работ Фристона есть и такое математическое определение: «Пусть m = (Rd , ;) — эргодическая случайная динамическая система с пространством состояний X = R ; S ; Rd . Если внутренние состояния r ; R минимизируют свободную энергию, то система подчиняется принципу наименьшего действия и является активной системой.» [1, с.13]
«...Говоря о стремлении мозга минимизировать неопределённость сенсорных состояний, например, состояний рецепторов органов чувств, Фристон выдвигает важное для его теории положение о том, что мозг не может изменять их непосредственно, однако может это делать опосредованно через двигательную активность, активно влияя, таким путём, на среду [12,15]. Поведенческая активность организма изменяет состояние окружающей его среды, а изменение состояний среды, в свою очередь, приводит к изменению сенсорных состояний рецепторов органов чувств.» [1, с.15]
4.2 Прогностическое состояние в алгоритме анализа
«...Фристон предлагает такое определение «мозг использует внутренние вероятностные (порождающие) модели для обновления апостериорных вероятностей, используя сенсорную информацию, в (приблизительно) оптимальном, по Байесу, виде» [12, с.24].
«...Следуя логике Фристона, можно сказать, что сенсорные состояния (то есть состояния рецепторов органов чувств), являясь отражением состояний среды, влияют на состояния мозга. Для того, чтобы иметь возможность успевать реагировать на воздействие среды или изменения в среде, мозгу нужно уметь заранее прогнозировать эти воздействия или изменения. Но составлять подобные прогнозы можно лишь на основе той сенсорной информации, которую мозг уже получил ранее. Главной проблемой, порождающей необходимость в составлении прогнозов, является то, что для организма наиболее выгодно формировать ответную реакцию на изменение среды заранее, ещё до наступления это- го события, до получения сенсорной информации о нём. А это можно сделать только на основании прогноза, составленного на будущее. Можно сказать, что мозг вынужден «работать на опережение» для того чтобы выжить в условиях постоянно меняющейся среды.» [1, с.16]
«Фристоновская формулировка гипотезы байесовского мозга (байесовского кодирования)... внешние по отношению к мозгу состояния среды производят сенсорные состояния, связанные с активностью сенсорных рецепторов...что мозгом воспринимаются не сами объекты внешней среды непосредственно, а сенсорные состояния, которые являются результатом действия внешней среды на сенсорные рецепторы...»[12, 16, 17]
«...Другими словами, состояния среды являются для самого мозга ненаблюдаемыми, не доступными непосредственно величинами, а сенсорные состояния являются наблюдаемыми, доступными непосредственно самим мозгом величинами. И, соответственно, состояния внешней среды «доступны» для мозга только опосредованно, через сенсорные состояния (наблюдаемые мозгом величины), являющиеся зависимыми от состояний внешней среды (ненаблюдаемых состояний), так как сенсорные состояния порождаются состояниями среды» [12, 16, 17], [1, с.16]
«...В соответствии с этим подходом, мозг решает так называемую обратную задачу [12, 16, 17]. Он по результатам (в роли результата выступают сенсорные состояния) делает суждение о причинах (в роли причин выступают состояния среды), приведших к этому результату. Обратной эта задача называется потому, что она является противоположной по отношению к прямой задаче, то есть задаче, где мы на основе исходных причин делаем предположения о возможных следствиях (результатах).» [1, с. 17]
«..Соответственно, предполагая байесовские вероятности состояний внешней среды и принимая во внимание зависимость от них сенсорных состояний, мы можем говорить, в свою очередь, о байесовской вероятности сенсорных состояний, то есть о вероятности наступления сенсорных состояний при условии, что внешняя среда имеет некоторое состояние [12, 16, 17]. Такая вероятность называется условной вероятностью или условной байесовской вероятностью.» [1, с.18]
«...мы приходим к ещё одному следствию из гипотезы байесовского мозга в теории Фристона: о том, что всю деятельность мозга можно рассматривать как работу с вероятностными репрезентациями ненаблюдаемых и наблюдаемых состояний, носящую характер статистического вывода о ненаблюдаемых состояниях на основе наблюдаемых. ...Иначе говоря, следуя логике К. Фристона, мы можем сделать собственный вывод о том, что, информационная свободная энергия — это своего рода дивергенция Кульбака-Лейблера между вариационным распределением q(;) и плотностью совместного распределения вероятностей p(s, ;), то есть порождающей моделью.»[1, с. 28]
4.3 Причинные состояния среды
«...что такое причинные состояния среды ;. ... в одной из своих работ [16] он пишет следующее: «Причины — это просто состояния процессов, генерирующих сенсорные данные. Причины могут быть категориальными по своей природе, например, идентичность лица или семантическая категория, к которой принадлежит объект. Другие могут быть параметрическими, например положение объекта...» [16], [1, с. 20]
«...Для скрытых состояний и скрытых причин Фристон даёт следующие определения. Скрытые причины ; — это функции от скрытых состояний [18]. «Состояния ; называются причинами, входами или источниками «могут быть детерминированными, стохастическими или и теми, и другими» [19]. Состояния x называются скрытыми состояниями, «потому что их редко можно наблюдать напрямую» и они «опосредуют влияние ввода на вывод и наделяют систему памятью» [19]. [18, с.22]
«...Апостериорное распределение вероятностей (или просто апостериорное распределение) Фристон определяет так [12]: «апостериорное распределение вероятностей — это распределение вероятностей состояний среды или параметров модели, учитывая некоторые данные, то есть вероятностное отображение (отображение — математический термин) из наблюдаемых данных в состояния среды». [5, с. 22]
4.4 Правдоподобие
«...Правдоподобие p(s|;), согласно Фристону [20], определяет то, каким образом состояния среды приводят к сенсорным данным …
...Предельное правдоподобие (обоснованность) p(s) по Фристону — это вероятностное распределение выборки некоторых данных в рамках конкретной модели [21].»[1, с.22]
«...Совместным распределением вероятностей p(s, ;) называется величина равная произведению правдоподобия p(s|;) на априорную вероятность p(;) [22]. Совместное распределение вероятностей в байесовской теории вероятностей называется порождающей моделью. Фристон приводит такое определение порождающей модели: «порождающая модель — это вероятностная модель зависимостей между причинами и следствиями (данными), из которых могут быть получены выборки»»
[5, с.23].
4.5. Предикотивное кодирование
Фристон использовал предиктивное кодирование в модели обработки зрительной, слуховой информации, но также работы всей коры. [23]
«...Из примерно шести десятков моделей, созданных Фристоном и его командой за почти 2 десятилетия их работы, с его теорией в непрерывной формулировке связаны примерно половина из них, а уже из этой половины с нейрональными и мозговыми процессами — чуть больше десятка.» [1, с.51]
«Согласно предиктивному кодированию на самом нижнем уровне иерархии сравнивается предсказание, приходящее с вышележащего уровня иерархии, с сенсорной информацией; на всех же остальных уровнях иерархии уже сравниваются предсказания, приходящие с вышележащих уровней иерархии, с ошибками предсказания, приходящими из нижележащих уровней иерархии. Нервная модель стимула не содержит таких понятий как «предсказание» и «ошибка предсказания», и сравнивается в данном случае не предсказание с его ошибкой, а сенсорная информация с её моделью.» [23]
Гипотеза байесовского кодирования. «Согласно гипотезе байесовского кодирования мозг представляет сенсорную информацию в форме вероятностных распределений, кодируя и вычисляя оптимальным, по Байесу, образом функции плотности вероятности или приближения к функциям плотности вероятности [24]». [1, с.5]
«... Идея предиктивного кодирования (в данном случае по отношению к зрительной системе) состоит в том, что обратные связи от вышестоящих в иерархии областей зрительной коры несут прогнозы (предсказания) нейронной активности для нижестоящих областей зрительной коры, а прямые связи от нижестоящих областей зрительной коры возвращают остаточные ошибки между прогнозами (предсказаниями) и фактической активностью нижестоящих областей коры к вышестоящим областям зрительной коры [30]. Мы можем сказать, что в теории Фристона это определение фактически приобретает такую форму: обратные связи от вышестоящих в иерархии областей мозга несут прогнозы (предсказания) нейронной активности для нижестоящих областей мозга, а прямые связи от нижестоящих областей мозга возвращают остаточные ошибки между прогнозами (предсказаниями) и фактической активностью нижестоящих областей мозга к вышестоящим областям мозга»[1, с.46]
«...Обучение, согласно Фристону, соответствует хеббовской пластичности, которая сводит к минимуму ошибку предсказания в связях между математическими ожиданиями в отношении безусловного раздражителя и математическими ожиданиями первого уровня в отношении безусловного раздражителя для отставленного условного рефлекса и вторым уровнем эхо-состояний для следового условного рефлекса. Фристон ещё пишет о том, что «обучение при отставленном мигательном условном рефлексе заключается в том, что преобладают изменения в связи между математическими ожиданиями относительно условного раздражителя (кодируемого клетками Пуркинье в коре мозжечка) и апостериорными предсказаниями о безусловном раздражителе (в промежуточном ядре)» и «при отставленном условном рефлексе именно связь с третьей скрытой причиной опосредует этот условный рефлекс». «Это происходит потому, что задержка означает, что эта скрытая причина активна в то время, когда вызывается безусловный ответ. Важно отметить, что это означает, что задействован другой набор связей, а именно: связи между ядрами моста и промежуточным ядром»..» [1, с.53]
«... К этой схеме Фристон добавляет новый модуль, который мы будем называть модулем ошибок предсказания [12, 23]. В результате этой модификации состояния каждого отдела мозга описываются, во-первых, обобщённым каузальным состоянием, во-вторых, обобщённым скрытым состоянием (вместе составляющими модуль состояний), и в-третьих, модулем ошибок предсказания. В соответствии с этим, согласно Фристону [25, 26], предполагается следующее: • во-первых, наличие популяции нейронов, чья активность кодирует условное математическое ожидание или условную моду модулей состояний, составляющих ненаблюдаемые и наблюдаемые состояния разных уровней иерархии в мозгу; • во-вторых, наличие популяции нейронов, чья активность кодирует ошибки предсказания каждого состояния; • в-третьих, модули ошибок предсказания получают сообщения от модулей состояний того же уровня иерархии и уровня выше; • в-четвертых, модули состояния получают сообщения от модулей ошибок того же уровня иерархии и уровня ниже.»[1, с.47]
«...Так как в качестве одной из важнейших гипотез в теории Фристона является приближение Лапласа, состоящее в том, что все вероятностные распределения имеют форму гауссиана, то для того чтобы знать всё об этих распределениях, достаточно лишь задать математическое ожидание и матрицу ковариации. Поэтому, например, нет никакой необходимости полностью передавать всё вероятностное априорное распределение из одного слоя иерархической модели в другой (из вышележащего в нижележащий), а можно передавать лишь достаточную статистику. Эта полученная нижележащим слоем из вышележащего достаточная статистика содержит всю информацию о форме априорного распределения. Аналогично и для передачи сообщений вверх по иерархии: вместо того, чтобы передавать весь набор ошибок по всему распределению, вверх по иерархии передается только средневзвешенная ошибка.» [1, с.51]
«...В итоге мы, вслед за Фристоном, приходим к системе уравнений, содержащей, во-первых, порождающий процесс как уравнения динамики скрытых, каузальных состояний среды и их шумов, во-вторых, уравнения динамики гипотез о математическом ожидании скрытых и каузальных состояний, представляющие из себя, в сущности, обратную модель по отношению к порождающему процессу, и позволяющие предсказывать динамику порождающего процесса, в-третьих, уравнения динамики переменных, связанных с обучением и действием.» [1, с.50]
«...развитие теории не закончилось и продолжается в течение уже более полутора десятилетий, начавшись от формулирования основных принципов в первых статьях [16, 23], затем обогатившись основами математического аппарата в формулировке с непрерывными величинами [17, 23, 27], в дальнейшем развившись в концепцию активного вывода [15, 28], и в последующих статьях развиваясь, главным образом, в формулировке с дискретными величинами [29, 30]. Математический аппарат теории Фристона имеет лишь небольшие отличия от математического аппарата байесовских методов глубокого обучения (deep learning).»[28]
4.6 Математический аппарат моделирования
«...Можно даже сказать, что те основные уравнения теории Фристона, к которым мы придём через некоторое время — это изменённая почти до неузнаваемости, преобразованная и дополненная добавочными членами, но, по сути, всё та же формула Байеса. А все вероятности, которые мы используем в этой статье, являются байесовскими вероятностями.» [1, с.18]
...Согласно теореме Байеса условная вероятность события B при условии, что событие A наступило, равна произведению условной вероятности события A при условии B и безусловной вероятности события A, делённой на безусловную вероятность события B [14, 31]. Или:
p(B|A) = p(A|B)p(A) p(B) , (2)
где p(A|B) — условная вероятность события A при условии, что событие B наступило; p(B|A) — условная вероятность события B при условии A; p(A) — безусловная вероятность события A; p(B) — безусловная вероятность события B. Буква «p» (от англ. probability) во всех формулах, которые мы используем, обозначает вероятность.
В байесовской теории вероятностей величина p(A|B) называется правдоподобием, величина p(B|A) называется апостериорной вероят- ностью, величина p(A) называется предельным или интегрированным правдоподобием, или обоснованностью, или обоснованностью модели, и p(B) — априорной вероятностью [14, 31]. В нашем случае событие A — это сенсорные состояния, событие B — состояния среды.» [1, с.19]
4.7 Принципа свободной энергии на примере биологических нейронных сетей
После перечисления принципов теории Фристона на примере совместной статьи с японскими учёными («Экспериментальная валидация принципа свободной энергии с помощью нейронных сетей in vitro» Такуя Исомура, Киёси Котани, Ясухико Дзимбо & Карл Дж. Фристон Nature Communications volume. [32] Опишем применение подхода на практике.
В in vitro сети кортикальных нейронов крыс, которые выполняют причинно-следственные выводы получены количественные предсказания принципа свободной энергии. На электрические стимулы возникающие путём смешивания двух скрытых источников, получены результаты самостоятельной организации нейронов для выборочного кодирования этих двух источников.
Как пишут авторы «...мы показываем, что вариационная минимизация свободной энергии может количественно предсказывать самоорганизацию нейронных сетей с точки зрения их реакций и пластичности. Эти результаты демонстрируют применимость принципа свободной энергии к нейронным сетям in vitro и подтверждают его прогностическую валидность в данном контексте.»
«Согласно принципу свободной энергии, восприятие, обучение и действие всех биологических организмов можно описать как минимизацию вариационной свободной энергии, как управляемый прокси для минимизации неожиданности (то есть невероятности) сенсорных входов 1,2. Таким образом, нейронные (и нейронные) сети считаются выполняющими вариационную байесовскую инференцию.
Свободная энергия, о которой идёт речь, является функцией генеративной модели, выражающей гипотезу о том, как сенсорные данные генерируются из скрытых или скрытых состояний. Однако для применения принципа свободной энергии на клеточном и синаптическом уровнях необходимо определить необходимую генеративную модель, объясняющую динамику нейронов (то есть вывод) и изменения в синаптической эффективности (то есть обучение).» [32]
«... синаптическая пластичность зависит от активации пре- и постсинаптических нейронов— моделируется по правилам пластичности типа Геббиана. Хотя точная связь между уравнениями, лежащими в основе этих моделей — выведенными из физиологических явлений — и соответствующими уравнениями из принципа свободной энергии до конца не установлена, недавно мы выявили формальную эквивалентность между динамикой нейронных сетей и вариационным байесовским выводом. В частности, мы провели обратную инженерию класса биологически правдоподобных затратных функций — для канонических нейронных сетей — и показали, что эту функцию стоимости можно представить как вариационную свободную энергию в рамках класса хорошо известных частично наблюдаемых моделей процесса принятия решений Маркова (POMDP). Это говорит о том, что любая (каноническая) нейронная сеть, активность и пластичность которой минимизируют общую функцию затрат, неявно выполняет вариационный байесовский вывод и изучение внешних состояний. Этот подход к «обратному инжинирингу» — гарантированный формальной эквивалентностью — позволяет нам впервые выявить неявную генеративную модель на основе эмпирической нейронной активности. Кроме того, он может точно связывать величины в биологических нейронных сетях с теми, что находятся в вариационном байесовском выводе. Это позволяет экспериментально проверить принцип свободной энергии при применении к подобным каноническим сетям.» [32]
«...Ранее мы показали, что, получая сенсорные стимулы, некоторые популяции нейронов in vitro нейронные сети самоорганизуются (или обучаются), чтобы выводить скрытые источники, реагируя именно на разные причины. Впоследствии мы показали, что это сенсорное обучение соответствует вариационной минимизации свободной энергии в рамках генеративной модели POMDP23.»
На основе проведённых опытов авторы делают выводы. « ...результаты — и связанные с ними in vitro работы —говорят о управляемости и стабильности этой нейронной системы, делая её идеальным инструментом для точного и количественного анализа теоретических предсказаний.
«...генеративная модель генерирует сенсорные последствия из скрытых причин (то есть из двух источников), тогда как инверсия модели (то есть вывод) отображается от сенсорных последствий к скрытым причинам (рис. 1a, верно). Вариационная свободная энергия F задаётся сенсорным входом и вероятностными убеждениями о скрытых состояниях в рамках генеративной модели.»[32]
«...Наконец, мы наблюдали, что в процессе ассимиляции сенсорной информации нейронные сети значительно снижают свою вариационную свободную энергию. Здесь вариационная свободная энергия F для каждой сессии вычислялась эмпирически путём подстановки наблюдаемых нейронных ответов в функцию затрат L. Как и ожидалось, более простая задача (то есть условие 0% смеси) предполагала более быстрое (то есть большее) снижение свободной энергии вариации. Эти результаты предоставляют явные эмпирические доказательства того, что нейронные сети самоорганизуются, чтобы минимизировать вариационную свободную энергию.»[32]
5. Практические разработки Фристона.
Главными изобретениями Фристона считаются:
- статистическое параметрическое картирование (SPM) — международный стандарт анализа данных изображений, основанный на общей линейной модели и теории случайного поля (разработан совместно с Китом Уорсли);
- воксель-базированная морфометрия (VBM) — обнаруживает различия в нейроанатомии, используется клинически и в качестве суррогата в генетических исследованиях;
- динамическое причинно-следственное моделирование (DCM) — используется для определения архитектуры распределённых систем, таких как мозг. [33]
Мы считаем что подробное описание широко применяемой практической разработки Воксельной морфометрии, которое осуществлялось с участием Фристона, является хорошим примером того как может выглядеть логика алгоритма описания качеств темперамента и реализация в цифровой технике.
5.1 Воксельная морфометрия
Алгоритм поиска решения фактически моделируюет любую познавательную деятельность. Показательны результаты на примере Воксельной морфологии.
Выражение на практике теории получила в методе анализа нейровизуализации на основе которой обрабатываются данные МРТ получившая название Воксельная морфометрия.
Воксельная морфометрия (VBM) — метод анализа данных нейровизуализации, который позволяет исследовать структуру мозга in vivo. Основан на структурной магнитно-резонансной томографии (МРТ) высокого разрешения.[4]
VBM использовался в различных исследованиях для изучения неврологических и психических расстройств. Например, исследование болезни Альцгеймера выявило значительную атрофию серого вещества в гиппокампе и областях височных долей [3]. Другое исследование шизофрении выявило уменьшение объема серого вещества в префронтальной коре и передней поясной извилине [5].
Цель: выявить региональные различия в анатомии мозга между группами, например, с неврологическими или психическими расстройствами, и здоровыми контрольными группами. [2]
«VBM - это метод статистического анализа всего мозга с помощью вокселей, который сравнивает объем или концентрацию серого вещества между группами. Этот метод основан на сканировании структурной магнитно-резонансной томографии (МРТ) высокого разрешения, которое затем обрабатывается для извлечения информации об объеме или плотности серого вещества. Основной принцип VBM основан на концепции воксельного сравнения. Мозг разделен на множество небольших кубических областей, называемых вокселями, и объем или плотность серого вещества сравнивается между группами в каждом вокселе. Это позволяет исследователям идентифицировать определенные области мозга, которые различаются в зависимости от группы.
Первым шагом в анализе VBM является получение высококачественной структурной МРТ. Изображения должны иметь высокое разрешение и минимальные артефакты. Этапы предварительной обработки включают в себя
Коррекция смещения: коррекция неоднородностей интенсивности на изображениях МРТ
Зачистка черепа: удаление с изображений ткани, не связанной с мозгом
Пространственная нормализация: выравнивание изображений по стандартному шаблону
Методы сегментации и регистрации
Сегментация включает разделение изображений МРТ на различные классы тканей, такие как серое вещество, белое вещество и спинномозговая жидкость (СМЖ). Наиболее часто используемым методом сегментации является подход унифицированной сегментации, который сочетает в себе классификацию тканей и коррекцию смещения. Регистрация включает в себя приведение сегментированных изображений в соответствие со стандартным шаблоном, таким как шаблон Монреальского неврологического института (MNI). Этот шаг имеет решающее значение для воксельного сравнения между группами.
Модуляция и сглаживание
Модуляция - это процесс масштабирования сегментированных изображений для учета эффектов пространственной нормализации. Этот шаг необходим для сохранения исходной информации об объеме. Сглаживание включает свертку модулированных изображений с ядром Гаусса для уменьшения шума и улучшения отношения сигнал/шум. Выбор размера сглаживающего ядра зависит от вопроса исследования и желаемого уровня пространственного разрешения. Следующая блок-схема иллюстрирует этапы предварительной обработки, участвующие в анализе VBM:
Статистический анализ и интерпретация
После предварительной обработки данных следующим шагом является проведение статистического анализа для выявления региональных различий в объеме или плотности серого вещества между группами.
Статистические методы, используемые в анализе VBM
Наиболее часто используемым статистическим методом в анализе VBM является общая линейная модель (GLM), которая представляет собой статистическую основу для анализа взаимосвязи между зависимой переменной (например, объемом серого вещества) и одной или несколькими независимыми переменными (например, принадлежностью к группе). ГЛМ можно представить математически как
Исправление для множественных сравнений.
Анализ VBM включает проведение нескольких статистических тестов в мозге, что увеличивает риск ложноположительных результатов. Для решения этой проблемы необходима поправка на множественные сравнения. Наиболее часто используемыми методами коррекции множественных сравнений в VBM-анализе являются
Коррекция семейных ошибок (FWE): консервативный метод, который контролирует вероятность ложноположительных результатов в мозге
Коррекция частоты ложных открытий (FDR): более либеральный метод, который контролирует долю ложных срабатываний среди значимых вокселей
Интерпретация результатов VBM
Результаты анализа VBM обычно представляются в виде статистических параметрических карт (SPM), которые показывают области значительной разницы между группами. При интерпретации результатов ВБМ существенно важно учитывать следующие факторы
Статистическая значимость результатов
Направление воздействия (например, увеличение или уменьшение объема серого вещества)
Анатомическое расположение значимых регионов
Алгоритм VBM разработан для решения конкретной задачи по визуализации полученной информации. Но Фристон несомненно распространил свой опыт описания и создания визуализации на общие правила представления в сознании картины окружающего мира. Этому подтверждение созданные математические модели восприятия животными” [2]
Послесловие
В статье рассмотрена нейрофизиологическая теория Фристона, которая как считает автор также является цифровым описанием познания. На основе данной теории автор предположил цифровое описание темперамента, так как в состав темперамента входят сходные характеристики: ощущения, чувства, мышления.
Чтобы понять логику возникновения модели цифрового интеллекта Карла Фристона в статье приведены примеры практически действующего алгоритма восприятия Воксельной морфометрии, теоретические модели прохождения сигнала от рецептора до зоны анализа и эксперимент японских учёных с исследованием реакции биологической нейронной цепи в концепции распределения свободной энергии в гомеостазе всей нервной системы.
Автор определил цели для полного раскрытия темы темперамента в цифровом анализе и практическом техническом исполнении с использованием Искусственного интеллекта.
Список литературы
1.. Ф. Сазонов, Нейробиологическая теория Карла Фристона: критический обзор, Интеллектуальные системы. Теория и приложения, 2023, том 27, выпуск 3, 5– 94
2. Джон Эшбернер, Карл Дж. Фристон. Унифицированная сегментация. NeuroImage Том 26, выпуск 3, 1 июля 2005 года, страницы 839-851
3. Яркко Юлипаавалниеми, Эрика Савия, Санна Малинен, Риитта, Рикардо Вигарио, Самуэль Каски. Зависимости между стимулами и пространственно независимыми источниками фМРТ: к коррелятам мозга с естественными стимулами. NeuroImage Том 48, выпуск 1, 15 октября 2009, страницы 176-185
4. Разблокировка секретов мозга с помощью воксельной морфометрии/ Сара Ли 5. 6. https://ru.wikipedia.org/wiki/Свободная_энергия_Гельмгольца
7.Марк Солмс. Скрытый источник сознания: В поисках природы субъективного опыта. Mark Solms. The Hidden Spring: A Journey to the Source of Consciousness. — М.: Альпина нон-фикшн, 2025. — С. 504.
8. Шеффе Г. Дисперсионный анализ, пер. с англ. — М., 1963
9. Gregory, R. L., “Perceptions as hypotheses.”, Phil. Trans. R Soc. Lond
B., 290 (1980), 181–197
10. Dayan, P., Hinton, G. E., Neal, R., Zemel R. S., “The Helmholtz machine”, Neural Comput., 7:5 (1995), 889–904
11. Rao, R., Ballard, D., “Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects”, Nat. Neurosci., 2:1 (1999), 79–87
12. Friston K., “The free-energy principle: a unified brain theory?”, Nat.Rev. Neurosci., 11:2 (2010), 127–38
13. Friston K., “A Free Energy Principle for Biological Systems”, Entropy (Basel), 14:11 (2012), 2100–2121.
14. Brownlee J., Probability for Machine Learning: Discover How To Harness Uncertainty With Python, Machine Learning Mastery., 2020, 319 с.
15. Friston K.J., Daunizeau J., Kilner J., Kiebel S.J., “Action and behavior: a free-energy formulation”, Biol. Cybern., 102:3 (2010), 227–260.
16. Friston K., “A theory of cortical responses”, Philos. Trans. R Soc. Lond B Biol. Sci., 360:1456 (2005), 815–836.
17. Friston K. J., Stephan K. E., “Free-energy and the brain”, Synthese, 159:3 (2007), 417–458.
18. Friston K., Breakspear M., Deco G., “Perception and self-organized instability”, Front. Comput. Neurosci., 6 (2012), 44
19. Clark, A., “Whatever next? Predictive brains, situated agents, and the future of cognitive science”, Behav. Brain Sci., 36:3 (2013), 181–204
20. Parr T., Rees G., Friston K. J., “Computational Neuropsychology and Bayesian Inference”, Front. Hum. Neurosci., 12 (2018), 61
21. Friston K., Parr T., Zeidman P., “Bayesian model reduction”, ArXiv:1805.07092., 2018
22. Han J., Kamber M., Pei J., Data Mining: Concepts and Techniques, 3rd ed., Elsevier, New York, 2012, 744 с.
23. Friston K., Kilner J., Harrison L., “A free energy principle for the brain”, J. Physiol. Paris., 100:1–3 (2006), 70–87.
24. Knill D.C., Pouget A., “The Bayesian brain: the role of uncertainty in neural coding and computation”, Trends Neurosci., 27:12 (2004), 712–719
25. Friston K., “Hierarchical Models in the Brain”, PLoS Comput. Biol., 4:11 (2008), e1000211.
26. Bastos A. M., Usrey W. M., Adams R. A., Mangun G. R., Fries P., Friston K. J., “Canonical microcircuits for predictive coding”, Neuron, 76:4 (2012), 695–711
27. Friston K.J., Trujillo-Barreto N., Daunizeau J., “DEM: a variational treatment of dynamic systems”, Neuroimage, 41:3 (2008), 849–885.
28. Friston K.J., Daunizeau J., Kiebel S.J., “Reinforcement learning or active inference?”, PLoS One, 4:7 (2009), Article № e6421.
29. Friston K., Schwartenbeck P., FitzGerald T., Moutoussis M., Behrens T., Dolan R.J., “The anatomy of choice: active inference and agency”, Front. Hum. Neurosci., 7 (2013), 598.
30. Friston K., Schwartenbeck P., FitzGerald T., Moutoussis M., Behrens T., Dolan R. J., “The anatomy of choice: dopamine and decision-making”, Philos. Trans. R. Soc. Lond. B Biol. Sci., 369:1655 (2014), № 20130481
31. Murphy K. P., Machine Learning: A Probabilistic Perspective, MIT Press, 2012, 1104 с.
32. Экспериментальная валидация принципа свободной энергии с помощью нейронных сетей in vitro» Такуя Исомура, Киёси Котани, Ясухико Дзимбо & Карл Дж. Фристон Nature Communications volume 14, Номер статьи: 4547 (2023 г.
33. https://en.wikipedia.org/wiki/Karl_J._Friston
Свидетельство о публикации №225123100874