Что такое сложность? Взгляд эволюциониста

Заметки об общей теории эволюции систем
(ред. 16.02.2022)

Вернёмся теперь к понятию сложности. Можно говорить о сложности описания системы, определяя её числом нужных для этого битов. Например, если подробно описать её в компьютерном файле, а затем заархивировать (зазиповать) его, длину архива можно считать приблизительной оценкой такой сложности. Эта сложность растёт вместе с численностью элементов и уровнем беспорядка (а не порядка, как полагает Хайтун). В соответствии с заметкой «Что такое информация?…» (http://proza.ru/2020/06/17/33) можно сказать, что одновременно будут расти потенциальная информация, неопределённость и энтропия. Как и энтропия (см. заметку «Эволюция и энтропия..» http://proza.ru/2020/06/16/1790), сложность описания зависит от масштаба. Например, описав систему с большей степенью подробности, мы увеличим длину архива.

Функциональная сложность, которую обычно и понимают под сложностью системы, также является  сложностью описания, но не системы, а множества функций, которые она способна выполнять. Её значение пропорционально логарифму разнообразия. Это понятие (variety) в "принципе необходимого разнообразия" У. Эшби представляет мощность множества различных состояний системы. Из принципа следует, что управление не может быть оптимальным, если разнообразие управляющей системы  меньше разнообразия подчинённой системы.

Функциональная сложность не учитывает сложности выполнения функций, поэтому численно гораздо меньше сложности описания. Система с большей сложностью описания может иметь меньшую функциональную сложность. Развитие системы идёт по восходящей ветви только тогда, когда растёт её функциональная сложность. Обратное, безусловно, не верно: совмещение велосипеда с мясорубкой увеличило бы сложность, не усовершенствовав эти устройства. Совершенство зависит от ценности функций, их соответствия целям системы. Поэтому для его оценки следует суммировать не сложности отдельных функций, а произведения сложностей на коэффициенты, соответствующие их ценности для системы. Взвешенная функциональная сложность соответствует актуальной информации (см. заметку «Ценность информации… http://proza.ru/2020/06/17/36).

В информатике и теории алгоритмов вводится понятие вычислительной сложности алгоритма, которая определяется как зависимость объёма информационных ресурсов (памяти и быстродействия), необходимых для определённых вычислений, от размера (сложности описания) исходных данных. Применительно к системе её можно понимать, как минимальный (по множеству доступных алгоритмов) объём ресурсов, необходимый для прогнозирования состояния с заданной точностью и на определённый период времени. Будем называть этот объём внешней вычислительной сложностью системы.

Квантовая теория информации [Ллойд, 2013] распространяет понятие вычислительной сложности на любые физические системы в том смысле, что каждая система "вычисляет", по крайней мере, саму себя, то состояние, в которое ей следует перейти в данный момент. Такую, внутреннюю, сложность можно определить как предел внешней при одновременном стремлении к нулю погрешности вычисления и  глубины прогнозирования по времени: система "не обязана знать", что с ней будет потом, но точно "знает", что с ней происходит сейчас.

Возникает вопрос: как система "вычисляет" саму себя? Даже если в ней есть центральный орган, типа головного мозга, он не может рассчитывать состояния каждой элементарной частицы, от которых зависит, однако, состояние всей системы. Следовательно, каждая подсистема, и её подсистемы, вплоть до отдельных частиц, моментально, без малейшей задержки, должны "вычислять" себя сами. Что они и делают, специальных информационных ресурсов для этого не нужно.

Важной характеристикой системы является сложность управления – минимальные инфоресурсы, обеспечивающие её функциональную сложность. Эта характеристика включает несколько составляющих: сложности прогнозирования состояния системы и среды, сложность построения плана действий и сложность управления эффекторами. У систем, не контролирующих самосохранение, сложность управления равна 0. Но более сложные системы, "автономные агенты", должны предвидеть, то есть вычислять, хотя бы приблизительно, своё состояние и состояние среды в течение некоторого времени, формировать и выполнять некоторый план действий. Необходимые вычисления производятся центральным органом и/или ведущими подсистемами, которые в совокупности условно будем называть "вычислителем". (Под ведущими здесь следует понимать все подсистемы, способствующие сохранению целостности системы. У аутопоэтических систем (например, биологических видов или стихийных рынков) центрального органа как такового. нет, Но участники информационного обмена заинтересованы в целостности системы и действуют сообразно с этим. То есть все участники, или некоторые их подсистемы входят в "вычислитель" системы.)

С точки зрения теории алгоритмов быстродействие отчасти взаимозаменяемо с памятью: сложные вычисления часто можно упростить, сохраняя промежуточные результаты в дополнительной памяти. Большинство систем испытывает, как мы знаем, трудности с запоминанием и это ограничивает их сложность. Человек использует память на внешних  носителях неограниченного размера. Но, хотя это даёт нам большие преимущества, всё же мы ограничены скоростью, в том числе, чтения внешних носителей.

Объёмы инфоресурсов, необходимых "вычислителю" для прогнозирования состояния системы и среды, соответствуют их внешней сложности. Впрочем, они сильно зависят от требований по точности и глубине прогноза, так что простейшие могут ограничиться небольшой "таблицей", зашитой в их геноме. Самый ответственный момент, построение плана, часто регулируется надсистемой: у животных для этого имеются рефлексы, у человека моральные регуляторы, у организаций – регламент.

Единицы измерения вычислительной сложности отличаются от единиц измерения сложности описания. Но, если согласовать их между собой, сложность управления системы должна быть больше функциональной и меньше описательной, поскольку учитывает сложность исполнения всех её функций, но пренебрегает шумами. Для совершенствования способности систем к сохранению необходим рост (взвешенной) функциональной сложности и накопление актуальной информации (развитие структуры). При этом неизбежно растёт и сложность управления.

Если быстродействие в физических системах может быть значительным, то память косной природы ничтожна. Поэтому физические силы действуют каждый раз заново, случайно. И всё же за 10 млрд лет образовались достаточно устойчивые галактики, звёзды, в т.ч. Солнце, его планетная система и Земля. За следующие 4 млрд лет на ней возникла жизнь. Относительная стабильность звёздного мира связана с наличием у его грандиозных систем структуры, позволившей накопить некоторое количество информации.

Сложность управления живых организмов гораздо выше внешней вычислительной сложности сопоставимых по масштабу косных систем благодаря надёжному сохранению информации в "ячейках памяти" – молекулах ДНК. Развитие нейронных сетей головного мозга довело сложность организмов до человеческого уровня. Человек способен сохранять произвольное количество информации, используя внешнюю память разного рода. Но вычислительные возможности всего живого ограничены невысоким быстродействием.

Как уже упоминалось, сложность описания соответствует энтропии. Как логарифмические величины, энтропия и сложность описания аддитивны и растут с увеличением системы. Вычислительная сложность напрямую от размеров не зависит. При этом у скоплений она ниже, чем у систем, поскольку расчёт движения частиц можно заменить учётом интегральных характеристик (например, скорости частиц – температурой). Если связи приобретают существенное значение, такое упрощение невозможно. С другой стороны, жёсткие связи повышают упорядоченность, превращая систему в детерминированную машину. Её энтропия и сложность всех видов невысоки, развитие идёт по аттрактору. Поэтому наибольшей вычислительной сложностью обладают системы с большим количеством гибких связей, примером чему является человеческий мозг.

Пока системе хватает наличных информационных ресурсов, она просто заполняет тезаурус ценной, на её взгляд, информацией. Это характерно для молодых систем. Исчерпание ресурсов заставляет искать способы оптимизации. Например, путём декомпозиции управления, позволяющим использовать широкое разнообразие на нижних уровнях строения системы. Из него на конкурентной основе отбираются наиболее удачные решения, а остальные утилизируются (не "запоминаются"). Верхние уровни освобождаются от "ручного" управления, и получают готовый оптимальный результат. Этот путь характерен для аутопоэтических систем, реализуется в частности, биологическими видами и всей биосферой в целом. Роль верхнего уровня в отборе в этом случае выполняет среда. В системе венчурного капитала-стартапов уровней отбора может быть несколько.

Другим способом оптимизации является, напротив, перенос разнообразия на верхний уровень в соответствии с законом иерархических компенсаций, гласящим, что «в сложной иерархически организованной системе рост разнообразия на верхнем уровне обеспечивается ограничением разнообразия на предыдущих уровнях, и наоборот, рост разнообразия на нижнем уровне разрушает верхний уровень организации (т.е. система как таковая гибнет)» [Назаретян,2004]. Этот закон был  сформулирован А.П. Назаретяном, который назвал его "законом Седова" в честь Е.А. Седова, высказавшего, в частности, соображения об определённом проценте разнообразия, которое следует сосредотачивать на верхнем уровне иерархической системы. Однако утверждение о гибели системы от избытка разнообразия на нижних уровнях преувеличено, оно не вытекает с такой категоричностью ни из работ Седова, ни из работ самого Назаретяна. Распространённость первого метода оптимизации, декомпозиции, опровергает это положение. Вернее было бы сказать, что система как таковая МОЖЕТ погибнуть или деградировать.

Централизация, происходящая во втором случае, характерна для организмов, клетки которых подчинены сосредоточившему в себе значительное разнообразие мозгу. Разнообразие соотносится с энтропией, его уменьшение на нижнем уровне делает связи более жёсткими, что упрощает управление. Рост разнообразия верхнего уровня позволяет при этом увеличить информационные ресурсы.

Общества (и человечество в целом) используют оба метода. Простота  и быстрое достижение результата при централизации способствуют более частому выбору второго из них, особенно на ранних этапах развития и в условиях нестабильности. Но успешность декомпозиции периодически обрушивает возникающие при этом авторитарные системы.

В предыдущей заметке было отмечено, что целью любой системы является сохранение самой себя, надсистемы и/или своей информации. В условиях изменчивости среды из этих целей вытекает "сверхзадача" накопления актуальной информации и роста (взвешенной) функциональной сложности: для предупреждения возможных угроз системе необходима избыточность, она должна как можно больше знать и уметь. Биологические системы с этой целью наращивают свою численность до заполнения экологической ниши. Численность человечества, расширявшего свою нишу, росла до последнего времени по гиперболическому закону (подробнее об этом в заметках «Из чего состоит и куда идёт эволюция?» http://proza.ru/2020/07/23/700, «Как росло население Земли?», http://proza.ru/2022/01/26/1835 и следующих). Но продолжение такого роста невозможно и не нужно. Дальнейшее накопление информации и сложности будет идти, судя по всему, не биологическим путём.

Историю эволюции Вселенной и, в частности, Земли можно рассматривать как историю совершенствования средств запоминания. Для современного человечества запоминание информации перестаёт быть ограничением, но скорость её обработки не позволяет эффективно использовать уже добытое. Впрочем, сохранение – это средство, тогда как "целью", направлением развития Вселенной является собственно накопление информации. При этом объём потенциальной информации растёт вместе с энтропией уже в силу второго начала термодинамики, но не менее закономерен рост сложности и объёма структур, т.е. актуальной информации.

Другие заметки об общей теории эволюции систем:
Введение в общую теорию эволюции систем (http://proza.ru/2020/06/16/1776)
Эволюция и энтропия. «Тепловая смерть» Вселенной (http://proza.ru/2020/06/16/1790)
Э.Шрёдингер и эволюция, С. Хайтун и беспорядок   (http://proza.ru/2020/06/17/11)
Что такое информация? Взгляд эволюциониста  (http://proza.ru/2020/06/17/33)
Ценность информации.Целеполагание произвольной системы (http://proza.ru/2020/06/17/36)
Что такое сложность? Взгляд эволюциониста(эта заметка)
Зачем зажигают звёзды или Энергетика связей (http://proza.ru/2024/04/26/1135)
Пассивные связи: скелет, границы, сети...  (эта заметка)
Активные связи. Кооперация и конкуренция (http://proza.ru/2020/06/17/54)
Из чего состоит и куда идёт эволюция?(http://proza.ru/2020/07/23/700)
Общая теория эволюции систем. Некоторые итоги  (http://proza.ru/2020/06/17/73)

Литература:

Ллойд, С., 2013, «Программируя Вселенную. Квантовый компьютер и будущее науки», М.: Альпина нонфикшн.

Назаретян А.П., 2004, «Цивилизационные кризисы в контексте Универсальной истории»  Синергетика – психология – прогнозирование. М.: Мир. https://www.evolbiol.ru/document/1030

Чернавский, Д.С., 2016, «Синергетика и информация: Динамическая теория информации»  Изд. 5-ое, М., ООО "Леннанд".


Рецензии