Энтропия - только для физики и математики?

Пять мифов о развитии и энтропии. Миф второй.

            Загадочное слово «энтропия» меня всегда смущало и влекло.
            Её увидеть, как понять Россию, нам не поможет мудрое стекло.

     Рудольф Клаузиус в середине XIX века определил энтропию как функцию состояния системы, задающую меру необратимого рассеивания энергии, вычисляемую как отношение теплоты к абсолютной температуре тела. Теплота – это форма энергии, а тот температуры зависит направление передачи теплоты. Всегда переходя от тёплого тела к холодному, она увеличивает его энтропию. Энтропия тёплого тела при этом уменьшается, но на меньшую величину. В результате энергия рассеивается, а общая (суммарная) энтропия растёт.
     Создатель статистической физики Людвиг Больцман в конце XIX века связал энтропию со статистическим весом макросостояния системы, т.е. количеством способов, которыми можно расположить её элементы так, чтобы получить это состояние. Статистическая энтропия равна логарифму этого веса, умноженному на коэффициент, значение которого Больцман определил так, чтобы численно значения энтропий совпадали. При этом он показал, что оба представления эквивалентны.
     В 1948 году Клод Шеннон ввёл понятие энтропии в теории связи, развившейся в дальнейшем в теорию информации. Основные свойства информационной, статистической и термодинамической энтропий совпадают. Информация всегда связана с каким-нибудь материальным носителем, но сама по себе свойствами материального тела не обладает. Таким образом, энтропия выступает единой мерой материальных и идеальных процессов.
     Существуют и другие способы определения энтропии, используемые в разных дисциплинах и при различных условиях. Энтропию рассматривают как меру необратимости, непредсказуемости, неоднозначности, неопределённости, беспорядка или равновесности. Как бы ни определялась и где бы ни использовалась энтропия, её всегда можно связать со свободой: чем она выше, тем больше возможности у элементов занимать различные положения, в результате чего энергия, масса и/или информация  растекается по системе. С  ростом энтропии система становится однородней.
    Чаще всего в разных научных дисциплинах энтропия вычисляется, как взятая с минусом сумма произведений вероятностей событий на логарифмы этих же вероятностей (минус нужен, поскольку логарифмы вероятности отрицательны, а энтропия всегда положительна). Это то же представление Больцмана, но статистический вес (его называют также термодинамической вероятностью) макросостояния заменён здесь совокупностью (обычных) вероятностей событий, из которых это макросостояние состоит*. Если вероятности заданы не в точках, а распределены непрерывно, сумму заменяют интегралом. Такая функция:
– равна 0, если вероятность одного события равна 1, а остальных, соответственно, 0;
– растёт по мере сближения вероятностей состояний друг с другом;
– максимальна и равна логарифму числа состояний, если все вероятности равны между собой.
В непрерывном случае рост равномерности функции распределения увеличивает энтропию в пределе  до логарифма длины интервала, на котором функция отлична от нуля.
     Энтропия растёт как при сближении вероятностей, так и при увеличении числа состояний или длины интервала. Если система постоянно находится в одном или нескольких из возможных состояний, энтропия меньше, а при миграции с равной вероятностью по всему множеству доходит до максимума.
     Слово "состояние" можно понимать как
а) состояние (значение) элемента системы,
 б) микросостояние – совокупность значений элементов,
в) макросостояние – совокупность микросостояний, неразличимых на макроуровне.
Например, если состояние человека оценивать годовым доходом и способом его получения, под микросостоянием некоторого социума можно понимать совокупность этих состояний, отражённых налоговых декларациях, а макросостояние будет характеризоваться суммой поступлений от них в бюджет. Если же человека оценивать по моральным качествам, под микросостоянием можно понимать совокупность характеристик на всех членов общества, а макросостояние будет определться общим моральным настроем.
     Каждому состоянию соответствует некотоорая вероятность. Вероятности микро- и макросостояний можно выразить через вероятности значений элементов. Если микросостояния равновероятны, термодинамическая вероятность макросостояния определяется числом соответствующих ему микросостояний. термодинамическая вероятность в некотором смысле обратна обычной: она всегда больше единицы и её рост означает увеличение энтропии.
    Уважаемый учёный, кандидат физико-математических наук С.Д. Хайтун, запутавшись в вероятностях, утверждал, что у атома энтропия больше, чем у его осколков, только потому, что он не разваливается самопроизвольно на куски. Подробно о его ошибке можно почитать здесь: «Э.Шрёдингер и эволюция, С. Хайтун и беспорядок»  (http://proza.ru/2020/06/17/11).
     Системы не задерживаются в макросостояниях, которым соответствует малое количество микросостояний, т.е. низкий статистический вес. Например, если не класть вещи на место, полный порядок, соответствующий единственному состоянию "всё на своих местах" гораздо менее вероятен, чем бедлам. Из одного беспорядочного макросостояния самопроизвольно система может перейти только в ещё более беспорядочное.
    Можно рассматривать разные типы систем и идущих в них процессов. В стационарных вероятности состояний постоянны: система быстро переходит в наиболее вероятное и застывает в нём до вмешательства внешних сил. Развитие в таких системах невозможно. В квазистатических системах вероятности событий меняются медленно, и система успевает переходить в наиболее вероятные макросостояния. В более быстрых, динамических процессах и системах  вероятности состояний являются функцией времени, но движение в сторону роста равномерности происходит и в них. Что и означает рост энтропии, т.е. соответствует второму началу термодинамики.
     Если у инвесторов есть возможность свободного выбора объектов инвестиции, капитал перетекает в отрасли, которые  устойчиво дают большой доход. Схожие процессы наблюдается и в неживых системах: притяжение Земли приводит к неравномерному распределению молекул в атмосфере по высоте, так что верхние её слои неизбежно разрежены. Это снижает энтропию, но надо помнить, что неравномерность всегда вызывается действием силы, вносящей в систему организованную энергию. Если такой силы нет (например, внутри горизонтального слоя воздуха или для равновыгодных вложений средств), элементы распределяются равномерно и энтропия растёт. Все предприниматели могут пытаться производить один и тот же товар, только если он даёт сверхприбыль. Обычно инвесторы, предприниматели и наёмные работники распределяются, с учётом доходности мест приложения усилий, относительно равномерно. При отсутствии внешних возмущений любая система смещается в сторону роста вероятности и равновесности.
     Снижение энтропии в принципе невозможно без внесения в систему внешней энергии в организованной форме и/или выноса и рассеяния (диссипации) – в дезорганизованной. Но под воздействием внешних сил различия между вероятностями состояний могут увеличиваться, а  энтропия, следовательно, уменьшаться. Например, нестабильность приводит к повышению вероятности вложения средств в золото и недвижимость; внешние угрозы государству увеличивают вероятность поддержки правительства населением и т.д. И, наоборот, в стабильной обстановке инвестиции более равномерно растекаются по отраслям, а оппозиционные партии могут увеличить свой рейтинг.
     В сложных биологических или общественных процессах рост энтропии маскируется активными действиями систем по её снижению. Это не означает, что он отсутствует или идёт по особым законам. Там, где противодействия нет или оно недостаточно, например, в поведении больших неорганизованных групп, идут типичные энтропийные процессы: если поведение каждого члена группы случайно, группа в целом быстро переходит в наиболее вероятное макросостояние.
    Отметим, что самопроизвольный рост энтропии и течение времени (стрела времени) всегда имеют общее направление. Восходящая эволюция систем не может избегать увеличения энтропии, но, за счёт совершенствования структуры (накопления информации, активных и пассивных связей) локализует области её роста. (Подробнее об этом в заметках об общей теории эволюции систем, http://proza.ru/2020/06/16/1776 и др.)
    Понятие энтропии и второе начало термодинамики применимы к любым процессм. Важно только понимать и правильно использовать эти инструменты, не ограничиваясь штампами типа «энтропия – мера беспорядка» (о чём подробно здесь:  http://www.proza.ru/2018/09/30/1982).
Ред.11.10.2025

Далее - http://www.proza.ru/2018/09/30/1977
Назад - http://www.proza.ru/2018/09/30/1965
Начало (Пять мифов о развитии и энтропии. Введение http://www.proza.ru/2018/09/30/1948)

Об энтропии, ё свойствах и значении для  эволюции можно также почитать в заметке «Эволюция и энтропия. Тепловая смерть Вселенной» (http://proza.ru/2020/06/16/1790
и  популярной книге  М.В., Волькенштейна «Энтропия и информация», М., Наука, 1986).

* Разберём на простом примере соответствие формулы Больцмана S=k*log(w), (w – термодинамическая вероятность) более распространённой формуле
S=-СУММА[  p * log(p) ] (p – обычная вероятность события, суммирование идёт по всем событиям).
Пусть 3 яблока лежат в двух ящиках. Не различая ни ящики, ни яблоки, имеем два макросостояния: все яблоки в одном ящике или в одном – 2, в другом 1. Для первого w = 2, для второго w =6.
В первое макросостояние входят два события: все яблоки в первом ящике и все во втором. p=1/2, поэтому S= -2*1/2 *log(1/2)= log(2). Во второе входят 6 событий, различающихся расположением яблок. Для каждого p=1/6 и S= -6*1/6 *log(1/6)= log(6). Отличие от формулы Больцмана лишь в постоянном коэффициенте, имеющем значение только в термодинамике.

Фото из интернета: Бюст и формула энтропии на могиле Больцмана


Рецензии
Ключевая фраза "Чем больше энергии при данной температуре сохраняет тело, тем его энтропия выше."
Это означает, что энтропия есть объёмная (пространственная) характеристика тела, измеряемая в кубометрах, ведь если у разных тел в пространстве температура одинакова с окружающей средой, то больше энергии сосредоточено в теле с наибольшим объемом. Всё очень просто!

Борис Владимирович Пустозеров   27.12.2023 11:26     Заявить о нарушении
Спасибо за замечание. Конечно, энтропия растёт с увеличением объёма, но не всё так просто. Энтропия - величина статистическая и на линейные зависимости выходит только при достаточно большом количестве микросостояний. Пока их мало, строгие зависимости заменяются вероятностными. Период полураспада не означает, что данная конкретная молекула распадётся ровно в указанный срок.
С уважением

Валентин Кононов   27.12.2023 12:08   Заявить о нарушении
Уважаемый Валентин, Вы слегка недопонял. Я имею в виду, что энтропия сама по себе есть объём, а не то, что она растёт с увеличением объёма. Пусть она величина статистическая, но она является только величиной протяжённости и никакой другой, то есть она может измеряться лишь в кубических сантиметрах, кубометрах и т.п. Это следует из того факта, что отношение энергии (в т.ч. теплоты) к температуре всегда даёт объём.

Борис Владимирович Пустозеров   27.12.2023 17:18   Заявить о нарушении
У меня есть статья про давление и температуру http://proza.ru/2019/10/04/1682, там в целом разъясняется связь объёма, давления и энергии (в т.ч. совершенной работы) и показана связь температуры и давления. Вы можете посчитать это бредом, но это просто иной подход к физике.
С уважением,

Борис Владимирович Пустозеров   27.12.2023 17:31   Заявить о нарушении
Честно говоря, у меня нет большого желания вникать в Ваш подход к физике. Нет, я не назову его бредом, но, насколько смог понять, он весьма антропен: Вы принимаете только то, что видите или можете представить и отвергаете все сложные абстрактные построения.
Энтропия в общепринятом понимании - мера беспорядка, неравновесности. Зачем связывать с объёмом иные понятия? В единице объёма может быть больше или меньше вещества, больше или меньше энергии и степень упорядоченности того и другого может быть различна. Вот эту степень и должна показать энтропия.
С уважением,

Валентин Кононов   28.12.2023 17:01   Заявить о нарушении
Я исхожу из того, что мир есть реальность, которая есть независимо от нас (людей, других субъектов), и поэтому в ней нет места абстракциям, которые мы выдумываем лишь для того, чтобы как-то самим себе эту реальность объяснить. Так что чем проще мы эту реальность будем пытаться объяснять, тем ближе продвинемся в понимании её устройства, то есть быстрее поймём устройство Мира.
Этот подход к физике (и, кстати, к философии в неменьшей степени) себя уже оправдал наглядно - он позволяет получать чёткие определения всех (не многих, а всех!) используемых в естественных науках терминах и выявлять двусмысленность некоторых из них (той же энтропии, например). Вполне естественно, что он весьма антропен: учёный как раз и должен принимать только то, что реально видит, чувствует, измеряет и что может представить неабстрактно. Именно поэтому всякие сложности типа многомерных пространств и прочие выдумки являют собой абстрактные построения и не нужны в науке, они уводят мысль исследователя прочь от понимания простого устройства Мира.
Теперь по поводу энтропии. Любой реальный объект или явление (то, что есть независимо от нас, от любого субъекта) характеризуется свойством или способом проявления. У каждого реального качества или способа движения (изменения) есть своя физическая величина. У каждой величины есть либо минимальный предел, мера - ею меряют эту величину, либо максимальный предел, тогда меряют эту величину долями максимума. Когда предел ещё неизвестен, человек придумывает эту меру сам - например, метр для длины протяжённости или грамм для массы тяжести и т.п. Так что энтропия может служить не мерой, а величиной беспорядка, неравновесности. и тогда возникает вопрос - какой объект может характеризоваться "беспорядочностью"? Это может быть лишь пространство какой-то системы, в которой частицы или физические тела беспорядочно расположены, либо беспорядочно (неравновесно) двигаются. То есть неравновесность (беспорядок) может присутствовать либо во всём пространстве системы, либо в определённым образом расположенных участках этого пространства. Вот Вам и ответ на Ваш вопрос - "Зачем связывать с объёмом иные понятия?" При этом Вы полностью правы, что "в единице объёма может быть больше или меньше вещества, больше или меньше энергии", но эти факты раскроют нам понятия плотности и давления, а не степень упорядоченности.
С уважением,

Борис Владимирович Пустозеров   28.12.2023 17:50   Заявить о нарушении
Абстракции не могут объяснить всего, но они необходимы, чтобы понять глубже, связать удалённые понятия. Арифметика оперирует цифрами, более абстрактная алгебра позволяет одним знаком заменить любое число и облегчает этим понимание многих процессов, того же давления, которое изучали Торричелли и Паскаль. Математический анализ позволяет при помощи производных объединить понятия скорости изменения любых величин. Интегралы помогают измерять площади и объёмы, позволяют изучать процесс и прогнозировать его ход по скорости, возвращаясь от производной к исходной функции (первообразной). Дальнейшими абстракциями являются функциональный, тензорный, комплексный анализ и т.д. Они не объясняют всего, прогноз на основании любых абстракций не может быть исчерпывающим и окончательным,но отказываться от абстрактных знаний так же глупо, как отказываться от использования лестниц. Нет лестницы, по которой можно залезть куда угодно, есть места, куда никакая лестница не поможет забраться, но это же не значит, что лестницы не нужны?
Все научные достижения, многими из которых Вы пользуетесь, получены на основании абстракций. Подумайте об этом.
С уважением,

Валентин Кононов   29.12.2023 12:28   Заявить о нарушении
Вот Вы пишете "абстрактная алгебра позволяет одним знаком заменить любое число и облегчает этим понимание многих процессов", но тут нет никакой абстракции, есть лишь обобщение, также как под словом "движение" мы можем понимать любое действие и любой процесс. И в этом смысле алгебра не абстрактна, а самая что ни на есть естественная наука, инструмент для физики. Но именно инструмент! Потому что, когда математик начинает придумывать мнимые числа и извлекать корни из отрицательных чисел, а затем пытается перенести подобные же действия на реальные объекты и явления, тогда уже получается абстракция, потому что отсутствие объекта не есть объект, и прямое действие не есть действие встречное - в реальности всегда есть воздействие и восприятие, меж ними огромное различие. Абстракция в математике останется абстракцией и в физике, следовательно, она никакого знания людям не даст.
С уважением,

Борис Владимирович Пустозеров   29.12.2023 15:59   Заявить о нарушении
А знаете ли Вы, что волновые процессы описываются именно комплексными числами, т.е. с использованием мнимых частей и корней из -1? Квантовая физика на них построена полностью, а предсказательной силе квантовых вычислений удивляются сами физики: в микромире всё происходит точно так, как предсказывают производимые на основе теории расчёты! Если в классической физике отклонения экспериментальных данных от расчётных может достигать процентов и более, в квантовой оно на много порядков ниже.
Есть понятные для Вас вещи, и Вы их не хотите считать абстракцией, а всё, во что не вникли, огулом в "небытие" отправляете. Нехорошо!

Валентин Кононов   29.12.2023 23:20   Заявить о нарушении
Тут Вы правы. Каюсь, но я огулом всю квантовую физику считаю высосанный из пальца. И не думаю, что кто-то сможет мне доказать её правильность,потому что я уже знаю, что такое фотон, электрон и протон, а "квантовые" физики ещё не знают.

Борис Владимирович Пустозеров   30.12.2023 23:19   Заявить о нарушении
Вы не знаете, что такое элементарные частицы, а придумали своё объяснение и тем горды. (А гордость - смертный грех, между прочим!). Физики таких "объяснений" знают множество, но все они их не до конца устраивают. Зато, хоть и не до конца понимают, считать - при помощи отвергаемых Вами абстракций научились. И Вы постоянно пользуетесь их достижениями, потому что без них не было бы половины современной техники.

Валентин Кононов   31.12.2023 12:23   Заявить о нарушении
Вот тут уже Вы неправы. Вся современная техника и все новые методы коммуникаций, включая компьютеры и интернет, появились не благодаря, а именно вопреки теориям и всей квантовой механике! Инженеры всегда действовали и действуют методом тыка, не обращая внимания на выдумки теоретиков, а те не успевают объяснить изобретённое инженерами, настолько быстро развивается технический прогресс.

Борис Владимирович Пустозеров   31.12.2023 14:19   Заявить о нарушении
Ну, тут с Вами не поспоришь. Ума у Вас не отнять. Чего нет - того нет.

Валентин Кононов   31.12.2023 17:16   Заявить о нарушении
И вам тоже крепкого здоровья! С Новым годом!

Борис Владимирович Пустозеров   01.01.2024 02:55   Заявить о нарушении