Энтропия - только для физики и математики?
Загадочное слово «энтропия» меня всегда смущало и влекло.
Её увидеть, как понять Россию, нам не поможет мудрое стекло.
Рудольф Клаузиус в середине XIX века определил энтропию как функцию состояния системы, задающую меру необратимого рассеивания энергии, вычисляемую как отношение теплоты к абсолютной температуре тела. Теплота – это форма энергии, а тот температуры зависит направление передачи теплоты. Всегда переходя от тёплого тела к холодному, она увеличивает его энтропию. Энтропия тёплого тела при этом уменьшается, но на меньшую величину. В результате энергия рассеивается, а общая (суммарная) энтропия растёт.
Создатель статистической физики Людвиг Больцман в конце XIX века связал энтропию со статистическим весом макросостояния системы, т.е. количеством способов, которыми можно расположить её элементы так, чтобы получить это состояние. Статистическая энтропия равна логарифму этого веса, умноженному на коэффициент, значение которого Больцман определил так, чтобы численно значения энтропий совпадали. При этом он показал, что оба представления эквивалентны.
В 1948 году Клод Шеннон ввёл понятие энтропии в теории связи, развившейся в дальнейшем в теорию информации. Основные свойства информационной, статистической и термодинамической энтропий совпадают. Информация всегда связана с каким-нибудь материальным носителем, но сама по себе свойствами материального тела не обладает. Таким образом, энтропия выступает единой мерой материальных и идеальных процессов.
Существуют и другие способы определения энтропии, используемые в разных дисциплинах и при различных условиях. Энтропию рассматривают как меру необратимости, непредсказуемости, неоднозначности, неопределённости, беспорядка или равновесности. Как бы ни определялась и где бы ни использовалась энтропия, её всегда можно связать со свободой: чем она выше, тем больше возможности у элементов занимать различные положения, в результате чего энергия, масса и/или информация растекается по системе. С ростом энтропии система становится однородней.
Чаще всего в разных научных дисциплинах энтропия вычисляется, как взятая с минусом сумма произведений вероятностей событий на логарифмы этих же вероятностей (минус нужен, поскольку логарифмы вероятности отрицательны, а энтропия всегда положительна). Это то же представление Больцмана, но статистический вес (его называют также термодинамической вероятностью) макросостояния заменён здесь совокупностью (обычных) вероятностей событий, из которых это макросостояние состоит*. Если вероятности заданы не в точках, а распределены непрерывно, сумму заменяют интегралом. Такая функция:
– равна 0, если вероятность одного события равна 1, а остальных, соответственно, 0;
– растёт по мере сближения вероятностей состояний друг с другом;
– максимальна и равна логарифму числа состояний, если все вероятности равны между собой.
В непрерывном случае рост равномерности функции распределения увеличивает энтропию в пределе до логарифма длины интервала, на котором функция отлична от нуля.
Энтропия растёт как при сближении вероятностей, так и при увеличении числа состояний или длины интервала. Если система постоянно находится в одном или нескольких из возможных состояний, энтропия меньше, а при миграции с равной вероятностью по всему множеству доходит до максимума.
Слово "состояние" можно понимать как
а) состояние (значение) элемента системы,
б) микросостояние – совокупность значений элементов,
в) макросостояние – совокупность микросостояний, неразличимых на макроуровне.
Например, если состояние человека оценивать годовым доходом и способом его получения, под микросостоянием некоторого социума можно понимать совокупность этих состояний, отражённых налоговых декларациях, а макросостояние будет характеризоваться суммой поступлений от них в бюджет. Если же человека оценивать по моральным качествам, под микросостоянием можно понимать совокупность характеристик на всех членов общества, а макросостояние будет определться общим моральным настроем.
Каждому состоянию соответствует некотоорая вероятность. Вероятности микро- и макросостояний можно выразить через вероятности значений элементов. Если микросостояния равновероятны, термодинамическая вероятность макросостояния определяется числом соответствующих ему микросостояний. термодинамическая вероятность в некотором смысле обратна обычной: она всегда больше единицы и её рост означает увеличение энтропии.
Уважаемый учёный, кандидат физико-математических наук С.Д. Хайтун, запутавшись в вероятностях, утверждал, что у атома энтропия больше, чем у его осколков, только потому, что он не разваливается самопроизвольно на куски. Подробно о его ошибке можно почитать здесь: «Э.Шрёдингер и эволюция, С. Хайтун и беспорядок» (http://proza.ru/2020/06/17/11).
Системы не задерживаются в макросостояниях, которым соответствует малое количество микросостояний, т.е. низкий статистический вес. Например, если не класть вещи на место, полный порядок, соответствующий единственному состоянию "всё на своих местах" гораздо менее вероятен, чем бедлам. Из одного беспорядочного макросостояния самопроизвольно система может перейти только в ещё более беспорядочное.
Можно рассматривать разные типы систем и идущих в них процессов. В стационарных вероятности состояний постоянны: система быстро переходит в наиболее вероятное и застывает в нём до вмешательства внешних сил. Развитие в таких системах невозможно. В квазистатических системах вероятности событий меняются медленно, и система успевает переходить в наиболее вероятные макросостояния. В более быстрых, динамических процессах и системах вероятности состояний являются функцией времени, но движение в сторону роста равномерности происходит и в них. Что и означает рост энтропии, т.е. соответствует второму началу термодинамики.
Если у инвесторов есть возможность свободного выбора объектов инвестиции, капитал перетекает в отрасли, которые устойчиво дают большой доход. Схожие процессы наблюдается и в неживых системах: притяжение Земли приводит к неравномерному распределению молекул в атмосфере по высоте, так что верхние её слои неизбежно разрежены. Это снижает энтропию, но надо помнить, что неравномерность всегда вызывается действием силы, вносящей в систему организованную энергию. Если такой силы нет (например, внутри горизонтального слоя воздуха или для равновыгодных вложений средств), элементы распределяются равномерно и энтропия растёт. Все предприниматели могут пытаться производить один и тот же товар, только если он даёт сверхприбыль. Обычно инвесторы, предприниматели и наёмные работники распределяются, с учётом доходности мест приложения усилий, относительно равномерно. При отсутствии внешних возмущений любая система смещается в сторону роста вероятности и равновесности.
Снижение энтропии в принципе невозможно без внесения в систему внешней энергии в организованной форме и/или выноса и рассеяния (диссипации) – в дезорганизованной. Но под воздействием внешних сил различия между вероятностями состояний могут увеличиваться, а энтропия, следовательно, уменьшаться. Например, нестабильность приводит к повышению вероятности вложения средств в золото и недвижимость; внешние угрозы государству увеличивают вероятность поддержки правительства населением и т.д. И, наоборот, в стабильной обстановке инвестиции более равномерно растекаются по отраслям, а оппозиционные партии могут увеличить свой рейтинг.
В сложных биологических или общественных процессах рост энтропии маскируется активными действиями систем по её снижению. Это не означает, что он отсутствует или идёт по особым законам. Там, где противодействия нет или оно недостаточно, например, в поведении больших неорганизованных групп, идут типичные энтропийные процессы: если поведение каждого члена группы случайно, группа в целом быстро переходит в наиболее вероятное макросостояние.
Отметим, что самопроизвольный рост энтропии и течение времени (стрела времени) всегда имеют общее направление. Восходящая эволюция систем не может избегать увеличения энтропии, но, за счёт совершенствования структуры (накопления информации, активных и пассивных связей) локализует области её роста. (Подробнее об этом в заметках об общей теории эволюции систем, http://proza.ru/2020/06/16/1776 и др.)
Понятие энтропии и второе начало термодинамики применимы к любым процессм. Важно только понимать и правильно использовать эти инструменты, не ограничиваясь штампами типа «энтропия – мера беспорядка» (о чём подробно здесь: http://www.proza.ru/2018/09/30/1982).
Ред.11.10.2025
Далее - http://www.proza.ru/2018/09/30/1977
Назад - http://www.proza.ru/2018/09/30/1965
Начало (Пять мифов о развитии и энтропии. Введение http://www.proza.ru/2018/09/30/1948)
Об энтропии, ё свойствах и значении для эволюции можно также почитать в заметке «Эволюция и энтропия. Тепловая смерть Вселенной» (http://proza.ru/2020/06/16/1790
и популярной книге М.В., Волькенштейна «Энтропия и информация», М., Наука, 1986).
* Разберём на простом примере соответствие формулы Больцмана S=k*log(w), (w – термодинамическая вероятность) более распространённой формуле
S=-СУММА[ p * log(p) ] (p – обычная вероятность события, суммирование идёт по всем событиям).
Пусть 3 яблока лежат в двух ящиках. Не различая ни ящики, ни яблоки, имеем два макросостояния: все яблоки в одном ящике или в одном – 2, в другом 1. Для первого w = 2, для второго w =6.
В первое макросостояние входят два события: все яблоки в первом ящике и все во втором. p=1/2, поэтому S= -2*1/2 *log(1/2)= log(2). Во второе входят 6 событий, различающихся расположением яблок. Для каждого p=1/6 и S= -6*1/6 *log(1/6)= log(6). Отличие от формулы Больцмана лишь в постоянном коэффициенте, имеющем значение только в термодинамике.
Фото из интернета: Бюст и формула энтропии на могиле Больцмана
Свидетельство о публикации №218093001974
Это означает, что энтропия есть объёмная (пространственная) характеристика тела, измеряемая в кубометрах, ведь если у разных тел в пространстве температура одинакова с окружающей средой, то больше энергии сосредоточено в теле с наибольшим объемом. Всё очень просто!
Борис Владимирович Пустозеров 27.12.2023 11:26 Заявить о нарушении
С уважением
Валентин Кононов 27.12.2023 12:08 Заявить о нарушении
Борис Владимирович Пустозеров 27.12.2023 17:18 Заявить о нарушении
С уважением,
Борис Владимирович Пустозеров 27.12.2023 17:31 Заявить о нарушении
Энтропия в общепринятом понимании - мера беспорядка, неравновесности. Зачем связывать с объёмом иные понятия? В единице объёма может быть больше или меньше вещества, больше или меньше энергии и степень упорядоченности того и другого может быть различна. Вот эту степень и должна показать энтропия.
С уважением,
Валентин Кононов 28.12.2023 17:01 Заявить о нарушении
Этот подход к физике (и, кстати, к философии в неменьшей степени) себя уже оправдал наглядно - он позволяет получать чёткие определения всех (не многих, а всех!) используемых в естественных науках терминах и выявлять двусмысленность некоторых из них (той же энтропии, например). Вполне естественно, что он весьма антропен: учёный как раз и должен принимать только то, что реально видит, чувствует, измеряет и что может представить неабстрактно. Именно поэтому всякие сложности типа многомерных пространств и прочие выдумки являют собой абстрактные построения и не нужны в науке, они уводят мысль исследователя прочь от понимания простого устройства Мира.
Теперь по поводу энтропии. Любой реальный объект или явление (то, что есть независимо от нас, от любого субъекта) характеризуется свойством или способом проявления. У каждого реального качества или способа движения (изменения) есть своя физическая величина. У каждой величины есть либо минимальный предел, мера - ею меряют эту величину, либо максимальный предел, тогда меряют эту величину долями максимума. Когда предел ещё неизвестен, человек придумывает эту меру сам - например, метр для длины протяжённости или грамм для массы тяжести и т.п. Так что энтропия может служить не мерой, а величиной беспорядка, неравновесности. и тогда возникает вопрос - какой объект может характеризоваться "беспорядочностью"? Это может быть лишь пространство какой-то системы, в которой частицы или физические тела беспорядочно расположены, либо беспорядочно (неравновесно) двигаются. То есть неравновесность (беспорядок) может присутствовать либо во всём пространстве системы, либо в определённым образом расположенных участках этого пространства. Вот Вам и ответ на Ваш вопрос - "Зачем связывать с объёмом иные понятия?" При этом Вы полностью правы, что "в единице объёма может быть больше или меньше вещества, больше или меньше энергии", но эти факты раскроют нам понятия плотности и давления, а не степень упорядоченности.
С уважением,
Борис Владимирович Пустозеров 28.12.2023 17:50 Заявить о нарушении
Все научные достижения, многими из которых Вы пользуетесь, получены на основании абстракций. Подумайте об этом.
С уважением,
Валентин Кононов 29.12.2023 12:28 Заявить о нарушении
С уважением,
Борис Владимирович Пустозеров 29.12.2023 15:59 Заявить о нарушении
Есть понятные для Вас вещи, и Вы их не хотите считать абстракцией, а всё, во что не вникли, огулом в "небытие" отправляете. Нехорошо!
Валентин Кононов 29.12.2023 23:20 Заявить о нарушении
Борис Владимирович Пустозеров 30.12.2023 23:19 Заявить о нарушении
Валентин Кононов 31.12.2023 12:23 Заявить о нарушении
Борис Владимирович Пустозеров 31.12.2023 14:19 Заявить о нарушении
Валентин Кононов 31.12.2023 17:16 Заявить о нарушении
Борис Владимирович Пустозеров 01.01.2024 02:55 Заявить о нарушении
