Энтропия - только для физики и математики?

Пять мифов о развитии и энтропии. Миф второй.

            Загадочное слово «энтропия» меня всегда смущало и влекло.
            Её увидеть, как понять Россию, нам не поможет мудрое стекло.

Ред.28.01.2022
(Об энтропии, ё свойствах и значении для  эволюции можно также почитать в моих заметках:
 Эскиз общей теории эволюции систем (http://proza.ru/2020/06/16/1776)
Эволюция и энтропия. «Тепловая смерть» Вселенной (http://proza.ru/2020/06/16/1790)
Э.Шрёдингер и эволюция, С. Хайтун и беспорядок   (http://proza.ru/2020/06/17/11)
И  популярной книге  М.В., Волькенштейна «Энтропия и информация», М., Наука, 1986).

     Рудольф Клаузиус в середине XIX века определил энтропию как функцию состояния системы, задающую меру необратимого рассеивания энергии. В развитой им науке - термодинамике она вычисляется как отношение теплоты к абсолютной температуре тела. Теплота – это форма энергии. А тот температуры зависит направление передачи теплоты – она всегда переходит от тёплого тела к холодному. Чем больше энергии при данной температуре сохраняет тело, тем его энтропия выше.
     Создатель статистической физики Людвиг Больцман в конце XIX века связал энтропию со статистическим весом (термодинамической вероятностью) макросостояния системы. Энтропия Больцмана пропорциональна логарифму этого веса. Но это не другая величина, Больцман показал, что оба представления энтропии  эквивалентны.
     В 1948 году Клод Шеннон ввёл понятие энтропии в теории связи, развившейся в дальнейшем в теорию информации. Основные свойства информационной и термодинамической энтропий совпадают. Информация всегда связана с каким-нибудь материальным носителем, но сама по себе свойствами материального тела не обладает, она идеальна. Таким образом, энтропия выступает единой мерой материальных и идеальных процессов.
     Существуют и другие способы определения энтропии, используемые в разных дисциплинах и при различных условиях. Энтропию рассматривают как меру необратимости, непредсказуемости, неоднозначности, неопределённости, беспорядка или равновесности. Как бы ни определялась и где бы ни использовалась энтропия, основным её свойством является свобода, рост которой "позволяет" элементам занимать любое возможное положение, в результате чего энергия, материя и/или информация  растекается по системе. Материя и информация не могут перемещаться без участия энергии, поэтому чаще, говоря об энтропии, имеют в виду степень деградации энергии.
     Как правило, энтропия выражается статистической функцией, характеризующей распределение вероятностей допустимых состояний. Чаще всего в разных научных дисциплинах она вычисляется, как взятая с минусом сумма произведений вероятностей событий на логарифмы этих же вероятностей (минус нужен, поскольку логарифмы вероятности отрицательны, а энтропия всегда положительна). Если вероятности заданы не в точках, а распределены непрерывно, сумму заменяют интегралом. Такая функция:
– равна 0, если вероятность одного состояния равна 1, а остальных, соответственно, 0;
– растёт по мере сближения вероятностей состояний друг с другом;
– максимальна и равна логарифму числа состояний, если все вероятности равны между собой.
В непрерывном случае рост равномерности функции распределения увеличивает энтропию в пределе  до логарифма длины интервала, на котором функция отлична от нуля.
Энтропия растёт в двух случаях: если растёт число (мощность множества, длина интервала) состояний и если сближаются их вероятности. Если система постоянно находится в одном или нескольких из возможных состояний, энтропия меньше, а если с равной вероятностью мигрирует по всему множеству, она максимальна.
     Слово "состояние" можно понимать как
а) состояние элемента системы (его значение),
 б) микросостояние – совокупность значений элементов,
в) макросостояние – совокупность микросостояний, неразличимых на макроуровне.
Например, если состояние человека оценивать годовым доходом и способом его получения, под микросостоянием некоторого социума можно понимать совокупность налоговых деклараций его членов, а макросостояние будет характеризоваться общими поступлениями от них в бюджет. Если же человека оценивать по его моральным качествам, под микросостоянием можно понимать совокупность характеристик каждого члена общества, а макросостояние будет характеризоваться его общим моральным настроем.
     Каждое состояние любого вида имеет определённую вероятность. Вероятности микро- и макросостояний могут быть выражены через вероятности значений элементов. В статистической физике обычно рассматривают микросостояния, имеющие одинаковую вероятность. Поэтому статистический вес, или термодинамическую вероятность макросостояния можно определять количеством соответствующих ему микросостояний. Такая вероятность в некотором смысле обратна обычной: она всегда больше единицы и её рост означает увеличение энтропии.
     Обычная вероятность определяется отношением числа благоприятствующих событий к числу всех возможных. Если сравнивать два макросостояния, переход системы из менее в более вероятное  может означать рост энтропии. Но, в отличие от термодинамической, рост обычной вероятности одного состояния происходит за счёт других. Если он приводит к росту неравномерности системы, энтропия снижается. Уважаемый учёный, кандидат физико-математических наук С.Д. Хайтун, запутавшись в вероятностях, утверждал, что у атома энтропия больше, чем у его осколков, только потому, что он не разваливается самопроизвольно на куски, т.е. вероятность сохранения целостного атома выше. Но рост обычной (в отличие от термодинамической) вероятности,  НЕ ВСЕГДА означает рост энтропии. В примере с атомом лучше посмотреть на равномерность распределения энергии, которая выше у осколков, что всегда означает бо’льшую энтропию.
     Система не может задержаться в макросостоянии, которому соответствует малое количество микросостояний, т.е. низкий статистический вес. Например, если не класть вещи на место сразу или не убирать их периодически, полный порядок, соответствующий единственному микросостоянию "всё на своих местах" гораздо менее вероятен, чем бедлам, образуемый любым из множества беспорядочных состояний. Из одного беспорядочного макросостояния самопроизвольно система может перейти только в ещё более беспорядочное, имеющее больший статистический вес, т.е. бо’льшую энтропию. 
    Можно рассматривать разные типы систем и идущих в них процессов. В стационарных вероятности состояний постоянны. Система быстро переходит в наиболее вероятное и застывает в нём до вмешательства внешних сил. Развитие,  которое нас интересует, в таких системах невозможно. В квазистатических системах вероятности меняются достаточно медленно, и система успевает переходить в наиболее вероятные макросостояния. В более быстрых, динамических процессах и системах  вероятности состояний являются функцией времени, но движение в сторону роста равномерности происходит всегда. Что и означает рост энтропии, т.е. соответствует второму началу термодинамики.
     Если у инвесторов есть возможность свободного выбора объектов инвестиции, капитал перетекает в отрасли, которые  устойчиво дают большой доход. Схожие процессы наблюдается и в неживых системах: притяжение Земли приводит к неравномерному распределению молекул в атмосфере по высоте, так что верхние её слои неизбежно разрежены. Это снижает энтропию, но надо помнить, что неравномерность всегда вызывается действием соответствующей силы, т.е. внесением в систему организованной энергии. Если такой силы нет (например, внутри горизонтального слоя воздуха или для равновыгодных вложений средств), элементы распределяются равномерно и энтропия растёт. Все предприниматели могут начать производить один и тот же продукт, только если он даёт сверхприбыль. Обычно инвесторы, предприниматели и наёмные работники распределяются, с учётом доходности мест приложения усилий, относительно равномерно. Это может не соответствовать наибольшему числу возможных комбинаций выбора, поскольку вероятности микросостояний в сложных системах могут сильно различаться, но при отсутствии внешних возмущений любая система смещается в сторону роста вероятности и равновесности макросостояний.
     Снижение энтропии в принципе невозможно без внесения в систему внешней энергии в организованной форме и/или выноса и рассеяния (диссипации) – в дезорганизованной. Но под воздействием внешних сил различия между вероятностями состояний могут увеличиваться, а  энтропия, следовательно, уменьшаться. Например, нестабильность приводит к повышению вероятности вложения средств в золото и недвижимость; внешние угрозы государству увеличивают вероятность поддержки правительства населением и т.д. И, наоборот, в стабильной обстановке инвестиции более равномерно растекаются по отраслям, а оппозиционные партии получают шанс увеличить свой рейтинг.
     В сложных биологических или общественных процессах рост энтропии маскируется активными действиями систем по её снижению. Это не означает, что он отсутствует или идёт по особым законам. Там, где противодействия нет или оно недостаточно, например, в поведении больших неорганизованных групп, можно проследить типичные энтропийные процессы: если поведение каждого члена группы случайно, группа в целом быстро переходит в наиболее вероятное макросостояние.
     Следует особо отметить, что самопроизвольный рост энтропии и течение времени (стрела времени) всегда имеют общее направление. Это – ключевой факт для понимания восходящей эволюции систем, которая не может избегать увеличения энтропии, но, за счёт накопления информации, активных и пассивных связей, локализует области её роста. (Подробнее об этом в заметках об общей теории эволюции систем, http://proza.ru/2020/06/16/1776 и др.)
     Можно утверждать, что понятие энтропии и действие второго начала термодинамики распространяется на любые процессы. Важно только понимать и правильно использовать эти инструменты, не ограничиваясь штампами типа «энтропия – мера беспорядка» (о чём подробно в четвёртом мифе, http://www.proza.ru/2018/09/30/1982).
Далее - http://www.proza.ru/2018/09/30/1977
Назад - http://www.proza.ru/2018/09/30/1965
Начало (Пять мифов о развитии и энтропии. Введение http://www.proza.ru/2018/09/30/1948)


Рецензии
Ключевая фраза "Чем больше энергии при данной температуре сохраняет тело, тем его энтропия выше."
Это означает, что энтропия есть объёмная (пространственная) характеристика тела, измеряемая в кубометрах, ведь если у разных тел в пространстве температура одинакова с окружающей средой, то больше энергии сосредоточено в теле с наибольшим объемом. Всё очень просто!

Борис Владимирович Пустозеров   27.12.2023 11:26     Заявить о нарушении
Спасибо за замечание. Конечно, энтропия растёт с увеличением объёма, но не всё так просто. Энтропия - величина статистическая и на линейные зависимости выходит только при достаточно большом количестве микросостояний. Пока их мало, строгие зависимости заменяются вероятностными. Период полураспада не означает, что данная конкретная молекула распадётся ровно в указанный срок.
С уважением

Валентин Кононов   27.12.2023 12:08   Заявить о нарушении
Уважаемый Валентин, Вы слегка недопонял. Я имею в виду, что энтропия сама по себе есть объём, а не то, что она растёт с увеличением объёма. Пусть она величина статистическая, но она является только величиной протяжённости и никакой другой, то есть она может измеряться лишь в кубических сантиметрах, кубометрах и т.п. Это следует из того факта, что отношение энергии (в т.ч. теплоты) к температуре всегда даёт объём.

Борис Владимирович Пустозеров   27.12.2023 17:18   Заявить о нарушении
У меня есть статья про давление и температуру http://proza.ru/2019/10/04/1682, там в целом разъясняется связь объёма, давления и энергии (в т.ч. совершенной работы) и показана связь температуры и давления. Вы можете посчитать это бредом, но это просто иной подход к физике.
С уважением,

Борис Владимирович Пустозеров   27.12.2023 17:31   Заявить о нарушении
Честно говоря, у меня нет большого желания вникать в Ваш подход к физике. Нет, я не назову его бредом, но, насколько смог понять, он весьма антропен: Вы принимаете только то, что видите или можете представить и отвергаете все сложные абстрактные построения.
Энтропия в общепринятом понимании - мера беспорядка, неравновесности. Зачем связывать с объёмом иные понятия? В единице объёма может быть больше или меньше вещества, больше или меньше энергии и степень упорядоченности того и другого может быть различна. Вот эту степень и должна показать энтропия.
С уважением,

Валентин Кононов   28.12.2023 17:01   Заявить о нарушении
Я исхожу из того, что мир есть реальность, которая есть независимо от нас (людей, других субъектов), и поэтому в ней нет места абстракциям, которые мы выдумываем лишь для того, чтобы как-то самим себе эту реальность объяснить. Так что чем проще мы эту реальность будем пытаться объяснять, тем ближе продвинемся в понимании её устройства, то есть быстрее поймём устройство Мира.
Этот подход к физике (и, кстати, к философии в неменьшей степени) себя уже оправдал наглядно - он позволяет получать чёткие определения всех (не многих, а всех!) используемых в естественных науках терминах и выявлять двусмысленность некоторых из них (той же энтропии, например). Вполне естественно, что он весьма антропен: учёный как раз и должен принимать только то, что реально видит, чувствует, измеряет и что может представить неабстрактно. Именно поэтому всякие сложности типа многомерных пространств и прочие выдумки являют собой абстрактные построения и не нужны в науке, они уводят мысль исследователя прочь от понимания простого устройства Мира.
Теперь по поводу энтропии. Любой реальный объект или явление (то, что есть независимо от нас, от любого субъекта) характеризуется свойством или способом проявления. У каждого реального качества или способа движения (изменения) есть своя физическая величина. У каждой величины есть либо минимальный предел, мера - ею меряют эту величину, либо максимальный предел, тогда меряют эту величину долями максимума. Когда предел ещё неизвестен, человек придумывает эту меру сам - например, метр для длины протяжённости или грамм для массы тяжести и т.п. Так что энтропия может служить не мерой, а величиной беспорядка, неравновесности. и тогда возникает вопрос - какой объект может характеризоваться "беспорядочностью"? Это может быть лишь пространство какой-то системы, в которой частицы или физические тела беспорядочно расположены, либо беспорядочно (неравновесно) двигаются. То есть неравновесность (беспорядок) может присутствовать либо во всём пространстве системы, либо в определённым образом расположенных участках этого пространства. Вот Вам и ответ на Ваш вопрос - "Зачем связывать с объёмом иные понятия?" При этом Вы полностью правы, что "в единице объёма может быть больше или меньше вещества, больше или меньше энергии", но эти факты раскроют нам понятия плотности и давления, а не степень упорядоченности.
С уважением,

Борис Владимирович Пустозеров   28.12.2023 17:50   Заявить о нарушении
Абстракции не могут объяснить всего, но они необходимы, чтобы понять глубже, связать удалённые понятия. Арифметика оперирует цифрами, более абстрактная алгебра позволяет одним знаком заменить любое число и облегчает этим понимание многих процессов, того же давления, которое изучали Торричелли и Паскаль. Математический анализ позволяет при помощи производных объединить понятия скорости изменения любых величин. Интегралы помогают измерять площади и объёмы, позволяют изучать процесс и прогнозировать его ход по скорости, возвращаясь от производной к исходной функции (первообразной). Дальнейшими абстракциями являются функциональный, тензорный, комплексный анализ и т.д. Они не объясняют всего, прогноз на основании любых абстракций не может быть исчерпывающим и окончательным,но отказываться от абстрактных знаний так же глупо, как отказываться от использования лестниц. Нет лестницы, по которой можно залезть куда угодно, есть места, куда никакая лестница не поможет забраться, но это же не значит, что лестницы не нужны?
Все научные достижения, многими из которых Вы пользуетесь, получены на основании абстракций. Подумайте об этом.
С уважением,

Валентин Кононов   29.12.2023 12:28   Заявить о нарушении
Вот Вы пишете "абстрактная алгебра позволяет одним знаком заменить любое число и облегчает этим понимание многих процессов", но тут нет никакой абстракции, есть лишь обобщение, также как под словом "движение" мы можем понимать любое действие и любой процесс. И в этом смысле алгебра не абстрактна, а самая что ни на есть естественная наука, инструмент для физики. Но именно инструмент! Потому что, когда математик начинает придумывать мнимые числа и извлекать корни из отрицательных чисел, а затем пытается перенести подобные же действия на реальные объекты и явления, тогда уже получается абстракция, потому что отсутствие объекта не есть объект, и прямое действие не есть действие встречное - в реальности всегда есть воздействие и восприятие, меж ними огромное различие. Абстракция в математике останется абстракцией и в физике, следовательно, она никакого знания людям не даст.
С уважением,

Борис Владимирович Пустозеров   29.12.2023 15:59   Заявить о нарушении
А знаете ли Вы, что волновые процессы описываются именно комплексными числами, т.е. с использованием мнимых частей и корней из -1? Квантовая физика на них построена полностью, а предсказательной силе квантовых вычислений удивляются сами физики: в микромире всё происходит точно так, как предсказывают производимые на основе теории расчёты! Если в классической физике отклонения экспериментальных данных от расчётных может достигать процентов и более, в квантовой оно на много порядков ниже.
Есть понятные для Вас вещи, и Вы их не хотите считать абстракцией, а всё, во что не вникли, огулом в "небытие" отправляете. Нехорошо!

Валентин Кононов   29.12.2023 23:20   Заявить о нарушении
Тут Вы правы. Каюсь, но я огулом всю квантовую физику считаю высосанный из пальца. И не думаю, что кто-то сможет мне доказать её правильность,потому что я уже знаю, что такое фотон, электрон и протон, а "квантовые" физики ещё не знают.

Борис Владимирович Пустозеров   30.12.2023 23:19   Заявить о нарушении
Вы не знаете, что такое элементарные частицы, а придумали своё объяснение и тем горды. (А гордость - смертный грех, между прочим!). Физики таких "объяснений" знают множество, но все они их не до конца устраивают. Зато, хоть и не до конца понимают, считать - при помощи отвергаемых Вами абстракций научились. И Вы постоянно пользуетесь их достижениями, потому что без них не было бы половины современной техники.

Валентин Кононов   31.12.2023 12:23   Заявить о нарушении
Вот тут уже Вы неправы. Вся современная техника и все новые методы коммуникаций, включая компьютеры и интернет, появились не благодаря, а именно вопреки теориям и всей квантовой механике! Инженеры всегда действовали и действуют методом тыка, не обращая внимания на выдумки теоретиков, а те не успевают объяснить изобретённое инженерами, настолько быстро развивается технический прогресс.

Борис Владимирович Пустозеров   31.12.2023 14:19   Заявить о нарушении
Ну, тут с Вами не поспоришь. Ума у Вас не отнять. Чего нет - того нет.

Валентин Кононов   31.12.2023 17:16   Заявить о нарушении
И вам тоже крепкого здоровья! С Новым годом!

Борис Владимирович Пустозеров   01.01.2024 02:55   Заявить о нарушении