Замечания. Янковский. Концепции общей теории инфор

Судя по домашней страничке автора (http://syy.narod.ru), данная концепция выдвинута им еще в 1998 году и неоднократно перепечатывалась на различных ресурсах.

Работа состоит из трех глав:

1. Общее понятие Информации
2. Эволюция информации
3. Свойства информации и законы ее преобразования

Начинается весьма разумно.

"Представляется, что настало время рассмотреть обмен Информацией в целом как глобальное явление и попытаться найти его общие свойства и закономерности, знание которых может оказаться полезным в изучении каждой конкретной реализации этого явления.

Для того чтобы вывести наиболее общее определение понятия «Информация», выделим такое его свойство, которое с одной стороны было бы присущим любому его конкретному проявлению, и с другой стороны, позволяло бы отличать их от проявлений других понятий. Другими словами мы хотим выделить необходимый и достаточный признак, по которому мы будем определять, относится ли то или иное явление к проявлению понятия «Информации».

Начнем с того, что построим самую простую схему из трех понятий: «Объект», «Среда» и «Взаимодействие». «Объект» – это нечто устойчивое во времени и ограниченное в пространстве интересующее нас как единое целое. «Среда» – это множество всех других потенциальных «Объектов» интересующих нас только с точки зрения их влияния на состоянии выделенного «Объекта» и обратного влияния «Объекта» на их состояния. «Взаимодействие» – это растянутый во времени процесс взаимозависимого изменения параметров состояния «Объекта» и «Среды».

Эта схема является замкнутой в том смысле, что «Среда» включает в себя все потенциальные «Объекты» способные влиять на состояние выделенного «Объекта». Далее мы не будем брать в кавычки приведенные понятия.

В природе существует два фундаментальных вида взаимодействия: обмен веществом и энергией. Фундаментальность этих видов взаимодействия заключается в том, что все прочие взаимодействия происходят только через их посредство. Эти виды взаимодействия подчиняются закону сохранения. Сколько вещества и энергии один объект передал другому, столько тот и получил, и наоборот. Потери, происходящие при передаче, не рассматриваются, ибо потери вещества и энергии в замкнутой среде не возможны и то, что называют потерями, является отдельными актами взаимодействия с другими объектами той же среды. Среда замкнута именно в том смысле, что все взаимодействия происходят только внутри ее.

Энергетическое и вещественное взаимодействие объектов является симметричным, т.е.сколько один отдал столько же другой получил. Переходы между веществом и энергией не влияют на общий баланс, поскольку действуют законы сохранения константы их соотношения. Так же не влияет на общий баланс разрушение объекта в результате таких взаимодействий, так как опять же сохраняется сумма констант соотношения вещества и энергии, образовавшихся в результате разрушения частей (новых объектов)."

Собственно, Янковский - единственный автор, указавший на ключевое различие реальных физических и идеальных информационных процессов.

Однако, уже следующий пассаж лишен всякой логики:

"Примем за аксиому, что на основе комбинации фундаментальных взаимодействий, между объектами может происходить взаимодействие более высокого порядка, при котором от одного к другому переходит некоторая субстанция и при этом потери одного не совпадают с приобретением другого. Такое взаимодействие является несимметричным. В предельном случае несимметричного взаимодействия при передаче субстанции между объектами один из них ее приобретает, а другой не теряет. Изменение количества энергии и вещества при этом естественно, будут иметь место, поскольку данный акт взаимодействия имеет в своей основе комбинацию фундаментальных видов взаимодействия обеспечивающих перенос субстанции."

Если вдуматься, то речь идет не о "взаимодействии", а о дублировании.

Далее, следует формулировка:

"Любое взаимодействие между объектами, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет называется информационным взаимодействием. При этом передаваемая субстанция называется Информацией."

По сути, в ней неверно все: "Информация" не является субстанцией и  она не "передается".

Из этой формулировки Янковский "выводит" два свойства, причем, первое из них никак из нее не следует и прямо ей противоречит.

"Из этого определения следует два наиболее общих свойства Информации.
Первое - Информация не может существовать вне взаимодействия объектов.
 Второе - Информация не теряется ни одним из них в процессе этого взаимодействия."


Вторая глава "Эволюция информации", с рассуждениями о "формах жизни" и "социальных образованиях" содержит несколько используемых далее формулировок:

"1. Информационное взаимодействие имеет в своей основе комплекс симметричных взаимодействий и таким образом информация между объектами переносится с помощью обмена веществом или энергией.
Формы вещества или энергии, с помощью которых переносится Информация будем называть информационными кодами или кратко - кодами."

По сути, здесь постулируется существование алфавита - набора различимых состояний.

Далее, автор вводит понятие разделяемой модели - передатчик и приемник должны быть функционально идентичны:

"2. Информационное взаимодействие может происходить только при определенном взаимном соответствии свойств объектов. Так в каждом каталитическом взаимодействии могут участвовать только объекты, обладающие необходимым для него набором свойств. Восприятие Информации на основе получаемых кодов определяется через возможность ее реализации в соответствии со свойствами принимающего объекта. От его свойств зависит в конечном итоге то, какую информацию он принимает, получая конкретный набор кодов.
Комплекс свойств объекта позволяющих ему воспринимать получаемые коды как некоторую информацию будем называть аппаратом интерпретации информационных кодов или кратко - аппаратом интерпретации."

И, наконец,  автор вводит понятие избирательности, по сути, вытекающее из существования разделяемой модели:

"3. Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств). Причем это изменение возможно и без получения информации, но при этом оно будет менее вероятным. Информация способствует переходу принимающего ее объекта в одно из потенциально присущих ему состояний, т.е. является сообразной его свойствам. В рассмотренном простейшем случае сообразность информации принимающему объекту в значительной мере определяется самим наличием у него аппарата интерпретации, поскольку и то и другое основывается на одних и тех же свойствах объекта. Тем не менее, рискнем здесь развить утверждение о сообразности и сформулировать его усиление.

В широком смысле можно сказать, что информация принимаемая объектом необходимо является для него целесообразной."

В заключение, автор пишет:

"Итак, на простейшем примере информационного взаимодействия мы показали три основных фактора, необходимых для его протекания. Это наличие кодов переносящих информацию, наличие аппарата интерпретации этих кодов у принимающего объекта и, наконец, обязательная целесообразность информации для принимающего объекта."

На самом деле, все три перечисленных условия сводятся к одному: передатчик и приемник должны разделять ту же самую функциональную модель. Это, в самом деле, необходимое, но не достаточное условие коммуникации. Два других - начальная синхронизация моделей ("сброс в нуль") и сам акт синхронизации посредством сообщения.   


В третьей главе "Свойства информации и законы ее преобразования", автор вводит понятие цели

"Единичный акт информационного взаимодействия объекта со средой имеет три последовательных этапа. Первый этап, это прием информационных кодов. Второй этап состоит в интерпретации этих кодов. Третий этап заключается в реализации полученной в результате первых двух этапов информации. Реализация информации может состоять из комбинации несимметричных и симметричных (информационных и неинформационных) взаимодействий со средой и изменениях внутреннего состояния объекта."

Формулируется оценка:

"Количество получаемой объектом информации определяется как мера устранения неопределенности по выбору действий ведущих к достижению его целей."

В отличие от обычных представлений информации, как меры, по Янковскому она может быть отрицательной, что, вообще говоря, делает эту характеристику бессмысленной:

"Если энергия определяет возможность совершения действий, то информация определяет возможность целесообразного выбора этих действий. Количество информации может быть соотнесено только с той совокупностью целей объекта, степень достижения которых изменяется в результате реализации этой информации. При этом объект может приближаться к достижению соответствующей цели или удаляться от нее (например, в случае реализации полученной дезинформации). Таким образом, количество полученной информации может быть как положительной, так и отрицательной величиной."

Автор пишет:

"Далее мы будем рассматривать процесс информационного взаимодействия объекта со средой на каждом из его трех этапов. При этом мы будем всегда иметь в виду их взаимное согласование через целевые установки, имеющиеся у объекта."

Фактически, это означает отнесение информации исключительно к деятельности разумных видов, способных формулировать понятие цели, что опять-таки противоречит данному ранее определению.

Исходя из понятия цели, автор конструирует информационную модель:

"Информационная модель внешней среды объекта, это структурированная совокупность
трех компонент:

1) воспринятой объектом информации, запомненной в виде данных;
2) информационных шаблонов действий объекта;
3) методов сопоставления первых двух компонент в соответствии с комплексом целей объекта."

Дальнейшее изложение посвящено описанию этой модели и представлениям автора об устройстве социума и не содержит ничего интересного. По сути, ничего полезного, кроме вводного абзаца, в этой работе нет.


Рецензии
> По сути, ничего полезного, кроме вводного абзаца, в этой работе нет.
– Ну да? Зачем же Вы публиковали свои «Замечания» на такую никчемную работу? (Не для того ли, чтобы получить более высокую ее оценку? Даю.)
> В природе существует два фундаментальных вида взаимодействия: обмен веществом и энергией.
– Это, конечно, безграмотно, но в целом сама попытка Янковского внушает уважение. Попытка – чего?
> Собственно, Янковский - единственный автор, указавший на ключевое различие реальных физических и идеальных информационных процессов.
– Обижаете, начальник… Другое дело, что множество таких попыток заканчивались пока ничем; так что каждая новая необходим и драгоценна. Не столько негативным своим результатом, сколько промежуточными результатами, полученными попутно. В том числе, негативными. Например
> Такое взаимодействие является несимметричным. В предельном случае несимметричного взаимодействия при передаче субстанции между объектами один из них ее приобретает, а другой не теряет. Изменение количества энергии и вещества при этом естественно, будут иметь место
– Ну, Янковский уже показал, какой из него физик… И здесь он пытается выразить то, что физиками и философами давно понято и усвоено. Да, есть несимметричные процессы, но ни энергия, ни материя в них не теряется и не приобретается; приобретается другая величина, которую тоже можно измерить: энтропия. Тем не менее, законы сохранения сохраняют силу. Рост энтропии компенсируется ростом ресурса противоположного свойства, которое характеризуется как «негэнтропия» или «порядок», или «сложность», и который пока физики измерить не смогли. Пока.
Из этого немедленно следует, что системы («Объект» и «Среда») обмениваются РАЗНЫМИ ресурсами. И когда Янковский пишет:
> Информационное взаимодействие может происходить только при определенном взаимном соответствии свойств объектов.
– надо так понимать, что свойства приемника должны соответствовать свойствам передатчика. Но! Свойства двух приемников двух разных объектов – разные, и во многом противоположные…
Инвариант, мой комментарий несколько затянулся, поэтому я кратко перечислю достоинства рецензируемой Вами публикации:
> Первое - Информация не может существовать вне взаимодействия объектов.
Второе - Информация не теряется ни одним из них в процессе этого взаимодействия."
> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).
> На самом деле, все три перечисленных условия сводятся к одному: передатчик и приемник должны разделять ту же самую функциональную модель.
– По-моему, прекрасная формулировка, которая имеет ценность сама по себе.
> В широком смысле можно сказать, что информация принимаемая объектом необходимо является для него целесообразной."
– Я не согласен с Вами, что:
> Фактически, это означает отнесение информации исключительно к деятельности разумных видов, способных формулировать понятие цели, что опять-таки противоречит данному ранее определению.
– Нет. «Целесообразность» – это название для исследователя. Более точно следует говорить: «функция системы». Для исполнения функций разум не обязателен.
Автор (Янковский) дает описание этих функций,
> Комплекс свойств объекта позволяющих ему воспринимать получаемые коды как некоторую информацию будем называть аппаратом интерпретации информационных кодов или кратко - аппаратом интерпретации."
– По-моему, это Вы когда-то спрашивали, что такое «перцептивный аппарат»? Вот это оно и есть.
> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).
– Это «обработка»; то есть, управляющая инстанция информационной системы.
Но в целом автор повторяет Винера с его триадой «ввод – обработка – вывод»:
> три основных фактора, необходимых для его протекания. Это наличие кодов переносящих информацию, наличие аппарата интерпретации этих кодов у принимающего объекта и, наконец, обязательная целесообразность информации для принимающего объекта."
– В целом статья Янковского, вероятно, представляет собой неплохое по нынешним временам введение в теорию линейной информатики. Но особенную ценность представляет не знание, а понимание – понимание «Окружающей среды» как такой же системы, что и «Объект».
Спасибо, что познакомили читателя с этой интересной публикацией. С уважением, Ник.

Ник Пичугин   05.07.2019 14:24     Заявить о нарушении
Всегда рад вас видеть:-)

По порядку:

> По сути, ничего полезного, кроме вводного абзаца, в этой работе нет.

– Ну да Зачем же Вы публиковали свои «Замечания» на такую никчемную работу (Не для того ли, чтобы получить более высокую ее оценку. Даю.)

Мне пришло было в голову, сделать обзор русскоязычных публикаций по интересной для меня теме "Природа информации" - Google находит более 34,000 результатов (17 страниц ссылок). Перебрав все, я понял, что полезного там немного, хотя отдельные здравые положения встречаются. Эта работа Янковского тиражирована на многих ресурсах и иногда, даже, цитируется. Было бы странно обойти ее молчанием.
> В природе существует два фундаментальных вида взаимодействия: обмен веществом и энергией.
– Это, конечно, безграмотно, но в целом сама попытка Янковского внушает уважение. Попытка – чего

Откуда взялась эта фраза? У меня в тексте вообще нет слов "безграмотно" и "попытка".
> Собственно, Янковский - единственный автор, указавший на ключевое различие реальных физических и идеальных информационных процессов.
– Обижаете, начальник… Другое дело, что множество таких попыток заканчивались пока ничем; так что каждая новая необходим и драгоценна. Не столько негативным своим результатом, сколько промежуточными результатами, полученными попутно. В том числе, негативными. Например

> Такое взаимодействие является несимметричным. В предельном случае несимметричного взаимодействия при передаче субстанции между объектами один из них ее приобретает, а другой не теряет. Изменение количества энергии и вещества при этом естественно, будут иметь место

– Ну, Янковский уже показал, какой из него физик… И здесь он пытается выразить то, что физиками и философами давно понято и усвоено. Да, есть несимметричные процессы, но ни энергия, ни материя в них не теряется и не приобретается; приобретается другая величина, которую тоже можно измерить: энтропия.

Спорное заявление. Не забывайте, что энтропия - внутреннняя характеристика (функция состояния) системы - как рост, например. Ее нельзя ни "приобрести", ни "потерять". Она неперемещаема за границы системы. Любое рассуждение о "приобретении" или "потере" энтропии есть не более, чем спекуляция.

> Тем не менее, законы сохранения сохраняют силу. Рост энтропии компенсируется ростом ресурса противоположного свойства, которое характеризуется как «негэнтропия» или «порядок», или «сложность», и который пока физики измерить не смогли. Пока.

Энтропия не имеет ни малейшего отношения к "порядку", а такой вещи как "негэнтропия" просто не существует - это выдумка Бриллюэна, по сути, давно опровергнутая. Подробно об этом писал С. Хайтун (Напр. "Трактовка энтропии как меры беспорядка и ее воздействие на современную научную картину мира"), а первым подверг резкой критике эти взгляды Ю. Петров ("Энтропия и неупорядоченность").
> Из этого немедленно следует, что системы («Объект» и «Среда») обмениваются РАЗНЫМИ ресурсами.

Из этого следует только отсутствие такого обмена.
> И когда Янковский пишет:
> Информационное взаимодействие может происходить только при определенном взаимном соответствии свойств объектов.
– надо так понимать, что свойства приемника должны соответствовать свойствам передатчика. Но! Свойства двух приемников двух разных объектов – разные, и во многом противоположные…

Все это давно описано и, большей частью, изучено в дисциплинах, занимающихся вопросами синхронизации. Вплоть до точных (когда это возможно) решений. Я называю это разделяемой функциональной моделью. Как пример - пара "ключ - замок" ("острая" синхронизация).
Инвариант, мой комментарий несколько затянулся, поэтому я кратко перечислю достоинства рецензируемой Вами публикации:

> Первое - Информация не может существовать вне взаимодействия объектов.

Назвав ее "субстанция", Янковский полностью дезавуировал собственный вывод.

> Второе - Информация не теряется ни одним из них в процессе этого взаимодействия."

Я уже говорил о дублировании. Янковский не понял главного: работы третьих сил.

> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).

Вообще говоря, неверно. Есть и более формальные попытки (М. Бургин, например), высказать то же самое и все они опираются на попытки представить "информацию" некоторым, способным к взаимодействию, агентом. Все они должны быть отброшены. Информация - тень реального процесса. Хвост не может вилять собакой.

> На самом деле, все три перечисленных условия сводятся к одному: передатчик и приемник должны разделять ту же самую функциональную модель.
– По-моему, прекрасная формулировка, которая имеет ценность сама по себе.

Спасибо! Это моя (а не Янковского) формулировка :-)
> В широком смысле можно сказать, что информация принимаемая объектом необходимо является для него целесообразной."
– Я не согласен с Вами, что:
> Фактически, это означает отнесение информации исключительно к деятельности разумных видов, способных формулировать понятие цели, что опять-таки противоречит данному ранее определению.
– Нет. «Целесообразность» – это название для исследователя. Более точно следует говорить: «функция системы». Для исполнения функций разум не обязателен.

Тут мы увязнем в критериях. Разумны ли насекомые, например? Ракета с самонаводящейся боеголовкой? Вода, стекающая "где ниже". Я бы отнес "цель" только к возможности выбора из нескольких вариантов.
Автор (Янковский) дает описание этих функций,
> Комплекс свойств объекта позволяющих ему воспринимать получаемые коды как некоторую информацию будем называть аппаратом интерпретации информационных кодов или кратко - аппаратом интерпретации."
– По-моему, это Вы когда-то спрашивали, что такое «перцептивный аппарат». Вот это оно и есть.

Нет. Это был не я. Меня вопросы интерпретации не занимают. Это другая (обширная) тема.
> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).
– Это «обработка»; то есть, управляющая инстанция информационной системы.
Но в целом автор повторяет Винера с его триадой «ввод – обработка – вывод»:

Во-первых, это не вполне верно: нет информации без изменения, но изменение не равно информации.
Во-вторых, "за бортом", как обычно, остаются генерирующие системы - не имеющие "входа", только "выход".
В-третьих, "интерпретация" может быть "привязана" к любому, совершенно произвольному сигналу (а не именно к данному, напр. опыты И. Павлова по выработке условного рефлекса) так что нет никакой фактической "триады", есть "перепрограммируемая логика".
> три основных фактора, необходимых для его протекания. Это наличие кодов переносящих информацию, наличие аппарата интерпретации этих кодов у принимающего объекта и, наконец, обязательная целесообразность информации для принимающего объекта."
– В целом статья Янковского, вероятно, представляет собой неплохое по нынешним временам введение в теорию линейной информатики. Но особенную ценность представляет не знание, а понимание – понимание «Окружающей среды» как такой же системы, что и «Объект».

Единство Мира - это, кажется, не новая мысль и известна, по крайней мере, со времен античных философов.

Инвариант   05.07.2019 15:57   Заявить о нарушении
1. > Откуда взялась эта фраза? У меня в тексте вообще нет слов "безграмотно" и "попытка".
– Конечно, нету. Это слова моей оценки. Там тире стоит.
2. > В широком смысле можно сказать, что информация принимаемая объектом необходимо является для него целесообразной."
> > Тут мы увязнем в критериях. Разумны ли насекомые, например?
– Не увязнем. Достаточно в первой цитате заменить слово «целесообразность» на «функциональность» - и определения разума не требуется. И теряет значение фраза:
> Фактически, это означает отнесение информации исключительно к деятельности разумных видов
3. > > Свойства двух приемников двух разных объектов – разные, и во многом противоположные…

> Все это давно описано и, большей частью, изучено
– Да. Надеюсь, тут у нас разногласий не будет.
4. Об энтропии. Или, скорее, негэнтропии. Действительно, мир распался на два лагеря. Одни вопят: «Все ясно!» Все
> физиками и философами давно понято и усвоено. приобретается другая величина, которую тоже можно измерить: энтропия. Тем не менее, законы сохранения сохраняют силу. Рост энтропии компенсируется ростом ресурса противоположного свойства, которое характеризуется как «негэнтропия»
– И в ответ слышат:
> Энтропия не имеет ни малейшего отношения к "порядку", а такой вещи как "негэнтропия" просто не существует
–Ни те, ни другие ничего доказать не могут. Все потому что:
> пока физики измерить не смогли. Пока.
5. А теперь о приятном. О разногласиях.
> Во-вторых, "за бортом", как обычно, остаются генерирующие системы - не имеющие "входа", только "выход".
– Инвариант, В ПРИРОДЕ НЕТ ТАКИХ СИСТЕМ.
6. А вот здесь я вообще не понял, о чем Вы:
> – Это «обработка»; то есть, управляющая инстанция информационной системы. Но в целом автор повторяет Винера с его триадой «ввод – обработка – вывод»:

> Во-первых, это не вполне верно: нет информации без изменения, но изменение не равно информации.
– Какая связь между первой и второй фразой?
Инвариант, я прочел Ваш комментарий по диагонали – и отвечаю тоже по диагонали. Поскольку я в цейтноте: срочно отбываю в командировку. Оставляю за собой право ответить более вразумительно. Дней через 10. На Ваши возражения, замечания тоже отвечу, оставляйте.
С уважением, Ник.

Ник Пичугин   06.07.2019 15:17   Заявить о нарушении
> На Ваши возражения, замечания тоже отвечу, оставляйте.

OK. Два замечания
1. Энтропия / Неuэнтропия / Порядок

Первым об "отрицательной энтропии" заговорил Эрвин Шредингер ("Что такое жизнь...") и это была чистой воды спекуляция, которую подхватил Леон Бриллюэн, отождествивший ее с "информацией" (и написавший об этом две книги). За прошедшие 60 лет эти взгляды не раз критиковались и сейчас никем всерьез не рассматриваются. Достаточно указать, что физика не знает такого понятия - "информация".

Что касается "порядка" - то это чисто "философская" категория. Всерьез можно говорить только об "однородности" - как предельном состоянии системы.

Простой пример: стопка из трех книг, различающихся толщиной, весом и стоимостью. Всего возможны 3! = 6 вариантов их сортировки. Какой из них следует объявить "порядком"?
2. > Во-вторых, "за бортом", как обычно, остаются генерирующие системы - не имеющие "входа", только "выход".
– Инвариант, В ПРИРОДЕ НЕТ ТАКИХ СИСТЕМ.

Если не считать за вход тепловой шум, то сплошь и рядом: радиоактивный распад, наше Солнце, гетеродин в вашем "транзисторе" итд.

Инвариант   06.07.2019 21:12   Заявить о нарушении
Инвариант, я пока не читал Ваши замечания, помещаю только то, что накропал в эмиграции:
1. > Спорное заявление. Не забывайте, что энтропия - внутренняя характеристика (функция состояния) системы - как рост, например. Ее нельзя ни "приобрести", ни "потерять".
– Спорное заявление. Если иметь в виду энтропию по Клаузиусу (а не фон Нойману), то все обстоит в точности наоборот. Энтропия – это прежде всего аддитивная характеристика процесса. Функцией состояния она стала только после того, как Нернст предложил абсолютную шкалу – такую же условную, как шкала Цельсия или Фаренгейта. До этого физики прекрасно обходились процессуальным подсчетом изменений состояния, приобретений и потерь. Закон Нернста – это конвенция (условный абсолют), призванная элиминировать и определить факторы, не имеющие отношения к термодинамике – и поэтому высокомерно именуемые «химическими». Энтропия как функция состояния не имеет физического смысла.
> Она неперемещаема за границы системы. Любое рассуждение о "приобретении" или "потере" энтропии есть не более, чем спекуляция.
– Обратимся к Больцману. Рассмотрим систему, в которой идет теплообмен; условно разделим ее на две подсистемы: «нагреватель» и «теплоприемник». В результате теплообмена энтропия нагревателя чудесным образом уменьшается, хотя всей системы – растет, за счет роста ее в теплоприемнике. Так что наше Солнышко наводит там у себя порядок – за счет бардака здесь на Земле.
И кстати, как он связан с энтропией – «порядок», то есть. Это понятие пока плохо поддается математической формализации, но как только поддастся, так «негэнтропия» станет научным фактом. Но физика – это не только математика, но и философия; что позволяет физикам уже сейчас формализовать «порядок» в частных случаях. Замечено, например, что – при прочих равных – энтропия возрастает с ослаблением потенциальной энергии (взаимодействия между частицами) в ансамбле. А роль таких взаимодействий для установления порядка очевидна.
2. Инвариант, лейтмотивом Вашей публикации, который отразился и в комментариях, мне представляется
> ключевое различие реальных физических и идеальных информационных процессов.
– Возможно, Вам известно, что этот вопрос волнует и меня – но волнует как-то… рассудительнее, что ли. Поэтому я не тороплюсь (просто не тороплюсь) оторвать информацию от носителя. Мы ведь знаем, что это практически невозможно. Поэтому у меня не возникает абсолютно никаких возражений утверждение Янковского:
> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).
– Как можно с этим спорить? Процесс обработки информации – это очевидное, несомненное изменение состояния ИС, вызванное этой информацией. Если это идеальный процесс, то и ИС идеальная, почему бы ей не реагировать? Если речь идет о физической системе обработки, то и реагирует она на материальный носитель. Так где же различие?
Я формулирую для себя вопрос иначе, осторожнее: как соотносятся между собой понятия «энергия» и «информация»? С одной стороны, налицо и параллели, и корреляция (больше информации – больше энергии, и обратно). С другой стороны, это не одно и то же. Энергия – характеристика материи, а информация – характеристика… Чего?
> Информация - тень реального процесса. Хвост не может вилять собакой.
– Может, собака. Я пытаюсь понять это через вопрос; в данном случае, Вернадского: «Мысль не есть форма энергии. Как же может она изменить материальные процессы?» И не тороплюсь с ответом – чего тут, дескать, недопонял академик.
> Янковский не понял главного: работы третьих сил.
– Учтено, учтено. Нет у него никаких «третьих сил», есть «Объект», «Среда» и «Взаимодействие»:
> Потери, происходящие при передаче, не рассматриваются, ибо потери вещества и энергии в замкнутой среде не возможны и то, что называют потерями, является отдельными актами взаимодействия с другими объектами той же среды.
– Роль третьей силы пытаюсь выполнять я – весь рассудительный и хладнокровный. Две системы и каналы передачи ресурса (информации) между ними – вот идеальная схема реального процесса. Какие вопросы?
3. Вопрос есть у меня. Что такое «перепрограммируемая логика»? Предупреждаю, что вопрос коварный.
4. P.S. Инвариант, а как это понимать:
> нет информации без изменения, но изменение не равно информации.
– Вы что, собираетесь оспаривать Шеннона?

Ник Пичугин   20.07.2019 15:28   Заявить о нарушении
По условиям сервиса, вынужден разбить на две части.

> пока не читал Ваши замечания, помещаю только то, что накропал в эмиграции:

На что-то я, кажется, уже отвечал. На остальное, если потребуется, отвечу позднее - ближайшие пару недель буду off-line.

> 1. > Спорное заявление. Не забывайте, что энтропия - внутренняя характеристика (функция состояния) системы - как рост, например. Ее нельзя ни "приобрести", ни "потерять".

> - Спорное заявление. Если иметь в виду энтропию по Клаузиусу (а не фон Нойману), то все обстоит в точности наоборот. Энтропия - это прежде всего аддитивная характеристика процесса. Функцией состояния она стала только после того, как Нернст предложил абсолютную шкалу - такую же условную, как шкала Цельсия или Фаренгейта. До этого физики прекрасно обходились процессуальным подсчетом изменений состояния, приобретений и потерь. Закон Нернста - это конвенция (условный абсолют), призванная элиминировать и определить факторы, не имеющие отношения к термодинамике - и поэтому высокомерно именуемые "химическими". Энтропия как функция состояния не имеет физического смысла.

В точности, наоборот. Энтропия неаддитивна (исключая полною независимость объединяемых подсистем - см. "Энтропия и парадокс Гиббса" http://www.proza.ru/2019/02/13/1966) и введена Клаузиусом именно как функция состояния - то есть характеристика, определяемая текущим состоянием системы, независимо от пути, которым она пришла в него. Шеннон исходил из тех же самых соображений, но использует приведенные (относительные, нормированные) величины. Физически, энтропия - это функционал ("Действие"), подчиняющийся принципу стационарности и, собственно, тем и интересный. Формально, шенноновская формула энтропии - суть фейнмановский интеграл по траекториям.

> Она неперемещаема за границы системы. Любое рассуждение о "приобретении" или "потере" энтропии есть не более, чем спекуляция.

- Обратимся к Больцману. Рассмотрим систему, в которой идет теплообмен; условно разделим ее на две подсистемы: "нагреватель" и "теплоприемник". В результате теплообмена энтропия нагревателя чудесным образом уменьшается, хотя всей системы - растет, за счет роста ее в теплоприемнике. Так что наше Солнышко наводит там у себя порядок - за счет бардака здесь на Земле.

Как уже не раз говорилось, "порядок" - умозрительная категория, не имеющая физического смысла. В Природе нет ничего, что можно было бы назвать "порядком". По сути, "порядок" задается отношением следования на множестве элементов (например, больше-меньше) - если такое отношение существует (задана метрика), и, часто, вообще невозможен (множество ключей шифра, например). Часто "порядок" или не может быть задан (разнородный набор - "красный-теплый-мягкий"), или задан произвольно (напр., алфавитная последовательность) или существует множество эквивалентных "порядков" (напр., вес-объем-стоимость итп.)

В любом случае, с энтропией он никак не связан (См. Ю. Петров, К. Денбиг, С. Хайтун), но можно говорить о связи энтропии с неоднородностью - для однородных систем она максимальна.

> 2. лейтмотивом Вашей публикации, который отразился и в комментариях, мне представляется > ключевое различие реальных физических и идеальных информационных процессов.

- Возможно, Вам известно, что этот вопрос волнует и меня - но волнует как-то... рассудительнее, что ли. Поэтому я не тороплюсь (просто не тороплюсь) оторвать информацию от носителя. Мы ведь знаем, что это практически невозможно. Поэтому у меня не возникает абсолютно никаких возражений утверждение Янковского:

> Информация реализуется в принимающем объекте через связанное с ней определенное изменение его состояния (внутренних или внешних свойств).

- Как можно с этим спорить Процесс обработки информации - это очевидное, несомненное изменение состояния ИС, вызванное этой информацией. Если это идеальный процесс, то и ИС идеальная, почему бы ей не реагировать Если речь идет о физической системе обработки, то и реагирует она на материальный носитель. Так где же различие

Простой пример, почему носитель неважен.

Алиса посылает сообщение Бобу.

Сообщение может быть послано электронной почтой (e-mail - очень дешево), обычной почтой (snail mail - дороже), фельдегерем (feldjager - дорого). Носитель, цена и энергетические затраты во всех случаях различны, но к содержанию и ценности (информативности) сообщения никакого отношения не имеют. Термин "информация" для того и потребовался, чтобы полностью оторвать их от носителя. Любая попытка связать их с носителем есть ошибка.

> как соотносятся между собой понятия "энергия" и "информация"

Очень просто - никак.

> С одной стороны, налицо и параллели, и корреляция (больше информации - больше энергии, и обратно).

Очевидно, неверно.

> С другой стороны, это не одно и то же. Энергия - характеристика материи, а информация - характеристика... Чего

Я уже не раз давал определение. Просмотрите раздел "Философия информации" (http://www.proza.ru/avtor/gazlan&book=8#8) - там подробно.

> Информация - тень реального процесса. Хвост не может вилять собакой.

- Может, собака. Я пытаюсь понять это через вопрос; в данном случае, Вернадского: "Мысль не есть форма энергии. Как же может она изменить материальные процессы" И не тороплюсь с ответом - чего тут, дескать, недопонял академик.

Естественно, она ничего и не меняет. Так же как и Тень не влияет на сам объект. См. Платон "Миф о пещере".

> Янковский не понял главного: работы третьих сил.

- Учтено, учтено. Нет у него никаких "третьих сил", есть "Объект", "Среда" и "Взаимодействие": Потери, происходящие при передаче, не рассматриваются, ибо потери вещества и энергии в замкнутой среде не возможны и то, что называют потерями, является отдельными актами взаимодействия с другими объектами той же среды. - Роль третьей силы пытаюсь выполнять я - весь рассудительный и хладнокровный. Две системы и каналы передачи ресурса (информации) между ними - вот идеальная схема реального процесса. Какие вопросы

Я уже не раз писал: нет никакой "передачи" информации. Информация неперемещаема. Ее можно только дублировать. За счет работы третьих сил. Это ключевой момент. Диаграмма Шеннона, например, описывает именно Копир.

Простейшей механической моделью копира могут служить (равноплечие) рычажные весы. См. папр., "Об Информации - без формул" (http://www.proza.ru/2019/01/16/110). Третья сила - это Весовщик.

Инвариант   22.07.2019 01:07   Заявить о нарушении
Продолжение.

> 3. Вопрос есть у меня. Что такое "перепрограммируемая логика" Предупреждаю, что вопрос коварный.

Не понял, причем здесь это.

> 4. а как это понимать:

> нет информации без изменения, но изменение не равно информации. - Вы что, собираетесь оспаривать Шеннона

Нет, хочу дополнить. Шеннон рассматривает только Канал связи (передачу сообщения). Я хочу обобщить понятие Информации и на сами взаимодействующие системы.

Подробнее см. "Аксиоматика. Наивный взгляд" (http://www.proza.ru/2017/06/21/110)

Коротко.

Рассмотрим две, изначально идентичные (синхронизированные), системы. Одну назовем "Опорной" и вторую "Пробной". Пусть теперь пробная система будет приведена в случайное, но известное, состояние. Разницу состояний пробной и опорной систем будем называть информацией об опорной системе, а приведение пробной системы в состояние идентичное опорной системе - измерением (или синхронизацией / взвешиванием).

"Передача информации" есть ни что иное, как акт синхронизации ("взвешивания") - состояние пробной системы устанавливается идентичным опорной.

По некоторым причинам, мне удобно говорить о фрактале - как системе с бесконечной делимостью, но достаточно ввести понятие Объекта.

Примеры - жидкостный фрактал ("несжимаемая жидкость"), газовый фрактал (сжимаемый "идеальный газ"), текстовый фрактал ("сообщение").

Текст может быть сжимаемым или нет. Например, несжимаема алфавитная цепочка (или любая ее пермутация). Несжимаемый текст часто (ошибочно) описывается как "случайный", хотя "случайность" не имеет отношения к сжимаемости.

Объект состоит из Фрейма, задающего геометрию ("кожуры") и внутреннего содержимого - Агента ("мякоти"). Агент как-либо распределен по Фрейму (в частном случае - равномерно). Объект имеет характеристики - геометрический размер L (напр., протяженность, площадь, объем итп.) и плотность p. Тогда общее количество Q = p * L.

Объект может быть сжимаем, в таком случае, выгодна его транспортировка именно в сжатом виде. Например, если нефть перевозят танкерами "как есть", то газ выгодно перевозить в сжатом (сжиженном) виде. Точно также, если сообщение сжимаемо, то выгоднее передавать его в виде сжатого / архивированного файла.

Понятия (обобщенных) размеров и плотности могут быть различны для различных типов фракталов.

Например, для аналогового сигнала, "размером" будет его временная длительность, а "плотностью" - ширина спектра.

Их произведение:

длительность * ширина спектра = энергия сигнала ("энергетический инвариант" Хартли)

Для дискретного сигнала, "размером" будет его битовый размер, а "плотностью" - информационная (по Шеннону) энтропия.

Их произведение:

длительность * энтропия = энергия сигнала ("количество информации" Шеннона)
Транспортная задача.

Заданы Объект и размер / емкость контейнера (тары) для его перевозки. Требуется определить потребное количество тары .

Шеннон решил эту задачу для текстового фрактала, введя понятие "плотности" (информационной энтропии) для текста.

Очевидно, в общем виде, это решение применимо для любого типа объекта / фрактала, для которого известны его размер и плотность.

"Информация" (по Шеннону) есть произведение плотности (дельты рассогласования объектов) на ее битовый размер.

Рассматривая Транспорт информации как задачу взвешивания, мы видим, что при заданном наборе разновесов (системе кодов), "весовой инвариант" - общее количество ("количество информации") определяется как произведение Q = "размер" * "плотность" и никак не связан с тем, какими именно разновесами (кодовыми сигналами) эквивалентирован груз.

Поскольку у Янковского, Бургина и прочих нет понимания того, что такое Информация и что такое Транспорт информации, то нет и понимания того, что накладывание конкретных разновесов на чашу весов никак не связано с общим их количеством. Заданный вес может быть представлен какими угодно разновесами и заданное сообщение может быть представлено какими угодно сигналами.

Иными словами, сообщение - это "разложение в спектр", которое может быть выполнено по произвольному базису ("набору разновесов"), и смысл имеет только полный вес ("энергетический инвариант").

Инвариант   22.07.2019 01:07   Заявить о нарушении
Ах, да. Забыл еще

> "негэнтропия" станет научным фактом

Нет никаокой "негэнтропии". Вообще, нет. Если вы где-либо видите это слово, то читаете что-то не то. И, разумеется, нет никой связи между информацией и энтропией.

Замечу еще, что шенноновская энтропия - относительная безразмерная величина (доля единицы, проценты, степень упаковки), а термодинамическая - размерная абсолютная. То есть, они несопоставимы в принципе. Любая попытка их связать - полная глупость, хотя, в принципе, они имеют тот же самый смысл - Действия и об обоих удобно думать как о "плотности" ("концентрации").

Математически, это параметр гиперболического (в пространстве Лобачевского) поворота (с "весовым" инвариантом - энергия объекта / "количество информации" по Шеннону). И складываются энтропии не "по Эвклиду", а "по Лобачевскому" - также, как скорости в теории относительности ("Лоренц-сжатие"). Например, сложив две энтропии по 0.75, все равно невозможно получить больше 1.

Инвариант   22.07.2019 04:30   Заявить о нарушении
1. Инвариант. Вы слишком категоричны. Что значит:
> Нет никакой "негэнтропии".
– Если в языке есть слово, что-то за ним стоит. Ну хоть что-нибудь? В языке нет полностью, окончательно глупых или ложных слов. Для примера: «теплород» и «эфир» отторгнуты наукой как «не имеющие физического смысла». Но формулы теплопроводности созданы именно для теплорода; то же самое касается и эфира. По сути, это перезагрузка терминологии для школьных учебников; замена концепции.
Что значит:
> В Природе нет ничего, что можно было бы назвать "порядком". В любом случае, с энтропией он никак не связан. "Порядок" - умозрительная категория, не имеющая физического смысла
– Позвольте вопрос: если в тексте изменить порядок знаков, это будет другой текст – или тот же самый? А как насчет его энтропии (по Шеннону – фон Нойману) – она не изменится?
Что значит:
> Информация неперемещаема. Ее можно только дублировать.
– Но ведь дублированную информацию тоже можно перемещать или не перемещать. Это разные понятия, которые не мешают друг другу, здесь нет альтернативы. «Информация неперемещаема» – ни в каком смысле? Если в языке есть словосочетание «сообщить информацию» – знгачит, за ним что-то стоит? Прошу Вас, Инвариант, не принуждайте собеседника к Вашей концепции – и, особенно, терминологии. Возможно, в Вашей какой-то глубоко личной интерпретации
> Энтропия неадитивна
– но физики Вас не поймут. Именно в трактовке Нернста (как «функция состояния») энтропия аддитивна. И в классической интерпретации (как функция процесса) она тоже аддитивна. «Прадокс Гиббса» благополучно разрешен, Вы в курсе? Полностью согласен (с учетом сделанной оговорки) с тем, что вы говорили о физической и информационной энтропии:
> Любая попытка их связать - полная глупость, хотя, в принципе, они имеют тот же самый смысл – Действия
– поэтому не надо, как минимум, механически переносить на одну из них математические свойства другой.
Прошу Вас, дайте собеседнику шанс на понимание. Спасибо.
2. > Термин "информация" для того и потребовался, чтобы полностью оторвать их от носителя.
> Простой пример, почему носитель неважнен
– Не надо примеров, вопрос ясен – но только как вопрос. Ответы преждевременны. Здесь тоже проблема терминологии, и она у Вас нетрадиционна. Вообще-то принято называть «информацией» нечто материальное – ну, хотя бы как набор символов. А информация, (мысленно) оторванная от носителя, тоже имеет свое собственное название: «смысл». Так мне видится. Но вопрос действительно непростой.
> Я уже не раз давал определение. Просмотрите раздел "Философия информации" (http://www.proza.ru/avtor/gazlan&book=8#8)
– Как – весь раздел?
> там подробно.
– А нельзя ли покороче – и так, чтобы было понятно не только лектору, но и аудитории?
3. О «генераторах» информации. Видите ли, надо учитывать, свойство информации задерживаться в ИС, иногда надолго. Функция системы вводится в нее – в том числе, это может быть переработка «теплового шума» в совершенно определенный сигнал, так что надо
> считать за вход тепловой шум: радиоактивный распад, наше Солнце, гетеродин в вашем "транзисторе" итд.
– все это ИС, имеющие все три структуры, включая ввод.
Впрочем, если «информация не передается». Даже через копии – само понятие ИС теряет смысл.
Пока все. С уважением, Ник.

Ник Пичугин   25.07.2019 16:48   Заявить о нарушении
Вырвался на выходной. Надеюсь, скоро совсем вернуться :-)

> 1. Инвариант. Вы слишком категоричны. Что значит: > Нет никакой "негэнтропии". - Если в языке есть слово, что-то за ним стоит. Ну хоть что-нибудь. В языке нет полностью, окончательно глупых или ложных слов. Для примера: "теплород" и "эфир" отторгнуты наукой как "не имеющие физического смысла". Но формулы теплопроводности созданы именно для теплорода; то же самое касается и эфира. По сути, это перезагрузка терминологии для школьных учебников; замена концепции.

Тысячи средневековых трактатов посвящены свойствам суккубов и инкубов. Что вовсе не означает их реального существования.

> Что значит: > В Природе нет ничего, что можно было бы назвать "порядком". В любом случае, с энтропией он никак не связан. "Порядок" - умозрительная категория, не имеющая физического смысла

- Позвольте вопрос: если в тексте изменить порядок знаков, это будет другой текст - или тот же самый

Как посмотреть. С точки зрения нумерологии - тот же самый. Шире, с точки зрения гематрии (http://www.jearc.info/wiki/%D0%93%D0%B5%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%8F), любые тексты с той же самой суммой букв, суть одно и то же. Один из древнейших шифров - атбаш основан на алфавитной перестановке (алеф меняется на тав, бет на шин итп). В Танахе ряд имен зашифрован этим шифром. Для читающего на иврите, слово и его шифрозамена эквивалентны.

А как насчет его энтропии (по Шеннону - фон Нойману) - она не изменится?

Нет, разумеется. Энтропия безразлична к "порядку". ("Размышления. Количество информации" http://www.proza.ru/2017/06/14/125)

> Что значит: > Информация неперемещаема. Ее можно только дублировать. - Но ведь дублированную информацию тоже можно перемещать или не перемещать. Это разные понятия, которые не мешают друг другу, здесь нет альтернативы. "Информация неперемещаема" - ни в каком смысле

Об этом подробно в "Парадокс Шоу и понятие Информация" (http://www.proza.ru/2014/08/25/1715)

Если в языке есть словосочетание "сообщить информацию" - значит, за ним что-то стоит.

Только контекст (или контексты), в котором оно встречается. Также, как за "флогистоном", например, не стоит никакого физического агента.

> Энтропия неадитивна - но физики Вас не поймут. Именно в трактовке Нернста (как "функция состояния") энтропия аддитивна. И в классической интерпретации (как функция процесса) она тоже аддитивна.

В термодинамике, энтропия - это потенциал (интенсиал). При смешивании, потенциалы выравниваются, в отличии от зарядов (экстенсоров), которые, действительно, аддитивны.

> Любая попытка их связать - полная глупость, хотя, в принципе, они имеют тот же самый смысл - Действия - поэтому не надо, как минимум, механически переносить на одну из них математические свойства другой.

Действие - это произведение Потока на Путь. Естественно, Поток больше там, где меньше сопротивление - отсюда и Принцип наименьшего действия.

> 2. > Термин "информация" для того и потребовался, чтобы полностью оторвать их от носителя. > Простой пример, почему носитель неважнен - Не надо примеров, вопрос ясен - но только как вопрос. Ответы преждевременны. Здесь тоже проблема терминологии, и она у Вас нетрадиционна. Вообще-то принято называть "информацией" нечто материальное - ну, хотя бы как набор символов.

Начиная с Платона (мир Идей и мир Вещей) - нет. Информация идеальна. Любая другая трактовка приводит к неразрешимым проблемам.

> А информация, (мысленно) оторванная от носителя, тоже имеет свое собственное название: "смысл". Так мне видится.

Никакого "смысла" за информацией не стоит. Вернее, "сигнал" обретает смысл только в контексте (после интерпретации).

Простой пример. Читал, как в Лондоне прохожие вызвали полицию, услышав как израильтянка сказала не в меру расшумевшемуся малышу - Дай! (ивр. - хватит), решив, что она желает ему умереть (Die!). Слово "Дай" идентично звучит на русском, английском и иврите, имея при этом кардинально различные смыслы в контексте каждого их этих языков. Известны случаи, когда людей убивали за жест, нейтральный в культуре носителя, но неприемлемый для собеседника.

> Я уже не раз давал определение. Просмотрите раздел "Философия информации" (http://www.proza.ru/avtor/gazlan&book=8#8) - Как - весь раздел?

Не так много, если вам интересен этот вопрос.

> там подробно. - А нельзя ли покороче - и так, чтобы было понятно не только лектору, но и аудитории

Боюсь что нет.

"Сорок лет Моше водил народ Израиля по пустыне".

Примерно столько же я думаю над понятием Информации, и только в последнее время пришел к отчетливому пониманию. Этот цикл заметок - результат эволюции взглядов. Я не знаю, как изложить их короче. В литературе нет требуемых мне определений, на которые можно было бы сослаться ("система", "фрактал", "трансформатор" итп) .

Чтобы говорить о "трансформаторе Шеннона", я должен начать с трансформатора Архимеда и, возможно, понятие фрактала также следует начинать с метода исчерпывания Евдокса Книдского. Иначе фраза "Измерение есть эквивалентирование фракталом" будет лишена всякого смысла. Далее, дискретное "количество информации" Шеннона невозможно понять без его аналогового эквивалента - энергетического инварианта" Хартли и предшествующего "Принципа неопределенности" Купфмюллера.

Методу компрессии Хафмана посвящены сотни академических статей, но ни в одной не сказано ни про инверсию, ни про гиперболический поворот ("Лоренц-сжатие").

Насколько удается, я пытаюсь выстроить необходимый понятийный аппарат. Неизбежно, это требует "многа букав".

3. О "генераторах" информации. Видите ли, надо учитывать, свойство информации задерживаться в ИС, иногда надолго. Функция системы вводится в нее - в том числе, это может быть переработка "теплового шума" в совершенно определенный сигнал, так что надо > считать за вход тепловой шум: радиоактивный распад, наше Солнце, гетеродин в вашем "транзисторе" итд. - все это ИС, имеющие все три структуры, включая ввод. Впрочем, если "информация не передается". Даже через копии - само понятие ИС теряет смысл.

Оно его и не имело. Сказать ИС - это значит "замести мусор под коврик". С тем же успехом, можно говорить "душа", или "сознание", или "эмерджентность" итп. Я пытаюсь оперировать только очевидными соображениями, без привлечения "Deus ex machina". Там, где мне нужны новые определения, я ввожу их явно.

Инвариант   27.07.2019 23:18   Заявить о нарушении
Инвариант, давайте я быстренько обрублю хвост, который тянется за мной еще с июня, несмотря на обе наши командировки.
5. Транспортировка информации как «взвешивание». Из всего сказанного я понял и вижу существенным только:
>. Заданный вес может быть представлен какими угодно разновесами и заданное сообщение может быть представлено какими угодно сигналами.
Иными словами, сообщение - это "разложение в спектр", которое может быть выполнено по произвольному базису ("набору разновесов"), и смысл имеет только полный вес ("энергетический инвариант").
– Другими словами, информативен не ансамбль, а состояние. Два сомнения.
А. Это состояние системы не абы какой, а информационной. Поэтому оно должно быть информативно. Один параметр, характеризующий состояние ("энергетический инвариант") – это ровно один бит информации; чтобы наскрести хотя бы байт, надо еще парочку параметров– а это уже таблица.
Б. И что мы будем делать с тем неоспоримым фактом, что релейные коммуникации (на самом деле) требуют кодовых таблиц, которые, более того, должны совпадать на передатчике и приемнике («Образце» и «Пробнике»)?
1. Энтропия. Инвариант, дискуссия дошла до моего «символа веры», я сдаюсь. Я принимаю ваше великодушное предложение не смешивать более две энтропии – по Клаузиусу и по фон Нойману. И встречно предлагаю вообще воздержаться от параллелей между термодинамикой и информатикой Шеннона. Ограничимся мат. статистикой, которая применима и там, и сям. В дискуссии всегда комфортнее чувствовать себя дилетантом; тем более, что свою профессиональную точку зрения на вопрос я уже высказал.
В такитх рамках я действительно не вижу прямой связи между энтропией и порядком (или хаосом) – что бы они ни значили. Аддитивна ли она? на этот вопрос отвечать вам – после того, видимо, как Вы разберетесь с парадоксом Гиббса (в Вашей собственной, информационной интерпретации). Я пытался содействовать, но ведь
> С точки зрения нумерологии - тот же самый… с точки зрения гематрии…
– это ведь не ответ Я понимаю, что Вы были в цейтноте. Теперь у Вас есть время подумать над вопросом, который только выглядит безобидно. Если другого ответа не будет – что ж… Одним открытым (для меня, дилетанта) вопросом больше – одним меньше…
Но здесь у нас имелась еще одна тема. Категоричность. Очень кратко по этому вопросу.
> Нет никакой "негэнтропии". Вообще, нет.
– если в языке есть слово, значит оно нужно людям, и за ним, следовательно, стоит какой-то контекст. Контекст. Заметьте, не я первый произнес это слово.
> "Информация неперемещаема" - ни в каком смысле
– Нивкаком-нивкаком? Вы слишком категоричны. А кто говорил про «транспорт информации»? Транспорт не имеет отношения к перемещению? Инвариант, зачем вы затрудняете сосбеседнику понимание?
2. И в результате, свидетельствуете против себя, сами того, вероятно не замечая. вы привели прекрасный пример с лондонской туристкой. Само по себе ее «Дай!» – ничего не значит; сотрясение воздуха, звук, знак. Информацией оно становится только в восприятии окружающих. Причем в зависимости от свойств приемника – это разная информация. Именно потому разная, что в разных случаях имееет разный смысл.
Вы свидетельствуете против себя, приводя (уже в третий раз) прекрасный аргумент о платоновой Пещере; то есть, о человеческом воображении – единственном месте, где материальная форма существует отдельно от «эйдоса» (сиречь смысла). Если Вы помещаете в мир Идей что-либо еще, с другим названием (например, «информацию»), – то, значит, Вы недостаточно отделили его от материального носителя. Позволю себе сделать только один маленький шаг за пределы сказанного нами:
«информативность» = «осмысленность»
И здесь возникает тема контекста.
6. «Информация» коррелируется не с любым видом «смысла», а только с движущимся, который обычно называют «логикой». Поскольку информация имеет направление, которое всегда можно интерпретировать как направление от причины к следствию.
Насколько я понял, «Образец» и «Пробник» образуют единую систему, которая стремится к равновесию – это и создает «транспорт информации». Но информативно не только изменение состояния (в «Образце»), но и последовательность, сценарий, порядок его изменения в «Пробнике». Информативен не только текст, но и контекст.
…Но это еще не все, это только задолженность.
Ник.

Ник Пичугин   30.07.2019 16:05   Заявить о нарушении
Hi! Вырвался на день. На следующей неделе надеюсь вернуться окончательно.

> быстренько обрублю хвост, который тянется за мной еще с июня

Мне кажется, мы заходим на второй круг, так и не определив ясно предмет разговора.

Поясню еще раз свою позицию.

Есть материальный мир - мир перемещаемых вещей, в котором действуют законы сохранения: "ежели в одном месте чего убудет, то в другом - присовокупится" (Михайло Ломоносов)

И есть идеальный мир - наш способ думать о материальном мире. В нем нет ни перемещения, ни сохранения (см. "Парадокс Шоу и понятие Информация" http://www.proza.ru/2014/08/25/1715).

Там где в реальном процессе происходит перемещение вещества / энергии, в идеальном (информационном), мы принципиально отказываемся от их учета и вводим понятия сигнала и реакции.

> 5. Транспортировка информации как "взвешивание". Из всего сказанного я понял и вижу существенным только: > Заданный вес может быть представлен какими угодно разновесами и заданное сообщение может быть представлено какими угодно сигналами. Иными словами, сообщение - это "разложение в спектр", которое может быть выполнено по произвольному базису ("набору разновесов"), и смысл имеет только полный вес ("энергетический инвариант"). - Другими словами, информативен не ансамбль, а состояние.

Неинформативно слово "информативен" :-). Речь идет об инварианте взвешивания. Наберете вы вес одной большой гирей или десятком маленьких, не имеет значения. Речь идет не о структуре набора гирь, а об их общем весе ("количестве информации" по Шеннону).

> Два сомнения.

А. Это состояние системы не абы какой, а информационной. Поэтому оно должно быть информативно. Один параметр, характеризующий состояние ("энергетический инвариант") - это ровно один бит информации; чтобы наскрести хотя бы байт, надо еще парочку параметров - а это уже таблица.

Неверно. Бит - это единица размера дискретного сигнала. И ничего больше. Битовый размер, помноженный на плотность сигнала (энтропию) и дает "энергетический инвариант" ("количество информации" по Шеннону). Тот же самый "вес" ("количество информации") может быть представлен другим числом бит с другой энтропией (например, сжатым сигналом - трансформатор Шеннона).

"Количество информации" - это точно такая же интегральная (без подробностей) характеристика, как, например, вес, объем, метрах итп.

> Б. И что мы будем делать с тем неоспоримым фактом, что релейные коммуникации (на самом деле) требуют кодовых таблиц, которые, более того, должны совпадать на передатчике и приемнике ("Образце" и "Пробнике")

Я все время подчеркиваю это: разделяемая функциональная модель (тезаурус) - обязательное условие коммуникации. Общий язык, общий алфавит, общий шифр...

> 1. Энтропия ... не смешивать более две энтропии - по Клаузиусу и по фон Нойману. И встречно предлагаю вообще воздержаться от параллелей между термодинамикой и информатикой Шеннона. Ограничимся мат. статистикой, которая применима и там, и сям.

На самом деле, я не вижу "пропасти" между этими понятиями. Я только против их отождествления (как, например, у Бриллюэна).

> В таких рамках я действительно не вижу прямой связи между энтропией и порядком (или хаосом) - что бы они ни значили.

Можете начать с Хайтуна ("Трактовка энтропии как меры беспорядка и ее воздействие на современную научную картину мира" http://vphil.ru/index.php?option=com_content&task=view&id=709), который ссылается на двух своих предшественников: Ю. Петрова ("Энтропия и неупорядоченность" http://priroda.ras.ru/djvu/1970-02.djvu) и К. Денбига ("К вопросу об энтропии, беспорядке и дезорганизации" http://publ.lib.ru/ARCHIVES/Z/%27%27Znanie_-_sila%27%27/''Znanie_-_sila'',1995,N09.[djv-fax].zip)

> Аддитивна ли она на этот вопрос отвечать вам

Здесь нет вопроса - существование энтропийного предела однозначно делает ее неаддитивной. Сложив две энтропии по 0.9 вы получите не 1.8, а только 1.

> Я пытался содействовать, но ведь > С точки зрения нумерологии - тот же самый... с точки зрения гематрии... - это ведь не ответ. Я понимаю, что Вы были в цейтноте. Теперь у Вас есть время подумать над вопросом, который только выглядит безобидно. Если другого ответа не будет - что ж...

Гм. А какой другой ответ вы ждете? Энтропия - это интегральная оценка. Как площадь садового участка 6 соток, например. В этом смысле (и только в этом), участки 2*3 и 1*6 эквивалентны. Подробнее я писал об этом в "Общая дискуссия о предельной степени сжатия" (http://www.proza.ru/2017/06/11/170). Если вам требуется послать почтовой посылкой килограмм золотого песка и килограмм сахарного, то за пересылку вы заплатите одинаково. Но один бесполезно сыпать в чай, а другой бессмысленно нести к ювелиру.

> Но здесь у нас имелась еще одна тема. Категоричность. Очень кратко по этому вопросу.

Сошлюсь на чудный рассказ Р. Шекли "Заяц" (http://epizodsspace.airbase.ru/bibl/fant/shekli/zayats.html) - Я узнал Истину! :-)

> Нет никакой "негэнтропии". Вообще, нет. - если в языке есть слово, значит оно нужно людям, и за ним, следовательно, стоит какой-то контекст. Контекст.

Контекст - да. Но не реальность. Джинн из арабских сказок, например. Тот же флогистон итп. "Негэнтропия" - из их числа.

> "Информация неперемещаема" - ни в каком смысле - Нивкаком-нивкаком Вы слишком категоричны. А кто говорил про "транспорт информации"? Транспорт не имеет отношения к перемещению Инвариант, зачем вы затрудняете собеседнику понимание

Напротив, упрощаю его: "транспорт информации" предельно понятное объяснение задачи Шеннона, решенной им через введение понятия плотности для сигнала. Плотность * Размер = Общее количество ("количество информации").

Но там где в Физическом мире возникает Транспортная задача, в параллельном ему Идеальном мире ей отвечает Задача взвешивания (дублирования). То есть, Канал передачи данных Шеннона, на самом деле - Копир. Информация не "передается" - она копируется. Но все расчеты "тары" (или "разновесов") остаются в силе. И, в этом плане, я не вижу никакого другого, более удобного и прозрачного объяснения.

> 2. И в результате, свидетельствуете против себя, сами того, вероятно не замечая. вы привели прекрасный пример с лондонской туристкой. Само по себе ее "Дай!" - ничего не значит; сотрясение воздуха, звук, знак. Информацией оно становится только в восприятии окружающих. Причем в зависимости от свойств приемника - это разная информация. Именно потому разная, что в разных случаях имеет разный смысл.

Именно так. "Информация" - в смысле "знания", "сведения" - это всегда результат интерпретации. Сигнал, как таковой, не имеет смысла - это просто синхропосылка.

> Вы свидетельствуете против себя, приводя (уже в третий раз) прекрасный аргумент о платоновой Пещере; то есть, о человеческом воображении - единственном месте, где материальная форма существует отдельно от "эйдоса" (сиречь смысла). Если Вы помещаете в мир Идей что-либо еще, с другим названием (например, "информацию"), - то, значит, Вы недостаточно отделили его от материального носителя.

Нет. Я, вообще, избегаю говорить о "смысле". И никак не связываю "информацию" и "смысл". Информацией я называю нечто объективное: разность состояний двух сопоставляемых систем - опорной и тестовой, при соблюдении условий измерения (функциональная идентичность, начальная синхронизация, законченность процесса - Задача взвешивания). Понятия "сознания","смысла", "человеческого воображения" итп. здесь ни при чем.

> Позволю себе сделать только один маленький шаг за пределы сказанного нами: "информативность" = "осмысленность"

Очевидная ошибка. Автоматический регулятор, например, использует информацию, но не ищет в ней смысла.

> И здесь возникает тема контекста.

Угу. Но это другая тема, не связанная с понятием "Информация". На мой взгляд, ближе всего к ней модель Конечного Автомата (FSM): реакция зависит как от входного сигнала, так и от текущего состояния.

Например, когда вы нажимаете кнопку лифта, кабина может двинуться вниз, двинуться вверх или остаться на месте - в зависимости от того, как соотносится номер кнопки и номер текущего этажа. Это и есть контекст.

Вендинговый автомат может выдать вам товар, а может вернуть деньги назад - если товар закончился. Это контекст. Итд.

> 6. "Информация" коррелируется не с любым видом "смысла", а только с движущимся, который обычно называют "логикой". Поскольку информация имеет направление, которое всегда можно интерпретировать как направление от причины к следствию.

В моей интерпретации, информация, разумеется, никуда не "движется" - это результат процесса измерения и, разумеется, не имеет направления.

Смена состояний системы образует траекторию, "поведение", но это понятия следующего уровня.

> Насколько я понял, "Образец" и "Пробник" образуют единую систему, которая стремится к равновесию - это и создает "транспорт информации".

По сути - да. Две системы, способные к взаимодействию, приведенные в соприкосновение, стремятся к выравниванию своих одноименных потенциалов. С физической точки зрения мы говорим о смешивании, с идеальной - о "передаче информации".

> Но информативно не только изменение состояния (в "Образце"), но и последовательность, сценарий, порядок его изменения в "Пробнике". Информативен не только текст, но и контекст.

Нет возражений. Но мне представляется ошибкой рассматривать как единый процесс два разных уровня взаимодействия.

Грубо говоря, есть "точка контакта" (в терминологии Шеннона "канал связи"), где и происходит обмен, и есть само устройство, которое и распоряжается полученной информацией.

Представьте, например, два биллиардных шара: бьете по первому, а в лузу летит второй. Удобно отдельно рассмотреть сам удар и отдельно - поведение второго шара. При том же самом ударе ("сигнал"), но различных положениях второго шара ("контекст") результат будет различен. Было бы ошибкой переносить на "сигнал" нюансы поведения второго шара.

Инвариант   02.08.2019 20:01   Заявить о нарушении
Инвариант, я глубоко признателен за подробные разъяснения (теперь я знаю, что такое бит), но в целом, мне кажется, мы сбиваемся на мелкотемье. После того как мы распилили энтропию, контакт в общении как-то теряется. Повидимому, мы дошли до «символов веры», и пока дискуссия окончательно не зашла в тупик, потороплюсь сказать о самом главном, что составляет предмет обсуждения: «Что такое информация, и как ее поточнее описать?» – так? Вы пишете:
> Шеннон рассматривает только Канал связи (передачу сообщения). Я хочу обобщить понятие Информации и на сами взаимодействующие системы.
– Именно этот момент интересует меня больше всего; поскольку я ставлю перед собой ту же задачу, хотя и подхожу к ней с противоположной стороны. Возможно, Вам будет интересно узнать, что с противоположной стороны тоже есть что обобщать. Позвольте описать в двух словах, как я вижу ситуацию в целом. Только не судите меня строго за то, что я сделаю это по-русски: Вашей персональной терминологией я владею пока плохо.
Итак, информационные явления (как ее ни понимай) имеют отчетливые черты как волновых, так и корпускулярных (линейных) процессов. Другое дело, что в различных явлениях одна из этих сторон проявляется минимально. Отсюда и различие, даже противоположность, точек зрения: разные люди видят различные аспекты единого феномена, рассматривая свой круг проявлений, бессознательно абстрагируясь от противоположных свойств информации.
Мы имеем достаточно содержательную теорию линейной информации, которая абстрагируется от ее волновых свойств. Достаточно сказать, что я изучал основы этой теории еще в 70-е годы. Но я, все-таки, прибавлю, что «Марк-1» Розенблатта расскчитывался по ее основным формулам – а ведь это 50-е годы; с момента явления винеровского «Черного ящика» прошло всего 10 лет. Это к Вашему замечанию, что понятие ИС, дескать, не функционально. Как говорила наша общая знакомая, «нейронные сети реально работают». Стоит ли говорить, что все компьютеры строились на линейных представлениях об информации – хотя теория применялась при этом и не так последовательно.
Благодаря нашему обсуждению, я понял одну важную вещь: «информатика Шеннона» не имеет никакого отношения к линейной информатике; его подход – чисто волновой. Меня обманул термин «релейные коммуникации», и Вас, возможно, тоже.
Я с нарастающим интересом знакомлюсь с Вашими публикациями из цикла «Философия информации», пытаясь понять Ваши исходные – и через них также исходные Шеннона; поскольку это противоположные точки зрения, и их эвристическое воздействие трудно переоценить. Приходится только сожалеть, что Ваше понимание вопроса, по Вашему собственному признанию, не вышло за пределы инженерного мышления. Но даже если воспринимать эти тексты как «поток сознания», они наводят на неожиданные размышления, открывают новые темы и позволяют сформулировать вопросы. Вы не будете возражать, если я задам некоторые из них на соответствующих страницах? На ответе я не настаиваю, и не тороплю.
Немало идей мне принесло и наше обсуждение. Удалось, в частности, нащупать «чувствительные теги» Вашего подхода. например: «кодовые таблицы», «крнтекст», «смысл», «информативность»… Как сказал бы Леонид Ильич: «Информатика должна быть информативной», одним битом тут не отделаешься.
С уважением, Ник.
P.S. Оставляю за собой право возвращаться к той «вермишели», которую мы здесь налепили – там есть интересные моменты. Только не обещаю, что это быдет систематически и оперативно.

Ник Пичугин   09.08.2019 09:58   Заявить о нарушении
> Итак, информационные явления (как ее ни понимай) имеют отчетливые черты как волновых, так и корпускулярных (линейных) процессов. Другое дело, что в различных явлениях одна из этих сторон проявляется минимально. Отсюда и различие, даже противоположность, точек зрения: разные люди видят различные аспекты единого феномена, рассматривая свой круг проявлений, бессознательно абстрагируясь от противоположных свойств информации.

Должен признаться, что в свою очередь, и я не понимаю вашей терминологии: что означает "волновой" и "корпускулярный" применительно к информации.

С другой стороны, мне это не кажется важным. Любое явление едино и "волновое" или "корпускулярное" описание - только модель (роль), подобно известной притче о слепых и слоне. Похож слон на стену, колонну или веревку - только способ представления каждого из них, в зависимости от того, ощупывает ли он бок слона, его ногу или хобот.

Важно иное. Как мне представляется по предыдущим вашим замечаниям, Информация видится вам некоторой физической сущностью, потоком, флюидом распространяющимся через систему (поток Агента через Фрейм. Действие есть произведение Потока на Путь). Такое представление может быть удобно для некоторых целей (я и сам его использую), но не должно рассматриваться как реальное. Фактически, оно противоречит всему, что нам известно о свойствах Информации, как идеальной (а не физической) сущности. Напомню, что Физика не только не знает понятия информации, но и не нуждается в нем. Информация - это просто альтернативный (безмассовый и безэнергетический) способ описания реальных физических процессов.

Иными словами: Информация - это НЕ сущность, это (симметричное) отношение двух сущностей. Из этого (релятивистского) понимания и вытекает все остальное

> Мы имеем достаточно содержательную теорию линейной информации, которая абстрагируется от ее волновых свойств. Достаточно сказать, что я изучал основы этой теории еще в 70-е годы.

На мой взгляд, никакой "теории информации" не существует. Это чистый маркетинг. Р. Фано (как и К. Шеннон) писал о "Математической теории связи". Есть еще "Теория Кодирования". И пара сотен взаимно исключающих точек зрения на понятие "Информация".

> Но я, все-таки, прибавлю, что "Марк-1" Розенблатта рассчитывался по ее основным формулам - а ведь это 50-е годы; с момента явления винеровского "Черного ящика" прошло всего 10 лет. Это к Вашему замечанию, что понятие ИС, дескать, не функционально. Как говорила наша общая знакомая, "нейронные сети реально работают". Стоит ли говорить, что все компьютеры строились на линейных представлениях об информации - хотя теория применялась при этом и не так последовательно.

Персептрон (и, вообще, нейросеть) - суть адаптивный фильтр. Детали реализации неважны. Как и формулы расчета. Только передаточная функция.

> Благодаря нашему обсуждению, я понял одну важную вещь: "информатика Шеннона" не имеет никакого отношения к линейной информатике; его подход - чисто волновой.

Опять должен признаться, что не понимаю терминологии. Подход Шеннона был очень прост: рассматривалась двухкомпонентная смесь (энтропия + избыточность, сигнал + шум). При заданной пропускной способности канала, доля одной компоненты в смеси была тем меньше, чем выше доля другой. Все остальное - чистая арифметика.

> Приходится только сожалеть, что Ваше понимание вопроса, по Вашему собственному признанию, не вышло за пределы инженерного мышления.

На мой взгляд, это единственное, что возможно на данный момент. В любом случае, все философские попытки осмысления понятия "Информация", очевидно, провалились. Необходимо выбросить весь накопленный философский хлам и начать с самого начала - с фактов.

> наводят на неожиданные размышления, открывают новые темы и позволяют сформулировать вопросы. Вы не будете возражать, если я задам некоторые из них на соответствующих страницах

Только приветствую. Нет способа найти Истину, не рассмотрев вопрос с разных сторон.

Инвариант   09.08.2019 14:19   Заявить о нарушении
> Должен признаться, что в свою очередь, и я не понимаю вашей терминологии:
– как и я Вашей. К счастью, у нас имеется русский язык для перевода, рекомендую. И попытаюсь воспользоваться им, чтобы внятно изложить свое основное. С точки зрения средневзвешенного просвещенного русского обывателя, информация «возникает» в каждый момент каждого элементарного события и распространяется в окружающем физическом пространстве волной сообразно формой этого пространства и свойствам среды (например, полусферой). Но быстро гаснет по ходу распространения: теряет четкость, детальность, физическую энергетику. Феномен человека, создающего Вторую Природу, изменил ситуацию. Цивилизация создала в окружающей среде некие каналы, в которых информация распространяется без существенных потерь. Это сильно обобщенные аналоги релейных коммуникаций; например – книга. Причем эти каналы непостижимым, волшебным образом зависят не только от источника и среды, но и от приемника. В результате, мы получаем возможность (и необходимость) рассматривать некое «информационное пространство», которое по мере развития цивилизации все больше отличается от физического. И вместо «среды распространения» в этом пространстве имеются «каналы коммуникаций»; причем физическое пространство играет роль одного из таких каналов – не самого совершенного.
Например, мой друг в Лос-Анжелесе физически почти недостижим, но в информационном смысле – почти рядом, поскольку у меня есть номер его мобильного. И напротив, знакомый в соседнем городе одинаково отдален в обоих смыслах, поскольку его телефона у меня нет.
Таким образом, линейная модель информационной системы состоит всего из двух (типов) элементов: узла и направленной связи. Это модельные аналоги приемника-передатчика (ИС) и канала коммуникации. Другое дело, что узлы весьма разнообразны по своим функциям, что и создает содержательность теории. Это, собственно говоря, явно выделенные информационные подсистемы, которые имеют свою внутреннюю структуру.
Тем не менее, это всего лишь модель – адекватная для определенного – хотя и широкого круга явлений. Информация все равно «распространяется» от единичного события волной – в том числе, и в реальных (а не модельных) коммуникациях. Она имеет внутреннюю структуру (которая меняется по мере прохождения); но от этих – диссипативных перемен линейная информатика абстрагируется.
> Как мне представляется по предыдущим вашим замечаниям, Информация видится вам некоторой физической сущностью, потоком...
– как видите, нет. Линейная модель абстрагируется от физических свойств носителей (узлов и связей). Я понимаю информацию как смысл, который передается и обрабатывается на этих носителях; и который – в принципе! – можно оцифровать. Или просто хочется.

Ник Пичугин   13.08.2019 10:59   Заявить о нарушении
> поток Агента через Фрейм. Такое представление может быть удобно для некоторых целей (я и сам его использую), но не должно рассматриваться как реальное. Фактически, оно противоречит всему, что нам известно о свойствах Информации, как идеальной (а не физической) сущности.
– и соответствует всему, что о ней знаем мы. Инвариант, я бы понял Ваше заблуждение, если бы не Вы призывали:
> Необходимо выбросить весь накопленный философский хлам и начать с самого начала - с фактов.
– Обратимся к фактам.
> Персептрон (и, вообще, нейросеть) - суть адаптивный фильтр. Детали реализации неважны. Как и формулы расчета. Только передаточная функция
– Что бы это ни значило (нотабене: адаптивный фильтр тоже ИС), я констатирую, что Вы не отрицаете того факта, что линейная информатика работает. Вы говорите:
> Нет способа найти Истину, не рассмотрев вопрос с разных сторон.
– Инвариант, этого недостаточно. Потому что Вы при этом добавляете:
> С другой стороны, мне это не кажется важным.
– Теперь послушайте меня. Мою житейскую философию. Мы говорим об одном и том же явлении, да, но оно настолько обширно, что с одной точки зрения его понять невозможно. (Человек способен видеть одновременно с разных точек зрения только самые простые вещи.) И для того, чтобы знание этого единого явления тоже было единым (иначе это незнание), надо искать точки соприкосновения (и согласия) противоположных, «взаимно исключающих» концептов. Вот почему я интересуюсь подходом Шеннона. (И Р. Фано, Вы говорите?)
Вы говорите:
> На мой взгляд, никакой "теории информации" не существует.
– Именно, на Ваш взгляд. Это никакой не обывательский аутизм, и не симптом интеллектуального солипсизма, это нормально. Ее «не существует» – для Вас. Просто потому что Вы ее «не видите». С Вашей точки зрения ее не видно. Вы просто оговорились.

Ник Пичугин   13.08.2019 11:46   Заявить о нарушении
> В любом случае, все философские попытки осмысления понятия "Информация", очевидно, провалились.
– И поэтому поставим крест на «философскрм подходе»? А вот это что, Инвариант?
> Иными словами: Информация - это НЕ сущность, это (симметричное) отношение двух сущностей. Из этого (релятивистского) понимания и вытекает все остальное
– Это ведь та же философия (восходящая к платоновской Пещере), только кустарная. А вот это:
> Напомню, что Физика не только не знает понятия информации, но и не нуждается в нем. Информация - это просто альтернативный (безмассовый и безэнергетический) способ описания реальных физических процессов.
– То же самое можно сказать о химии, биологии, геологии, социологии… продолжать? Здесь мы пропустили один существенный вопрос: зачем одно и то же явление описывать дважды? Ответ перед Вами. «Транспорт информации» – вот то общее, что объединяет предметы всех этих (и остальных) наук. И Вы, разумеется, знаете, как кличут раздел философии, которая озадачена самими общими для всех областей знания закономерностями природы. Современная форма гнгсеологии называется «системологией», и информатика – весьма существенная ее часть. (Разъяснения нужны?) Информатика не принадлежит ни Шеннону, ни Винеру, никому – только своему предмету.
Мы с вами, Инвариант, противоположны и в некотором другом смысле. Я иду от самых общих (абстрактных) понятий к конкретике (это называется «анализ»), а Вы – обобщаете факты (это т.н. «феноменология»). Попытки аналитиков (которых Вы не без оснований называете «философами») потому «очевидно провалились», и потому не скоро увенчаются успехом, что феноменология не проделала свою часть пути навстречу анализу. Современная научная истина настолько сложна, что может быть установлена только согласованием противоположных подходов. «Согласие теории и эксперимента» – это вчерашний, примитивный прототип современного научного мышления. Которое, вопреки наличным и наглядным фактам, все же, существует и развивается.

Ник Пичугин   13.08.2019 14:54   Заявить о нарушении
1. Инвариант, в Вашей модели «сравнения» («взвешивания», «транспорта») Вы не имеете права пользоваться понятием «сигнала»: в ней нет инстанции, ответственной за раскадровку «потока перемен». Приходится выбирать, что считать «фракталом»: либо всю систему – а это, с учетом Образца и Приемника – вся информационная Вселенная, либо «сигнал». Вы свой выбор сделали.
2. Для меня, признаться, была полной неожиданностью Ваша трактовка понятия «контекст» – абсолютно правомерная, кстати; неожиданно правомерная. Думаю, для Вас такой же неожиданностью будет моя. Имелся в виду контекст сообщения («сигнала»), который создается именно его ограниченностью (см. предыдущий п.1.) Только в рамках ограниченного пакета текст приобретает смысл, который создается связями между знаками текста. Знаю, знаю, не надо возмущаться и протестовать. Это мое понимание «текста», «сигнала» и т.д., и я знаю, насколько оно Вам чуждо. Тут у нас конфликт моделей. Прекрасно.
3. Вы говорите, что «понятие информативности не имеет смысла» – для Вас, разумеется. Сравните с моей точкой зрения. Информативность – это способность вызывать изменения, причина перемен.
4. В связи с этим имеется вопрос: как Вы учитываете, что «транспорт информации» вызывает не только «сравнение». но и «уравнивание» двух систем? Что есть такое изменение абстракта (которым является по Вашему представлению Пробник)?
С уважением, Ник.

Ник Пичугин   13.08.2019 15:20   Заявить о нарушении
> С точки зрения средневзвешенного просвещенного русского обывателя, информация "возникает" в каждый момент каждого элементарного события и распространяется в окружающем физическом пространстве волной сообразно формой этого пространства и свойствам среды (например, полусферой). Но быстро гаснет по ходу распространения: теряет четкость, детальность, физическую энергетику.

"С точки зрения" - это не обоснование. Никаких доводов в пользу "волны" не существует: нет ни носителя этой "волны", ни закона убывания (как обратный куб, например) ее энергии в пространстве/времени. Медицинские рецепты на клинописных табличках древних шумер также актуальны, как и пять тысяч лет назад - в момент написания. В сущности, все это уже было в "Инфодинамике" Лийва ("плоская волна") (http://bookz.ru/authors/liiv-eh/info-nd.html) и ушло в небытие, вместе с прочими бессодержательными измышлениями.

> Цивилизация создала в окружающей среде некие каналы, в которых информация распространяется без существенных потерь.

При чем тут цивилизация? Свет далеких звезд, реликтовое излучение, вечные льды Антарктиды, генотипы выживших видов и кости давно умерших...

> Причем эти каналы непостижимым, волшебным образом зависят не только от источника и среды, но и от приемника.

Канал, по определению, есть нечто независимое и от Источника, и от Приемника.

> В результате, мы получаем возможность (и необходимость) рассматривать некое "информационное пространство", которое по мере развития цивилизации все больше отличается от физического. И вместо "среды распространения" в этом пространстве имеются "каналы коммуникаций"; причем физическое пространство играет роль одного из таких каналов - не самого совершенного.

Прежде всего, никакого канала, кроме физического, нет и быть не может.

> Например, мой друг в Лос-Анжелесе физически почти недостижим, но в информационном смысле - почти рядом, поскольку у меня есть номер его мобильного. И напротив, знакомый в соседнем городе одинаково отдален в обоих смыслах, поскольку его телефона у меня нет.

Ваш сосед из соседнего подъезда может иметь с вами общую стенку, но ходить к нему в гости придется через улицу, так что "близость" - это вопрос метрики.

> Таким образом, линейная модель информационной системы состоит всего из двух (типов) элементов: узла и направленной связи. Это модельные аналоги приемника-передатчика (ИС) и канала коммуникации.

Любая незамкнутая модель (включая шенноновскую), очевидно, неверна. Любые силы всегда прилагаются только парой, замкнутой по контуру. То, что электрики называют "общим проводом".

> Другое дело, что узлы весьма разнообразны по своим функциям, что и создает содержательность теории. Это, собственно говоря, явно выделенные информационные подсистемы, которые имеют свою внутреннюю структуру. Тем не менее, это всего лишь модель - адекватная для определенного - хотя и широкого круга явлений. Информация все равно "распространяется" от единичного события волной - в том числе, и в реальных (а не модельных) коммуникациях. Она имеет внутреннюю структуру (которая меняется по мере прохождения); но от этих - диссипативных перемен линейная информатика абстрагируется.

Не вижу, что здесь обсуждать. Это просто некоторый набор пожеланий, ничем не подкрепленный и противоречащий фактам.

> Как мне представляется по предыдущим вашим замечаниям, Информация видится вам некоторой физической сущностью, потоком... - как видите, нет. Линейная модель абстрагируется от физических свойств носителей (узлов и связей). Я понимаю информацию как смысл, который передается и обрабатывается на этих носителях; и который - в принципе! - можно оцифровать. Или просто хочется.

О "смысле" мы уже говорили. К информации он отношения не имеет.

> поток Агента через Фрейм. Такое представление может быть удобно для некоторых целей (я и сам его использую), но не должно рассматриваться как реальное. Фактически, оно противоречит всему, что нам известно о свойствах Информации, как идеальной (а не физической) сущности.

- и соответствует всему, что о ней знаем мы.

Соответствует чему? Поясните. Для информации нет законов сохранения - это идеальный объект. Соответственно, любые рассуждения о "диссипации" теряют смысл.

> Персептрон (и, вообще, нейросеть) - суть адаптивный фильтр. Детали реализации неважны. Как и формулы расчета. Только передаточная функция

- Что бы это ни значило (нотабене: адаптивный фильтр тоже ИС), я констатирую, что Вы не отрицаете того факта, что линейная информатика работает.

Я не знаю, что такое "линейная информатика" (и существует ли она) и не готов делать каких-либо заявлений о ней.

> Мы говорим об одном и том же явлении, да, но оно настолько обширно, что с одной точки зрения его понять невозможно.

Это не довод. Есть нечто, что мы не понимаем или понимаем плохо. Это не означает, что оно "обширно" или обладает еще какими-то свойствами. Просто у нас нет четкого представления о нем.

Информатика (computer science) - это не ответ на наши вопросы, это нечто размытое и не сформировавшееся, все еще не знающее, что есть "Информация".

> Мы с вами, Инвариант, противоположны и в некотором другом смысле. Я иду от самых общих (абстрактных) понятий к конкретике (это называется "анализ"), а Вы - обобщаете факты (это т.н. "феноменология"). Попытки аналитиков (которых Вы не без оснований называете "философами") потому "очевидно провалились", и потому не скоро увенчаются успехом, что феноменология не проделала свою часть пути навстречу анализу.

Откровенно говоря, я пока не вижу успехов ни с одной стороны. По сути, нет ни одной концепции, которая не противоречила бы всем остальным.

> в Вашей модели "сравнения" ("взвешивания", "транспорта") Вы не имеете права пользоваться понятием "сигнала": в ней нет инстанции, ответственной за раскадровку "потока перемен".

Почему же. Мы всегда знаем начало и конец передачи (процедуры "взвешивания"). Структура сообщения при этом не имеет значения - важны только начальное и финальное состояние Приемника. На этом и построено определение энтропии, как функции состояния системы.

> Только в рамках ограниченного пакета текст приобретает смысл, который создается связями между знаками текста.

Простой контрпример: шахматная партия. Вне полного контекста игры, очередной ход не имеет ни малейшего смысла. И в другой шахматной партии тот же самый ход может иметь совершенно другой смысл. Повторю еще раз: сигнал - это только синхропосылка, не несущая информации. Любая апелляция к внутренней структуре сигнала изначально провальна. Если "все дороги ведут в Рим", совершенно неважно, по какой из них идти.

> Информативность - это способность вызывать изменения, причина перемен

Вы, очевидно, смешиваете "информацию", как объективный фактор, и "чувствительность" - как субъективное свойство ее приемника. Скажем, дробинка, попавшая в белку, будет причиной ее гибели. Слон дробинку не заметит. "Информация" в обоих случаях будет идентичной.

> как Вы учитываете, что "транспорт информации" вызывает не только "сравнение". но и "уравнивание" двух систем. Что есть такое изменение абстракта (которым является по Вашему представлению Пробник)

Я называю это "синхронизацией" (возможной только для функционально идентичных систем. Например, кварцевый генератор синхронизирует бронзовый балансир электромеханических часов). Но она необязательна, если цель - только измерение. Например, сравнивая две строки по Левенштейну (расстояние редактирования), мы не приводим физически их в идентичное состояние.

Инвариант   16.08.2019 20:48   Заявить о нарушении
> Ваш сосед из соседнего подъезда может иметь с вами общую стенку, но ходить к нему в гости придется через улицу, так что "близость" - это вопрос метрики.
– Прекрасно Инвариант, вы меня правильно поняли. Остается сделать еще одно маленькое духовное усилие и признать справедливость мнения, которые разделяют многие – в том числе, и мы с Вами (поправьте меня, если я ошибаюсь): информация – только абстрактное описание «реальных» (физических) процессов. Мы абстрагироваться будем – или нет? Тогда физическая метрика пространства интересует лишь постольку поскольку; нам надо знать метрику информационную. Передавать сообщения можно и через стенку – азбукой Морзе. Или переговариваться через балконы; можно и картинку какую показать – издали. Балконы не смежные – это чтобы хождение через улицу оставить как отдельный способ общения. И чтобы в нашем мысленном эксперименте были самые различные каналы коммуникации, и мы могли рассматривать отдельные случаи. Теперь, внимание, вопросы:
1. Есть ли принципиальное различие между физическим каналом коммуникации и информационным?
То есть – существует ли этот второй как отдельная сущность?
Информация (sic!) к размышлению:
> Никаких доводов в пользу "волны" не существует: нет ни носителя этой "волны", ни закона убывания (как обратный куб, например) ее энергии в пространстве/времени.
> Прежде всего, никакого канала, кроме физического, нет и быть не может.
– Инвариант, Вы действительно не замечаете, что эти два пассажа противоречат друг другу? Как у Вас с формальной логикой?
2. Как зависит передаваемая информация от способа передачи – и зависит ли?
И чем он («способ передачи информации») как понятие отличается от понятия «канал коммуникации» (в расширительном смысле, оговоренном мною выше… и ниже, и везде)?
Информация (sic!) к размышлению:
> Если "все дороги ведут в Рим", совершенно неважно, по какой из них идти.
> Вы, очевидно, смешиваете "информацию", как объективный фактор, и "чувствительность" - как субъективное свойство ее приемника.
– Инвариант, Вы действительно не замечаете, что эти два пассажа противоречат всему, что Вы знаете об информации: что это абстрактный аналог, а не физический процесс, что информация возникает только в момент приема, что коммуникация невозможна без «функциональной идентичности» приемника и передатчика (а сама информация – невозможна без коммуникации)?
Как у Вас с формальной логикой?
3. Чем отличаются понятия «информационного процесса», «коммуникации» т «информационного обмена» – и отличаются ли?
Признаю, это самый трудный вопрос; не ответив на два предыдущих браться за него преждевременно.

Ник Пичугин   19.09.2019 10:34   Заявить о нарушении
Признаться, формат, предлагаемый данным сервером, предельно неудобен для общения. Так что для простоты, объединил два ответа в один.
> Ваш сосед из соседнего подъезда может иметь с вами общую стенку, но ходить к нему в гости придется через улицу, так что "близость" - это вопрос метрики.

- Прекрасно Инвариант, вы меня правильно поняли. Остается сделать еще одно маленькое духовное усилие и признать справедливость мнения, которые разделяют многие - в том числе, и мы с Вами (поправьте меня, если я ошибаюсь): информация - только абстрактное описание "реальных" (физических) процессов.

Угу.

Мы абстрагироваться будем - или нет Тогда физическая метрика пространства интересует лишь постольку поскольку; нам надо знать метрику информационную.

Не связанные вещи. В программировании часто используют паттерн MVC (Model-View-Controller). Скажем, база данных у вас одна, а то как она представляется пользователям - у каждого свое View. Точно также, идентичный сигнал каждый видит по-своему (Холмс-Ватсон итд).

> Теперь, внимание, вопросы: 1. Есть ли принципиальное различие между физическим каналом коммуникации и информационным То есть - существует ли этот второй как отдельная сущность

Второго, очевидно, нет без первого. Но это не влечет эквивалентность. Например, Холмс и Ватсон, наблюдая тот же самый сигнал, используют различные модели для его интерпретации. С различными результатами. Или, скажем, сменные насадки на дрель: движок один. А результат - то пылесос, то отрезной круг... издержки интерпретации :-)

> Информация (sic!) к размышлению:

> Никаких доводов в пользу "волны" не существует: нет ни носителя этой "волны", ни закона убывания (как обратный куб, например) ее энергии в пространстве/времени.

> Прежде всего, никакого канала, кроме физического, нет и быть не может.

- Инвариант, Вы действительно не замечаете, что эти два пассажа противоречат друг другу Как у Вас с формальной логикой

Не замечаю. Если я мешаю кочергой угли в камине, то ти там нет ни (информационной) волны, ни закона ее убывания. Написанный мной текст и вы, и кто-либо еще (если таковой найдется) увидят без малейших потерь на время /расстояние от моего компьютера. так же, как и глиняные таблички Др. Шумер или спектр света далеких звезд.

Не надо отождествлять носитель и информацию - не будет и противоречий.

> 2. Как зависит передаваемая информация от способа передачи - и зависит ли

Уже не раз писал - никак не зависит. "Хоть тушкой, хоть чучелом". Хоть голубиной почтой, хоть фельдъегерской...

> И чем он ("способ передачи информации") как понятие отличается от понятия "канал коммуникации" (в расширительном смысле, оговоренном мною выше... и ниже, и везде)

Ничем. Точка контакта двух систем. Общая точка контрольной поверхности (трансформатор/шлюз). Просто Шеннону было удобно вытянуть ее в "канал" :-)

> Информация (sic!) к размышлению:

> Если "все дороги ведут в Рим", совершенно неважно, по какой из них идти.

> Вы, очевидно, смешиваете "информацию", как объективный фактор, и "чувствительность" - как субъективное свойство ее приемника.

- Инвариант, Вы действительно не замечаете, что эти два пассажа противоречат всему, что Вы знаете об информации: что это абстрактный аналог, а не физический процесс, что информация возникает только в момент приема, что коммуникация невозможна без "функциональной идентичности" приемника и передатчика (а сама информация - невозможна без коммуникации)

Вот, в упор не замечаю. Больше того, не вижу никакой связи между сказанным мной и вами.

Простой пример: шахматный эндшпиль, король заперт в угол. Не имеет ни малейшего значения, сколько ходов длилась партия и как он туда попал. Важна только текущая позиция - "функция состояния". Вся теория Шеннона построена именно на этом безразличии.

> 3. Чем отличаются понятия "информационного процесса", "коммуникации" т "информационного обмена" - и отличаются ли

Я их рассматриваю как синонимы абстрактного (безэнергетического) описания процесса. То есть, "информационный обмен" - это всегда дублирование, тогда как физический - перемещение.

> Отдельно позвольте - синхронно с моим крайним добавлением к "Янковскому" - оглянуться на то, на что оглянулись Вы:

> - Декодер нужен Шеннону для того, чтобы отсеять "черный шум" окружающей среды, в котором растворена информация. А кодер - для того, чтобы растворить эту информацию в этом "черном шуме", поскольку иначе информация не передается.

Кодер/декодер не имеют ни малейшего отношения к шуму (и, изначально, Шеннон рассматривает канал без шума). Кодер/декодер - это два комплиментарных трансформатора на концах линии связи, служащие для ее согласования с источником /приемником (точно также, как ставятся повышающий и понижающий трансформаторы на концах ЛЭП). В частном случае, они могут быть "прозрачны" или служить для организации шифротуннеля, но к содержанию сообщения они отношения не имеют - это просто согласующий каскад. Например, пакер/анпакер согласует статистические характеристики источника с пропускной способностью линии.

> Этот "черный шум" - физическое свойство канала коммуникации. Своеобразная, расширенно понимаемая "несущая частота" для переноса этой информации через эфир к приемнику.

Какое-то "дикое" описание. В общепринятый набор ("белый", "цветной", "гауссов" итп) "черный" шум не входит (обычно, понимается как "тишина"). И, как уже сказано, к кодированию шум отношения не имеет. В двухкомпонентной модели Шеннона, пропускная способность ("сечение") канала делится между сигналом и шумом. Чем выше доля одной компоненты, тем ниже другой. С увеличением доли шума, пропускная способность канала для сигнала падает.

> . Правильно ли я понимаю, что в процессе релейной коммуникации (у Шеннона) "шум" отсеивается дважды: один раз в передатчике, другой - в приемнике.

Нет, неверно. Исправление ошибок - отдельная тема (оптимальные упаковки итп), по сути, не имеющая отношения к коммуникации. Правильной аналогией может быть прокачивание по трубе двух несмешивающихся жидкостей (Ex. вода -масло). Чем больше объем одной их них - тем большее время требуется для перекачки того же самого объема другой. Увеличение доли шума снижает пропускную способность канала для сигнала. Теоремы Шеннона (прямая и обратная для канала с шумом) утверждают, что существуют такие коды, которые позволяют сколь угодно точно (при стремлении длины блока к бесконечности) разделить эти две компоненты (выделить сигнал из шума). При этом под шумом понимается искажение сигнала в процессе его передачи, а вовсе не "смешивание" сигнала и шума в передатчике.

Грубо говоря, коды исправляющие ошибки, подобно вате в коробке с елочными игрушками, так далеко разносят друг от друга допустимые комбинации (кратно увеличивая длину сообщения), что большая часть ошибок приходится на недопустимые состояния, которые корректируются к ближайшему правильному.

Например, если на корабле три хронометра, но за правильное показание принимается среднее двух наиболее близких из них (мажорирование).

Инвариант   20.09.2019 01:03   Заявить о нарушении
1.
> Уже не раз писал - никак не зависит.
– Одного раза было достаточно, у меня хорошая память. Поэтому я помню, что никаких серьезных аргументов Вы не приводите – только «простые примеры». Я Вам предлагаю пример чуточку посложнее: как Вы передадите видеофильм через стенку азбукой Морзе?
Вы говорите, что физическая метрика и метрика информационная – «не связанные вещи». При этом о физическом и информационном каналах коммуникации говорите, что «Второго, очевидно, нет без первого. Но это не влечет эквивалентность». Согласен, но связь, все-таки, есть?
> Не надо отождествлять носитель и информацию - не будет и противоречий.
– Инвариант, здесь, повторяю, никто не путает эти вещи, источник противоречий какой-то другой. Вы говорили, что информация «не зависит ни от Приемника, ни от Передатчика». Что остается? Только канал передачи. Позвольте мне Вас понять. Вы считаете, что информация зависит только от канала передачи – или она вообще никак не связана с физическими процессами? Какое из своих слов вы предпочтете взять обратно?
Тем не менее, мы договорились, по крайней мере, что под «каналом коммуникации» мы понимаем «способ передачи». Это дает нам возможность пояснить слова на «чуточку более сложном» примере, который Вы же и предложили: со смежными квартирами.
> – Чем отличаются понятия "информационного процесса", "коммуникации" т "информационного обмена" - и отличаются ли
> Я их рассматриваю как синонимы.
– То есть, различий нет? Можно проиллюстрировать на этом примере:
(а) созерцание пейзажей из окна;
(б) стук кулаком в стенку смежной квартиры;
(в) путешествие через улицу к дверям смежной чужой квартиры с последующим объяснением.
Есть ли существенные различия в этих информационных процессах (если Вы их таковыми считаете)?

2.
> Исправление ошибок - отдельная тема
– ради порядка, уточните, от каких ошибок мы абстрагируемся: от технических ошибок передатчика? Каких-либо других?
> При этом под шумом понимается искажение сигнала в процессе его передачи
– Это и есть тот шум, который фильтруется декодером? Значит, при передаче его не было? Тогда как понимать фразу:
> Правильной аналогией может быть прокачивание по трубе двух несмешивающихся жидкостей (Ex. вода -масло).
– Прокачивание? Как это согласуется с утверждением, что не было никакого "смешивания" сигнала и шума в передатчике? Используя другую Вашу аналогию, я понимаю это так, что «елочные игрушки» транспортируются насыпью, без всякой «ваты»
Вряд ли какую-либо ясность может внести Ваше объяснение, что
> Кодер/декодер - это два комплиментарных трансформатора на концах линии связи, служащие для ее согласования с источником /приемником (точно также, как ставятся повышающий и понижающий трансформаторы на концах ЛЭП…
– или как колебательные контуры приемника и передатчика.
> В частном случае, они могут быть "прозрачны" или служить для организации шифротуннеля, но к содержанию сообщения они отношения не имеют - это просто согласующий каскад.
– Да, я так и говорил – о колебательных контурах.
Инвариант, попытайтесь понимать меня – хотя бы в простейших случаях.
3.
Я же не супостат. И сложные случаи признаю:
> > Если "все дороги ведут в Рим", совершенно неважно, по какой из них идти.

> Вы, очевидно, смешиваете "информацию", как объективный фактор, и "чувствительность" - как субъективное свойство ее приемника.

- Инвариант, Вы действительно не замечаете, что эти два пассажа противоречат всему, что Вы знаете об информации: что это абстрактный аналог, а не физический процесс, что информация возникает только в момент приема, что коммуникация невозможна без "функциональной идентичности" приемника и передатчика (а сама информация - невозможна без коммуникации)

Вот, в упор не замечаю. Больше того, не вижу никакой связи между сказанным мной и вами. >
– И я не замечаю. Здесь у меня произошла какая-то техническая ошибка: вместо второй цитаты должна была стоять какая-то другая. Возможно, я ее найду и вернусь к тому же вопросу.
Это исключение, которое доказывает правило: я говорю по сути, и о смысле сказанного догадаться не так уж сложно.
С уважением, Ник.

Ник Пичугин   20.09.2019 11:58   Заявить о нарушении
> - Я Вам предлагаю пример чуточку посложнее: как Вы передадите видеофильм через стенку азбукой Морзе

Эта задача была решена еще Нипковым ("диск Нипкова", 1884) - поэлементное сканирование (телевизионная развертка). Исключая технические нюансы, все видеосистемы до сих пор так и работают. MP4, в частности, передаются, хотя и не азбукой Морзе, но кодами ASCII.

> Вы говорите, что физическая метрика и метрика информационная - "не связанные вещи". При этом о физическом и информационном каналах коммуникации говорите, что "Второго, очевидно, нет без первого. Но это не влечет эквивалентность". Согласен, но связь, все-таки, есть

Нет никакой связи. Есть уровень абстракции над транспортным уровнем. Например, наше общение на .proza.ru (в каких бы метриках оно не измерялось), не имеет никакой связи с шириной полосы интернет-канала, скоростью доступа, размером буферов и установками flow control.

> Вы говорили, что информация "не зависит ни от Приемника, ни от Передатчика". Что остается Только канал передачи.

Нет. Я говорил, что "Разницу конфигураций двух идентичных систем будем называть Информацией о состоянии системы, принимая одну из них за опорную и вторую - за пробную." ("Философия информации" http://www.proza.ru/2017/06/25/2032). Как при этом реализован Канал передачи, не имеет ни малейшего значения.

> Вы считаете, что информация зависит только от канала передачи - или она вообще никак не связана с физическими процессами. Какое из своих слов вы предпочтете взять обратно

Не приписывайте мне собственных заблуждений. Информация не связана ни с каналом, ни с физическими процессами. Это дельта рассинхронизации. Иными словами, она потенциально существует, только если есть две сравниваемые системы. Реальное (физическое) измерение превращает потенцию в факт ("коллапс волновой функции", "снятие неопределенности").

Не имеет никакого значения техническая реализация этого измерения (хоть в "попугаях"), важна только идентичность или различие (и насколько).

> Тем не менее, мы договорились, по крайней мере, что под "каналом коммуникации" мы понимаем "способ передачи".

Еще раз - нет. Способ передачи - это детали реализации ("голубиной почтой", например). Никакого отношения к рассогласованию моделей это не имеет.

> Это дает нам возможность пояснить слова на "чуточку более сложном" примере, который Вы же и предложили: со смежными квартирами.

> - Чем отличаются понятия "информационного процесса", "коммуникации" т "информационного обмена" - и отличаются ли

> Я их рассматриваю как синонимы.

- То есть, различий нет. Можно проиллюстрировать на этом примере:

(а) созерцание пейзажей из окна; (б) стук кулаком в стенку смежной квартиры; (в) путешествие через улицу к дверям смежной чужой квартиры с последующим объяснением.

Есть ли существенные различия в этих информационных процессах (если Вы их таковыми считаете)

И где здесь "информационные процессы"? Исходите из того, что информационный процесс - это процесс синхронизации двух функционально идентичных моделей (например, "ходиков с кукушкой" сигналом точного времени). Нет двух моделей - нет синхронизации. Произвольные сценарии (См. три условия коммуникации. Напр. "Об Информации - без формул" http://www.proza.ru/2019/01/16/110), отношения к синхронизации не имеют.

> Исправление ошибок - отдельная тема

- ради порядка, уточните, от каких ошибок мы абстрагируемся: от технических ошибок передатчика. Каких-либо других

В передатчике нет ошибок. По определению. Ошибки возникают только в канале связи.

> При этом под шумом понимается искажение сигнала в процессе его передачи

- Это и есть тот шум, который фильтруется декодером. Значит, при передаче его не было

Разумеется.

Тогда как понимать фразу:

> Правильной аналогией может быть прокачивание по трубе двух несмешивающихся жидкостей (Ex. вода -масло).

- Прокачивание. Как это согласуется с утверждением, что не было никакого "смешивания" сигнала и шума в передатчике

См. Диаграмму Шеннона. Шум добавляется в канале связи. Иными словами, Приемник получает смесь Сигнала и Шума.

> Используя другую Вашу аналогию, я понимаю это так, что "елочные игрушки" транспортируются насыпью, без всякой "ваты"

Да. Именно так. Это называется "эффективное кодирование" (плотная упаковка). Корректирующие коды добавляют "вату".

> Вряд ли какую-либо ясность может внести Ваше объяснение, что

> Кодер/декодер - это два комплиментарных трансформатора на концах линии связи, служащие для ее согласования с источником /приемником (точно также, как ставятся повышающий и понижающий трансформаторы на концах ЛЭП...

- или как колебательные контуры приемника и передатчика.

Нет. Я выразился предельно ясно - Трансформаторы. Любое другое определение будет неверным. "Колебательные контуры" здесь, вообще, ни при чем - частный случай реализации. В комплиментарной паре "ключ-замок" (или "пароль-отзыв") нет никаких колебательных контуров.

Инвариант   20.09.2019 19:31   Заявить о нарушении
Решил, что следует повторить:

Принципиадьное отличие предлагаемого мной подхода от того, что вы можете встретить где-либо еще, это релятивизм информации: информация не сосредоточена в системе, а является отношением двух систем.

Отсюда немедленно следует невозможность ее локализации в Приемнике, Передатчике или Канала связи.

Инвариант   20.09.2019 21:34   Заявить о нарушении
P.S.
Где-то с неделю, буду off-line.

Инвариант   22.09.2019 19:50   Заявить о нарушении
> Принципиальное отличие предлагаемого мной подхода от того, что вы можете встретить где-либо еще, это релятивизм информации: информация не сосредоточена в системе, а является отношением двух систем.
– Ваши принципы понятны. Теперь я хочу понять, как они соотносятся с Вашими моделями, а модели – с реальностью.
В целом же Ваш предпоследний комментарий носит все следы цейтнота. Читаем внимательно:
> я понимаю это так, что "елочные игрушки" транспортируются насыпью, без всякой "ваты"
Ник Пичугин 20.09
> Да. Именно так. Это называется "эффективное кодирование" (плотная упаковка). Корректирующие коды добавляют "вату".
Инвариант 20.09.
– То есть, корректирующие коды добавляет Приемник? Зачем? Я понимал так, что они нужны для безопасного транспортирования по каналу; теперь ничего не понимаю.
Продолжим внимательное чтение.
> Тем не менее, мы договорились, по крайней мере, что под "каналом коммуникации" мы понимаем "способ передачи".
Ник Пичугин 20.09
> Еще раз - нет.
Инвариант 20.09.
> Я их рассматриваю как синонимы.
Инвариант 20.09.
После этих примеров я надеюсь, что Вы не заставите меня искать Вашу публикацию, где Вы ясно и открытым текстом говорите, что информация «не зависит ни от Источника, ни от Приемника». И от физических процессов тоже!
> Нет никакой связи. Есть уровень абстракции над транспортным уровнем.
Инвариант 20.09.
– Внимательно читаем то, что мы пишем. «Над» – это что, не связь? Я понимал так, что информационные процессы – абстрактный аналог физических. Теперь – ничего не понимаю… Что Вы называете «зависимостью» и «связью»?
Когда-то Мартов говорил, что «за Ульяновым надо записывать». Я начинаю составлять цитатник Ваших высказываний. Чтобы как-то разбираться. Например, в том, являются ли колебательные контуры радиоприемников частным случаем реализации Трансформаторов в канале коммуникации.
> "Колебательные контуры" здесь, вообще, ни при чем - частный случай реализации.
Инвариант 20.09.
– Так да – или нет?
> Нет. Я выразился предельно ясно - Трансформаторы. Любое другое определение будет неверным.
– Может, в этом все дело?
> Исходите из того, что информационный процесс - это процесс синхронизации двух функционально идентичных моделей. Нет двух моделей - нет синхронизации.
> Нет. Я говорил, что "Разницу конфигураций двух идентичных систем будем называть Информацией
> Никакого отношения к рассогласованию моделей это не имеет.
– То есть, Вы предлагаете разговаривать только на Вашем специфическом модельном жаргоне – и любой шаг в сторону засчитывается как побег? Инвариант, я не владею этим жаргоном – и как раз пытаюсь его освоить (см. начало этого коммента). Но это невозможно сделать, без перевода на русский, которым я пока еще владею.
Единственный ответ, который я могу засчитать за содержательный.
> Как Вы передадите видеофильм через стенку азбукой Морзе?
Ник Пичугин 20.09
> Эта задача была решена еще Нипковым ("диск Нипкова", 1884) - поэлементное сканирование
Инвариант 20.09.
к сожалению, тоже отклоняется – как сугубо теоретический. Наука, конечно, умеет много гитик – но не в нашей квартире. Так что передавать изображение через стенку мы пока не будем. И пока не найдется более содержательных аргументов, я буду считать информацию зависимой от канала передачи.
Вы не хотите попробовать ответить на те же вопросы еще раз – в менее суетной обстановке? Или, поставлю вопрос чуть шире: Инвариант, я Вам не надоел со своими вопросами? В конце концов, мы с Вами поставили абсолютный рекорд по продолжительности обсуждения, не грех и взять тайм-аут… если хотите.
С уважением, Ник.

Ник Пичугин   01.10.2019 10:44   Заявить о нарушении
> Принципиальное отличие предлагаемого мной подхода от того, что вы можете встретить где-либо еще, это релятивизм информации: информация не сосредоточена в системе, а является отношением двух систем.

- Ваши принципы понятны. Теперь я хочу понять, как они соотносятся с Вашими моделями, а модели - с реальностью.

Модель на то и модель, чтобы никак с реальность не соотноситься. Планеты Птоломея двигались по эпициклам и деферентам. Физика Галилея не зависела от скорости тела, флогистон имел отрицательный вес, а Сади Карно изучал падение теплорода. Пока модель обладает описательной силой, а еще лучше - предсказательной, она пригодна и, в известном смысле, корректна.

Единственное важное требование: источник и приемник должны разделять ту же самую модель. Если один играет в шашки, а другой - в шахматы, игра не сложится. У Шеннона это общий набор вероятностей для символов алфавита, у электриков - общий провод, у физиков - общая система координат. В широком смысле - общий тезаурус, общий язык, "культурный код" итп.

> я понимаю это так, что "елочные игрушки" транспортируются насыпью, без всякой "ваты"

> Да. Именно так. Это называется "эффективное кодирование" (плотная упаковка). Корректирующие коды добавляют "вату".

- То есть, корректирующие коды добавляет Приемник. Зачем? Я понимал так, что они нужны для безопасного транспортирования по каналу; теперь ничего не понимаю.

Корректирующие коды, при необходимости, добавляет кодер. На приемной стороне они устраняются декодером - "вата" выбрасывается. Это, примерно, как скорлупа ореха - она нужна только до момента доставки ядрышка по назначению.

> Тем не менее, мы договорились, по крайней мере, что под "каналом коммуникации" мы понимаем "способ передачи".

> Еще раз - нет.

> Я их рассматриваю как синонимы.

Дались вам "способы передачи". Можно сказать "нет", а можно "дать в ухо". Способы передачи разные, а информационное содержание то же самое. Никакого отношения "способ передачи" к коммуникации не имеет, это детали реализации.

> надеюсь, что Вы не заставите меня искать Вашу публикацию, где Вы ясно и открытым текстом говорите, что информация "не зависит ни от Источника, ни от Приемника". И от физических процессов тоже!

> Нет никакой связи. Есть уровень абстракции над транспортным уровнем.

На том стоим :-)

- Внимательно читаем то, что мы пишем. "Над" - это что, не связь? Я понимал так, что информационные процессы - абстрактный аналог физических. Теперь - ничего не понимаю...

Угу. Не понимаете. Нет аналога. Есть альтернативное описание. Скажем, собака Павлова. Есть физиологический процесс: раздражитель, сенсоры, эффекторы, нервные пути и проч. физиология. А есть кибернетическое описание - условный рефлекс. И к физическому процессу движения крови и выделению гормонов он отношения не имеет.

> Чтобы как-то разбираться. Например, в том, являются ли колебательные контуры радиоприемников частным случаем реализации Трансформаторов в канале коммуникации.

Есть формальное определение Трансформатора: идеальный четырехполюсник, передающий поток мощности со входа на выход. Например, пылесос - это электропневматический трансформатор. Обменник валюты - это денежный трансформатор. Колебательный контур может быть частью трансформатора, но сам по себе, не имея входа и выхода, таковым не является (внутреннюю трансформацию электрического и магнитного поля в расчет не берем). Иными словами, трансформатор нам интересен только как часть цепи - трансграничный элемент (таможня, например, или граница раздела двух оптических сред итп).

< Лирика опущена >

> Как Вы передадите видеофильм через стенку азбукой Морзе

> Эта задача была решена еще Нипковым ("диск Нипкова", 1884) - поэлементное сканирование

к сожалению, тоже отклоняется - как сугубо теоретический.

Он не только был реализован еще в прошлом веке (системы механического телевидения), но и все современные TV системы (опуская тонкости типа дельта-модуляции и чересстрочной развертки устроены, практически, тем же образом - поэлементное сканирование).

Как сообщает wiki: В английском языке слово впервые прозвучало в 1907 году в описании "гипотетической системы для передачи движущихся изображений по телеграфным или телефонным проводам".

> буду считать информацию зависимой от канала передачи.

Дело ваше. Но пока не избавитесь от заблуждений, с места не сдвинетесь :-)

Инвариант   08.10.2019 22:07   Заявить о нарушении
Кстати, посмотрите комментарии к моей заметке на ФШ - там, где про Большую Медведицу (http://philosophystorm.org/metod-dokhloi-koshki) - это о моделях.

И, заодно, если есть время - многостраничное обсуждение: "Что такое "информация"?" (http://philosophystorm.org/chto-takoe-informatsiya-0) - всякий раз убеждаюсь, что любое другое толкование, кроме предложенного мной, неизбежно заводит в тупик :-)

Инвариант   09.10.2019 03:09   Заявить о нарушении
Не надо «в ухо», Инвариант. Это же Сеть, здесь не всегда понимаешь. что собеседник выведен из себя. Это у меня дотошность, а не вредность, я не хотел Вас злить. Мне нужна была информация, и я ее получил, массу информации. Две крайних публикации, которыми я обязан нашему обсуждению, по-моему, самые содержательные по теме. Если Ваше предложение «Расскажите» все еще в силе, предлагаю вторую из них, опубликованную сегодня:
«Систематика информационных процессов»
http://www.proza.ru/2019/10/10/1000
Комментарии к «Кошке» посмотрел, но фрагмента про Медведицу (и про модель) не нашел – не подскажете дату? Впрочем, Ваш аргумент про Большую Медведицу я помню, и уже отвечал. Уточню с учетом крайних взглядов: это информационный процесс без коммуникации, типа ИС «Декодер», не надо путать его с другими типами, иначе эклектика неизбежна.
Многостраничное обсуждение термина «информация» тоже просмотрел, и тоже по диагонали. Навскидку там идет простой треп: умничание, мелкотемье и топтание на месте, в духе Вашего
> На том стоим :-)
> Но пока не избавитесь от заблуждений, с места не сдвинетесь :-)
С уважением, Ник.

Ник Пичугин   10.10.2019 15:47   Заявить о нарушении
> Не надо "в ухо", Инвариант. Это же Сеть, здесь не всегда понимаешь. что собеседник выведен из себя.

Просто оборот речи. Не имея ввиду ничего конкретного. Только для демонстрации независимости сигнала от его "энергетической" компоненты.

> Если Ваше предложение "Расскажите" все еще в силе

Разумеется.

> предлагаю вторую из них, опубликованную сегодня: "Систематика информационных процессов" http://www.proza.ru/2019/10/10/1000

Сейчас посмотрю.

> Комментарии к "Кошке" посмотрел, но фрагмента про Медведицу (и про модель) не нашел - не подскажете дату

02 Февраль, 2019 / http://philosophystorm.org/metod-dokhloi-koshki#comment-353507. Легко найти по картинке :-)

Но в этой теме стоит посмотреть и толковые комментарии boldachev - хотя мы и разошлись во мнениях :-)

> Впрочем, Ваш аргумент про Большую Медведицу я помню, и уже отвечал. Уточню с учетом крайних взглядов: это информационный процесс без коммуникации, типа ИС "Декодер", не надо путать его с другими типами, иначе эклектика неизбежна.

Ну, коммуникация с Большой Медведицей - это что-то запредельное :-). Я о том, что нельзя ее "увидеть", не имея заранее построенной модели в собственном сознании.

> Многостраничное обсуждение термина "информация" тоже просмотрел, и тоже по диагонали. Навскидку там идет простой треп: умничание, мелкотемье и топтание на месте, в духе Вашего

> На том стоим :-)
> Но пока не избавитесь от заблуждений, с места не сдвинетесь :-)

Видимо, так. Вот здесь: "Информация - это отношение, а не субстанция" (http://www.philosophystorm.org/burykind/1584) BurykinD высказал очень здравую мысль, но развития она не получила.

Инвариант   10.10.2019 21:15   Заявить о нарушении