Философия информационных сред

Инварианту

1.
    Давайте возьмем обыкновенный транзисторный приемник… Где возьмем? Ну, достанем в антикварном магазине – эксперимент-то мысленный… Возьмем приемник, как следует выпотрошим его, тщательно перемешаем детали и загрузим обратно. Нажмем кнопочку. Какова вероятность того, что устройство заговорит человечьим голосом?.. Как следует встряхнем коробочку и повторим попытку… Будем набирать статистику.
    Идея этого межеумочного эксперимента снова и снова приходит мне на ум, когда я размышляю о тупиковой проблеме современной информатики: как совместить статистико-вероятностный подход, начало которому положено Шенноном, – и линейную информатику, которая недаром в прежние (антикварные) времена называлась «теоретической радиотехникой»?
    Конечно, информатика началась не с Фуше и не с Клеточкина – но и не с Шеннона; он лишь удачно упаковал свою идею в подходящее слово – и все сразу стало ясно! мы проснулись в информационном веке. Однако, отправной точкой, без сомнения, следует считать все тот же 1948 год, когда были опубликованы не только доклад Клода Шеннона [3], но и книга Норберта Винера [1]. «Черный ящик» Винера – это, говоря современным языком, информационная система (ИС), которая преобразует сигнал i(1), поступающий на ее «ввод», в сигнал i(2), который она транслирует со своего «вывода» в окружающее пространство, – естественно, информационное. В линейной информатике сигналы i(1) и i(2) изображаются векторами, – то есть, наборами чисел, которые (числа) Ф. Розенблатт называл «весами», и которые есть не что иное как простейшая разновидность информационных кодов.
    Здесь у нас могут возникнуть некоторые разночтения. (Мы ведь иногда путаем слова с понятиями, которые за ними стоят, – так и здесь.) Что считать «информацией»: абстрактный смысл, который несет сигнал i – или его материально реализованный код? Пока что это вопрос вкуса, но по единодушному мнению одного из читателей [7 ], информация – это абстракт (то есть – первое). В «Овеществлении смыслов» автор избрал второе, но настаивать не собирается; и вообще в этом эссе намерен по возможности придерживаться точки зрения этого вышестоящего читателя – просто для того, чтобы доказать (самому себе), что демон «дидактического обскурантизма» не имеет над ним, автором, никакой власти.
    Сигналы на информационную систему могут поступать самые разные (из одного и того же векторного пространства, впрочем), но система не меняется; она определяется своей функцией, преобразуя i(1) в i(2) совершенно определенным и неизменным образом. Эту функцию можно изобразить «оператором трансформации» F (в линейной информатике – матричным). Так что основное и самое элементарное уравнение линейной информатики имеет вид: i(2) = F*i(1). где звездочкой изображен знак умножения (матричного, естественно).
    Это чистая математика. С этого уравнения начинается линейная информатика, наука о внутреннем устройстве информационной системы, в которой (мысленно!) выделяются информационные подсистемы со своими таблицами кодов и операторами трансформации. Подсоединяя друг к другу такие подсистемы (мысленно! чтоб не долбануло), аналитики смотрят (то есть, вычисляют – аналитики же), что получится на конечном выходе. Этим они отличаются от инженеров нейронных сетей, которые сначала делают, а потом думают. Что касается инженеров, то самое обширное практическое применение ЛИ получила в программировании. Любая программа – это линейная ИС; просто потому, что она сначала «вычисляется».
    - Суть этогого метода, - компетентно разъяснил мне один из читателей, - виртуальная декомпозиция (линейной) системы на подходящие для анализа модули и обратная сборка решения полной системы из известных решений для ее частей.- Вот.
    Таким образом, информационная система мыслится как некая среда, в которой (нужным и предсказуемым образом) преобразуется информационный сигнал. Но философия информационных сред с этого только начинается. «Черный ящик» Винера – это только, как говорят электротехники, «участок цепи» [10],  а сама среда – это замкнутый контур, не имеющий ни конца, ни края. Конечно, есть формулы расчета и для участка цепи; ими, в основном, и пользуются для расчета схем – и электротехнических, и радиотехнических. и информационных. Но мы говорим о среде, а не о каком-то ее фрагменте. Откуда-то входящий сигнал приходит, правильно? Куда-то исходящий уходит, верно? И поскольку этот сигнал – информационный, то и среда такая же; а значит, является продолжением нашей ИС, которую мы выделили из нее, из информационной среды, только теоретически. Что она из себя представляет – в целом? и «окружающий» фрагмент за пределами ИС?
    Все информационные процессы – это, можно сказать (многие так и говорят), абстрактный аналог физических; «отражение реальных процессов» в физическом пространстве. Уже хотя бы потому, что любая информация отделима от своего материального носителя только в человеческом воображении – да и то лишь потому, что воображение само является ИС и имеет свой материальный носитель.
    Уж как там наш исходящий сигнал влияет на окружающую физическую среду – другой вопрос; главное, что влияет. И на то имеется отдельный закон природы; и закон, на минуточку, философский. Следовательно, мы (наша ИС, то есть) должны узнать о происходящих изменениях. Но измениться – не значит сообщить об этом. Здесь все зависит от способности приемника информации зарегистрировать такое сообщение. Так что информационная среда каждой ИС продолжается вовне только на те аспекты физического мира, которые воспринимают исходящие коды нашей ИС, нашего «Черного ящика», и транслируют информацию на ее входящих кодах. Все остальное – не существует для ИС, по Оккаму.
    Другими словами, «Внешняя среда» – это тоже ИС со своим оператором трансформации и своими кодовыми таблицами, причем (внимание!) ее входящие коды совпадают с исходящими нашей ИС «Черный ящик», и наоборот («Функциональная совместимость» [9]).  Возможно ли это? Линейная информатика это просто постулирует, это пределы ее применимости. Таким образом, у каждой ИС – свое информационное пространство, которое определяется и измеряется не километрами и килограммами, градусами и амперами, а ее весовыми кодами – входящими и исходящими. В этом сила линейной информатики: задавая ИС. мы тем самым задаем всю ее информационную среду в тотальном информационном пространстве ноосферы – через коды ИС. В этом ее слабость. Потому что описать эту среду линейная информатика способна только как коммуникацию двух информационных систем, замкнутых друг на друга и солидарно стремящихся к равновесию (то есть – отсутствию информационных сигналов).
    Но это может устроить только аналитиков, которые имеют дело с буквами; а инженеров интересуют цифры – все до единого «весовые коэффициенты»  операторов трансформации ИС «Внешняя среда». Понимаете, о чем я говорю, да? Собственно, это и есть основная задача теории управления, которую означенная наука (кибернетика) не решила до сих пор. Смешно сказать, но эта задача не решена даже физиками; что дало повод одному остроумному немцу язвительно назвать физическое пространство «вещью в себе». Все, что мы знаем об окружающем нас материальном мире, все, что мы называем «реальностью», «действительностью», «событиями», «фактами», «материей»… «Вселенной» – все это лишь информация, зарегистрированная нашими органами чувств. (Я ничего не напутал?) Все, что мы имеем – это информация, и только информация.
     Мир, в котором мы живем, полностью определяется сенсорными возможностями человеческого организма. Для сравнения: вселенная дождевого червя – одномерна. А наш мир – четырехмерный. (Мы в четыре раза умнее поэтому.)

2.
     «Рассмотрим тотальный, – следовательно, уникальный – объект U», – как говорил Бруно Понтекорво. – В просторечии именуемый «физическим пространством», или «Вселенной», или «вещью в себе». Всей правды о нем мы не знаем – и, видимо, никогда не узнаем; потому что не имеем и видимо не создадим таких естественных или искусственных сенсоров для того, чтобы зарегистрировать эту правду. Всю. Тем не менее, именно он – и только он (объект U) – является источником информации для нас – вообще всей информации, обо всем: что было, что будет, чем сердце успокоится. Она никуда не исчезает, ей просто некуда деваться оттуда (он же уникальный, U). То есть, отсюда. Поэтому никакого такого «копирования информации» [8] здесь не бывает – это суеверие или метафора: зачем копировать то, что всегда рядом? Другое дело – как его зарегистрировать?
    Человеческой проблемой является регистрация информации – что равнозначно «возникновению» ее в ноосфере. (Это вопрос терминологии.) Для того, чтобы зафиксировать факт, нужен подходящий сенсор в подходящем месте в подходящий момент. Шаг влево – шаг вправо, шаг в прошлое – шаг в будущее… все, нужный информационный повод просто перемешался с «черным» шумом бессмысленной и «серым» шумом ненужной информации (это и есть знаменитая «диссипация») от других источников. И попробуй его потом раскопай. Информация не исчезает – исчезает возможность ее получить. Для того чтобы сохранить информацию в девственной чистоте надолго и не дать ей раствориться в «шуме», человеческая цивилизация придумала «носители информации» (ИС с тривиальной функцией F) – от глиняных табличек Вавилона до современных коммуникаций Сети. Это просто технологическое продолжение и усовершенствование наших естественных органов чувств. Именно благодаря этим достижениям цивилизации мы сегодня все уверенней начинаем различать физическое пространство (как пространство) и информационное (как среду). Мой друг за океаном в информационном отношении буквально рядом – поскольку у меня есть его мобильный номер. И напротив, знакомый в другом городе почти так же далек, как сто лет назад.
    Вот только не надо путать информацию с коммуникацией [8] – релейной или не очень. Информация «возникает» в момент приема [9] и не зависит от того, «сообщает» нам ее кто-то или нет. Информационная система «качает» информацию непосредственно из окружающего физического пространства сообразно сенсорным возможностям своего «ввода». Кстати, они-то, «ввод» и «вывод» (соответственно декодер/кодер у Шеннона), для того и нужны при «Черном ящике», чтобы ему контактировать с окружающей средой посредством своих «сенсоров» и «драйверов», соответственно. А уж на долю самого ЧЯ («управляющей инстанции») приходится чисто информационная функция трансформации очищенного кодированного «текста».
    Давайте будем считаться с тем, что сенсорные (и драйверные) возможности человечества ограничены. «Давайте будем говорить о том, о чем мы будем говорить, – и не будем говорить о том, о чем не будем», – как видите, такое конструктивное понимание принципа Оккама не автору первому пришло в его умную голову. Но и не нашим великим классикам. Допустим, Клаузиус и Больцман просто обобщали теорию паровых машин (ну, допустим!) Но Гиббс уж точно знал, чего хочет, когда предлагал не следовать плохому примеру Лапласа и махнуть рукой на «всю правду» о Вселенной, а ограничиться только тем, что способны зарегистрировать наши научные сенсоры (то есть, приборы). И списать все остальное на вероятность – тем более что и она может быть измерена… или вычислена. Уберите в его предложении ограничительный эпитет «научные» – и вы увидите «статистический» подход к информатике.

    Если неизвестен «оператор трансформации» информационной системы, линейная информатика бессильна. Но для определения информационной среды он (F) не требуется – нужны только коды. И все? Посмотрим, что можно сделать с одними только кодами, предметно поглядим.
    Полная таблица цивилизационных кодов – вещь неподъемная; поэтому различные информационные среды (нации, государства, классы, прослойки, профессии, группы, коллективы, капсулы…) пользуются своими таблицами,  редуцированными и приспособленными к своим узким интересам – но все равно очень обширными. Ну, и конечно, простейшей из кодовых таблиц располагает отдельный индивидуум. (Простейшей!) Ну? И как можно не то чтобы исследовать или описать – а просто хотя бы вообразить все эти среды, даже если знать их кодовые таблицы? (Что тоже проблематично.) Особенно если учесть, что от пространственных координат мы отказываемся (информационное пространство – не физическое).  От пространства – да. Но не от времени.
    Оно и в информатике – основной параметр; более того, только здесь время – настоящее и полноценное. Не то чтобы «вообразить» – мы будем знать об информационной среде решительно все, если узнаем, как кодированный сигнал (каждый сигнал) изменяется со временем при прохождении через эту среду. Это чистая математика, в которую мы здесь вдаваться особенно не будем. А ограничимся простым здравым смыслом (то есть, философией): если основное требование к науке – точная предсказательность, то значит, информатика – это наука о законах изменения информации со временем.
    Эти два понятия связаны неразрывно. Время – это наше субъективное восприятие перемен, чувство причинности. А информация и есть – не более и не менее как – причина всяких перемен. Если мы их не наблюдаем, время для нас останавливается – что бы там ни показывали часы. (И наоборот…) Это и есть состояние «гомеостаза», или «равновесия», или «покоя», или «максимума энтропии» – остановленное мгновение, нирвана, к которой стремится каждая система (на что имеется особый закон – на этот раз физический). И это стремление есть первопричина и перемен, и информации, и времени. Но на самом деле это равновесие каждый раз оказывается не абсолютным нулем, а относительным… амнистированным, так сказать. Но об этом позже.
    А еще это иногда называют «хаосом», ага. Обыкновенный булыжник под ногами пребывает в состоянии термодинамического хаоса. Вокруг него все меняется: воскресенье, понедельник, вторник… А у него вечная суббота – и он спокоен, как булыжник. (Хорошее дело «хаосом» не назовут.)  А у нас гомеостаз наступает в четвертом часу утра. ИС выключается из сети… ее «внешняя среда» тоже отключается… Но будет утро, и будет день, покой нам только снится. Полный гомеостаз (sic!) в природе не наблюдается, и на то имеется ее особый закон, опять философский.

    Идею Гиббса взялись осуществить на практике физики и математики. Получается это у них трудно… долго… медленно и неправильно – как обычно в науке. К температуре, давлению и объему (паровых машин) физики добавили новые, более современные коды: концентрацию и химический потенциал, тензоры деформации и напряжений… Уже и трудно все перечислить, да и кому это нужно? В результате, термодинамика потеряла право на свою приставку «термо-» и на сегодняшний день стала просто динамикой (физических сред). Однако, тенденция налицо. И матфизика, взирающая на тех и других со своих философских вершин, легко может предсказать, к чему они… к чему мы придем в конце концов. Заменим физические коды на информационные – и получим динамику информационных сред. Вопросы?
    Читатель, верно, уже заметил, что к теням Винера и Гиббса, которых автор призвал на семинар, присоединился Шеннон. Еще мгновение – и эгрегор Пригожина осенит своими крылами коды моего текста, поэтому потороплюсь перебросить мостик к его теме. К динамике сплошных сред математики тоже руку приложили. Еще до всякой термодинамики они придумали хитрую функцию (точнее, даже две, но это детали), с помощью которой можно предсказать прошлое и будущее любой системы. Во времена Лагранжа и Гамильтона эта система была механической – и так возникла теоретическая механика. Гиббс был один из первых, кто применил тот же метод к физической кинетике, которая тогда еще называлась термодинамикой. Это функция от гипотетических и заведомо неизвестных кодов (параметров) «объекта U» – поэтому и потребовался фактор «вероятности»; то есть, на самом деле, неопределенности. Она называется «функцией Гамильтона», не изменяется со временем (инвариант движения) при изменениях замкнутой системы (в частности, среды), и равна энергии этой системы. Вот зачем Шеннон мерил информацию, и вот зачем ему нужны были ее инварианты. Насколько мне помнится, в теории релейных коммуникаций это не что иное как «количество информации». Это чистая математика. Прошлое, и будущее текста. Но не его настоящее.

3.
    Время, время… Пригожин просит слова, и я позволю себе лишь кратко его отрекомендовать. Поскольку «объект U» имеет как корпускулярную, так и «волновую» (полевую) природу, ту же природу имеет и информация. Информатика ждет своего де Бройля, но мостик между этими (мнимыми) альтернативами уже проложен.
    То, что линейная информатика – ограниченная истина, видно невооруженным взглядом: «К несчастью, даже простейший текст – уже система со многими степенями свободы, а простейшее сжатие  – нелинейное преобразование» [10]. Понятное дело! если вас вывести из равновесия, вы тоже будете вести себя … нелинейно. Это чистая математика. Вблизи точки равновесия все информационные коды ведут себя линейно. (Прямо, так сказать, пропорционально…)  Кто знает, что такое ряд Тейлора, понимает, о чем я говорю; а кто не знает – поверит на слово. А если считать информацией только эти отклонения от равновесия (амнистировать общий для всех таких систем нулевой член разложения Тейлора, «сбросить в нуль» [6] и т.д.),  то поведение станет не только линейным, но и однородным, то есть – векторным. И мы получим «весовые коды» линейной информатики.
    Разделение информационной среды на отдельные информационные системы является условным лишь с точки зрения классической философии. Относительность с этого только начинается. Как показал нам Пригожин [4], точек устойчивого равновесия в природе («объекте U»), – а значит, и в ноосфере, – мягко говоря, великое множество. И любая информационная среда на различных своих участках довлеет различным точкам равновесия («моделям» [8]) Вот это и есть принцип разделения среды на существенно различные ИС. 
    Никто не может заставить систему пользоваться одними и теми же кодами на вводе и выводе; но различие между ними возникает с усложнением: с началом коммуникации между ИС, довлеющими разным моделям (точкам равновесия среды).
    Информатика Шеннона описывает простейший, примитивный случай коммуникации: когда приемник и передатчик имеют одинаковые коды на вводе и выводе («функциональную идентичность» [9]), и когда оба довлеют одной и той же точке равновесия («разделяют одну модель» [6]). Тогда можно передавать друг другу только информацию об отклонениях от нее, отжав всю информацию об этой модели, поскольку она уже имеется у приемника. Ну, и самое главное: теория линейных коммуникаций – это «термодинамика» информации; простейший, вырожденный раздел кинетики, описывающий равновесные среды. Время здесь остановилось, оцепенело между прошлым и будущим. В поисках настоящего Пригожин включил секундомер [5]. (Конечно, это – теория линейных коммуникаций – было самое начало. Конечно, «вероятностный подход» на этом сегодня не исчерпывается… Но простота этой модели послужила основанием для многих дидактических  обобщений; а дидактика, как мы знаем, имеет свои пределы.)
    Для коммуникации систем с различными моделями недостаточно просто сменить коды, это только симптом. Каждая из них должна обладать «интеллектуальной составляющей»: сложной обратной связью между исходящим сигналом (своим собственным) и входящим (чужим). То есть, повторять способ действий контрагента коммуникации, другой ИС. Проще говоря, сложная система должна уметь предвидеть реакцию собеседника на ее действия (сигнал). В таких случаях говорят, что ИС «обладает моделью окружающей среды». Ну да, это то самое «отражение», о котором все время твердили вульгарные материалисты.
    Это «отражение» и эта вторая «модель» означают вторую точку равновесия для состояния информационной среды в ИС – а значит, и конкуренцию двух моделей. Вот этот конфликт и служит двигателем «внутреннего» развития системы, ее «самоорганизации», «самосборки», «саморазвития» и прочей маргинальной лексики.
    Дефицит интеллектуальной составляющей в схеме Шеннона нельзя избыть в два счета. Но линейная информатика не имеет подобных ограничений на сложные коммуникации. Такие препятствия вырисовываются только в перспективе, распахнутой Пригожиным. Во-первых, это все тот же фактор развития – вместе с неизбежными фазовыми переходами от модели к модели (от окрестностей точки равновесия к другой точке) и обязательной «сменой кодов» (онтологическим митозом). Во-вторых, это «комбинаторный предел» сложности. Просчитать вручную такую массу деталей (подсистем) практически невозможно: это просто-напросто сплошная среда, в которой не различить песчинок. Предсказать поведение интеллектуальной системы сегодня может, разве что, сама эта система. Завтра… Завтра мы построим ее функцию Гамильтона. Наука умеет много гитик.
    Эта проблема возвращает нас к Винеру, к его информатике в условиях неопределенности (сиречь, кибернетике [1]). Как известно, всякая статистика требует времени. Но если встряхивать коробочку чисто математически, то это время не тратится попусту и ограничено разумными рамками.
    Это убедительно продемонстрировал Илья Пригожин, рассказав широкой общественности в деталях, как ведут себя информационные коды («тексты»), когда неумолимое время перемен методично и злонамеренно волочит, встряхивает, понукает и всяко инако выводит их из равновесия к иному, высшему равновесию; и что с ними может случиться на перевале. Это чистая философия, которой с нас достаточно на сегодня.

2019

Литература:
[1] Норберт Винер. «Кибернетика, или управление и связь в животном и машине»
[2] Норберт Винер. «Идея вероятностной Вселенной». Предисловие в его книге «Человеческое использование человеческих существ»
[3] К. Шеннон. «Математическая теория связи»
[4] Пригожин И. Введение в термодинамику необратимых процессов. — М.: ИЛ, 1960. — 150 с.
[5] Пригожин И. От существующего к возникающему: Время и сложность в физических науках. — М.: Наука, 1985. — 328 с.
[6] Инвариант.
Замечания. Об одном определении Информации - философия, 19.01.2019 01:46
http://www.proza.ru/2019/01/19/166
[7] Инвариант.
Об Информации - без формул - философия, 16.01.2019 01:25
http://www.proza.ru/2019/01/16/110
[8] Инвариант.
Парадокс Шоу и понятие Информация - естествознание, 25.08.2014 19:38
http://www.proza.ru/2014/08/25/1715
[9] Инвариант.
Подходы к определению понятия Информация - естествознание, 26.12.2016 09:30
http://www.proza.ru/2016/12/26/510
[10] Инвариант
Аксиоматика. Наивный взгляд - естествознание, 21.06.2017 01:25
http://www.proza.ru/2017/06/21/110


Рецензии
Ответ, действительно, развернутый. Но, к сожалению, так и не содержит
"дефиниций". Что такое Время, Информация, Информационный код - остается
только догадываться. Большой и напичканный идеями текст, оставляет
впечатление спешки и небрежности. Хуже того, возразить хочется,
буквально, по каждому пункту. Общее впечатление - тема не проработана,
этакое "неглиже с отвагой" и автор изначально не попытался сам найти
возражения к своим утверждениям.

Например, Время. В лучших традициях классической механики, Время автора
абсолютно. Между тем, никакого Абсолютного Времени не наблюдается, оно
всегда относительно. Изменения в собственной системе мы можем
отсчитывать только относительно изменений другой системы, предполагая, например,
их равномерными. В этом смысле часы - генератор времени. Нет часов (в
том или ином виде) - нет времени.

> "Рассмотрим тотальный, - следовательно, уникальный - объект U", - как
говорил Бруно Понтекорво.

Бруно Понтекорво так не говорил, это Роберто Бартини (Доклады Академии
наук СССР 1965. Том 163, N. 4. C.861-864): "Рассмотрим некоторый
тотальный и, следовательно, уникальный экземпляр A".

Только что избранный акад. Понтекорво всего лишь представил работу земляка к
публикации в докладах АН.

Теперь, по порядку.

> 1.

размышляю о тупиковой проблеме современной информатики: как
совместить статистико-вероятностный подход, начало которому положено
Шенноном, - и линейную информатику, которая недаром в прежние
(антикварные) времена называлась "теоретической радиотехникой"?

Не вам первому. Против статистического подхода резко возражал А. Колмогоров
(и предложил новый подход - алгоритмический). С другой стороны, не так важно,
как определена модель. Шеннон сделал это в духе квантовой механики - через
плотность вероятности (неопределенность), заданную на гиперкубе числа степеней
свободы. Модель, конечно, имеет изъян - фиксированный объем фазового пространства,
но, как первое приближение вполне работоспособна.

> Конечно, информатика началась не с Фуше и не с Клеточкина

Фуше имел отношение к информатике?

Who is Mr. Клеточкин?
> "Черный ящик" Винера - это, говоря современным
языком, информационная система (ИС), которая преобразует сигнал i(1),
поступающий на ее "ввод", в сигнал i(2), который она транслирует со
своего "вывода" в окружающее пространство, - естественно,
информационное.

Вот про "информационное пространство", пожалуйста, подробнее.
> В линейной информатике сигналы i(1) и i(2) изображаются
векторами, - то есть, наборами чисел, которые (числа) Ф. Розенблатт
называл "весами", и которые есть не что иное как простейшая
разновидность информационных кодов.

Определения "линейной информатики" еще не было.

Числа, наипаче "веса" (мера), очевидно, не есть векторы - они скаляры.

Также неясно, почему сигналам должны соответствовать векторы и каким образом.
Ваше линейное пространство образовано сигналами? Как именно. Из чего следуют
их векторные свойства (сложение по правилу параллелограмма, например).

> Здесь у нас могут возникнуть
некоторые разночтения. (Мы ведь иногда путаем слова с понятиями,
которые за ними стоят, - так и здесь.) Что считать "информацией":
абстрактный смысл, который несет сигнал i - или его материально
реализованный код?

Ну, так определитесь и следуйте своему определению. Посмотрим, что это даст.

> Сигналы на информационную
систему могут поступать самые разные (из одного и того же векторного
пространства, впрочем), но система не меняется; она определяется своей
функцией, преобразуя i(1) в i(2) совершенно определенным и неизменным
образом.

Многие системы способны к значительным изменениям (вирусы, например, в том числе и компьютерные).

> Эту функцию можно изобразить "оператором трансформации" F (в
линейной информатике - матричным). Так что основное и самое
элементарное уравнение линейной информатики имеет вид: i(2) = F*i(1).
где звездочкой изображен знак умножения (матричного, естественно). Это
чистая математика.

ОК, есть линейная алгебра и там все истоптано. Разумеется, в реальных системах линейность,
обычно, встречается только как приближение.

> С этого уравнения начинается линейная информатика,
наука о внутреннем устройстве информационной системы, в которой
(мысленно!) выделяются информационные подсистемы со своими таблицами
кодов и операторами трансформации.

Все это уже не раз проделано в различных дисциплинах. Та же теория
линейных цепей в электротехнике. Уравнения Онзагера суть тот же многополюсном.

> Любая программа - это линейная ИС; просто потому, что она сначала "вычисляется".

Очевидно неверно. "Линейные" программы пишут разве что школьники на Basic.
Э. Дейкстре принадлежит, к слову, известное высказывание по теме: "Студентов,
ранее изучавших Бейсик, практически невозможно обучить хорошему
программированию. Как потенциальные программисты они подверглись
необратимой умственной деградации"
> Таким образом, информационная система мыслится как некая среда, в которой
(нужным и предсказуемым образом) преобразуется информационный сигнал.

Это будет верно в отношении линейного преобразователя, но не для ИС.
Простейший пример - шифраторы (генераторы хаоса).

> Но философия информационных сред с этого только начинается. "Черный
ящик" Винера - это только, как говорят электротехники, "участок цепи"
[10], а сама среда - это замкнутый контур, не имеющий ни конца, ни
края.

Это не новая философия :-)

Известный алхимический символ - Уроборос (змея, пожирающая собственный хвост).

> Откуда-то входящий сигнал приходит, правильно?
Куда-то исходящий уходит, верно? И поскольку этот сигнал -
информационный, то и среда такая же; а значит, является продолжением
нашей ИС, которую мы выделили из нее, из информационной среды, только
теоретически.

Вряд ли это можно считать за определение. Скажем, дождевой червь
поглощает прелые листья и выделяет экскременты. Является ли то и другое
"продолжением" дождевого червя?

> Все информационные процессы - это, можно
сказать (многие так и говорят), абстрактный аналог физических;
"отражение реальных процессов" в физическом пространстве. Уже хотя бы
потому, что любая информация отделима от своего материального носителя
только в человеческом воображении - да и то лишь потому, что
воображение само является ИС и имеет свой материальный носитель.

Сказать "аналог" - это не определение. Хотелось бы большей ясности.
Ссылка на "человеческое воображение" - плохо определенную и невразумительную
сущность также не добавляет ясности. Это, примерно, как сослаться
на Джина Медной Лампы.

> Уж как там наш исходящий сигнал влияет на окружающую физическую среду -
другой вопрос; главное, что влияет. И на то имеется отдельный закон
природы; и закон, на минуточку, философский. Следовательно, мы (наша
ИС, то есть) должны узнать о происходящих изменениях. Но измениться -
не значит сообщить об этом.

Разделите явно Источник и Приемник, иначе ерунда получается. Если, к примеру,
радист подает сигнал SOS, то он сообщает независимо от того, примет ли кто-либо
его сигнал.

> Здесь все зависит от способности приемника информации зарегистрировать такое сообщение.

Комплиментарные пары типа "Холмс-Ватсон" или "Чингачгук-Белый человек",
как раз пример независимости сигнала (информации) от приемника.

> Так что информационная среда каждой ИС продолжается вовне только на те аспекты физического
мира, которые воспринимают исходящие коды нашей ИС, нашего "Черного
ящика", и транслируют информацию на ее входящих кодах. Все остальное -
не существует для ИС, по Оккаму.

Гм. А если наступить на дождевого червя ногой? Это будет "восприятием исходящих кодов нашей ИС"?

Другими словами, "Внешняя среда" - это тоже ИС со своим оператором
трансформации и своими кодовыми таблицами, причем (внимание!) ее
входящие коды совпадают с исходящими нашей ИС "Черный ящик", и наоборот
("Функциональная совместимость" [9]).

Анекдот вспомнился.

Женщина на приеме у психиатра: - Мы с мужем никогда не ссоримся.
Врач: - Значит, вы не созданы друг для друга.

> Возможно ли это? Линейная информатика это просто постулирует, это пределы ее применимости. Таким
образом, у каждой ИС - свое информационное пространство, которое
определяется и измеряется не километрами и килограммами, градусами и
амперами, а ее весовыми кодами - входящими и исходящими.

Признаться, не могу понять ни устройство вашего "информационного пространства",
ни его метрику - из весовых кодов.

> В этом сила линейной информатики: задавая ИС, мы тем самым задаем всю ее
информационную среду в тотальном информационном пространстве ноосферы -
через коды ИС.

Пока что выглядит как бессвязный набор слов. Формализм линейных пространств
излагается в любом ВТУЗовском курсе математики, но там нет ничего ни про "ноосферу",
ни про "коды ИС".

> В этом ее слабость. Потому что описать эту среду
линейная информатика способна только как коммуникацию двух
информационных систем, замкнутых друг на друга и солидарно стремящихся
к равновесию (то есть - отсутствию информационных сигналов).

Постулат о стремлении к равновесию заслуживает собственной формулировки.
И является ли равновесие "отсутствием сигналов" требует изучения.

> Но это может устроить только аналитиков, которые имеют дело с буквами;
а инженеров интересуют цифры - все до единого "весовые коэффициенты"
операторов трансформации ИС "Внешняя среда". Понимаете, о чем я говорю,
да? Собственно, это и есть основная задача теории управления, которую
означенная наука (кибернетика) не решила до сих пор.

Нелинейные модели сложны для исследования. "Задача трёх тел", например.

> Смешно сказать, но эта задача не решена даже физиками; что дало повод одному остроумному
немцу язвительно назвать физическое пространство "вещью в себе". Все,
что мы знаем об окружающем нас материальном мире, все, что мы называем
"реальностью", "действительностью", "событиями", "фактами", "материей"... "Вселенной" - все это лишь информация, зарегистрированная
нашими органами чувств. (Я ничего не напутал?) Все, что мы имеем - это
информация, и только информация.

Да, мы уже обсуждали. Проблема автодексрипции конечного автомата.

Инвариант   13.09.2019 01:39     Заявить о нарушении
Пролжение.
> 2.

"Рассмотрим тотальный, - следовательно, уникальный - объект U", - как
говорил Бруно Понтекорво. - В просторечии именуемый "физическим
пространством", или "Вселенной", или "вещью в себе". Всей правды о нем
мы не знаем - и, видимо, никогда не узнаем; потому что не имеем и
видимо не создадим таких естественных или искусственных сенсоров для
того, чтобы зарегистрировать эту правду. Всю. Тем не менее, именно он -
и только он (объект U) - является источником информации для нас -
вообще всей информации, обо всем: что было, что будет, чем сердце
успокоится. Она никуда не исчезает, ей просто некуда деваться оттуда
(он же уникальный, U). То есть, отсюда.

Это только наша модель Вселенной. Нет способа узнать, существует ли в самом деле этот объект.

> Поэтому никакого такого "копирования информации" [8] здесь не бывает - это суеверие или
метафора: зачем копировать то, что всегда рядом?

Ни один системный администратор, как и производители утилит для резервного
копирования с вами не согласится :-)

> Другое дело - как его
зарегистрировать? Человеческой проблемой является регистрация
информации - что равнозначно "возникновению" ее в ноосфере. (Это вопрос
терминологии.)

Как минимум, требуется определить, что такое "Информация", "возникновение",
"регистрация" и "ноосфера".

> Для того, чтобы зафиксировать факт, нужен подходящий
сенсор в подходящем месте в подходящий момент. Шаг влево - шаг вправо,
шаг в прошлое - шаг в будущее... все, нужный информационный повод
просто перемешался с "черным" шумом бессмысленной и "серым" шумом
ненужной информации (это и есть знаменитая "диссипация") от других
источников.

Опять затрудняюсь вас понять. Общеприняты "белый шум" и "цветной".
Если вам требуются какие-то еще - дайте определения.

> Для того чтобы сохранить информацию в девственной чистоте надолго
и не дать ей раствориться в "шуме", человеческая цивилизация придумала
"носители информации" (ИС с тривиальной функцией F) - от глиняных
табличек Вавилона до современных коммуникаций Сети.

Лирика. Свет далеких звезд возник без всякого участия "человеческой цивилизации".
Пчелы (или лесные рыжие муравьи) ориентируются по Солнцу.
Голуби, вероятно, используют магнитное поле Земли. Лосось иде на нерест по запаху итп.

> Это просто технологическое продолжение и усовершенствование наших естественных органов чувств. Именно благодаря
этим достижениям цивилизации мы сегодня все уверенней начинаем
различать физическое пространство (как пространство) и информационное
(как среду). Мой друг за океаном в информационном отношении буквально
рядом - поскольку у меня есть его мобильный номер. И напротив, знакомый
в другом городе почти так же далек, как сто лет назад.

Уже обсуждалось. Вопрос метрики. К соседу из другого подъезда тоже ходим через
улицу, а не через пролом в стене.
> Вот только не надо путать информацию с коммуникацией [8] - релейной или не очень.
Информация "возникает" в момент приема [9] и не зависит от того,
"сообщает" нам ее кто-то или нет.

Вы путаете фильтрацию с информацией. Древние авгуры, например, гадали по кишкам животных или полету птиц.
Современные гадалки льют воск или раскидывают карты. Ни о каком "возникновении"
информации (к слову - что это?) нет и речи.

> Информационная система "качает"информацию непосредственно из окружающего физического пространства
сообразно сенсорным возможностям своего "ввода".

Это фильтрация. То, что в психологии называется "установка".

"видя не видят, и слыша не слышат, и не разумеют" Мф 13:13

> Кстати, они-то, "ввод"
и "вывод", для того и нужны при "Черном ящике", чтобы ему
контактировать с окружающей средой посредством своих "сенсоров" и
"драйверов".

Ну, у дождевого червя есть рот и анус - ими и контактирует.

> А уж на долю самого ЧЯ ("управляющей инстанции")
приходится чисто информационная функция трансформации очищенного
кодированного "текста".

Почему текста? Скарабей, вон, навозом питается.

> Если неизвестен "оператор трансформации" информационной системы,
линейная информатика бессильна. Но для определения информационной среды
он (F) не требуется - нужны только коды. И все? Посмотрим, что можно
сделать с одними только кодами, предметно поглядим. Полная таблица
цивилизационных кодов - вещь неподъемная; поэтому различные
информационные среды (нации, государства, классы, прослойки, профессии,
группы, коллективы, капсулы...) пользуются своими таблицами,
редуцированными и приспособленными к своим узким интересам - но все
равно очень обширными. Ну, и конечно, простейшей из кодовых таблиц
располагает отдельный индивидуум. (Простейшей!) Ну? И как можно не то
чтобы исследовать или описать - а просто хотя бы вообразить все эти
среды, даже если знать их кодовые таблицы? (Что тоже проблематично.)
Особенно если учесть, что от пространственных координат мы отказываемся
(информационное пространство - не физическое).

Все это выглядит совершенно бессвязно. Что такое коды и зачем они?
Что за таблицы и для чего? Куда, кстати, подевались сенсоры и эффекторы
(кодер/декодер в модели Шеннона)?

> От пространства - да. Но не от времени. Оно и в информатике - основной параметр; более того,
только здесь время - настоящее и полноценное. Не то чтобы "вообразить"
- мы будем знать об информационной среде решительно все, если узнаем,
как кодированный сигнал (каждый сигнал) изменяется со временем при
прохождении через эту среду. Это чистая математика, в которую мы здесь
вдаваться особенно не будем. А ограничимся простым здравым смыслом (то
есть, философией): если основное требование к науке - точная
предсказательность, то значит, информатика - это наука о законах
изменения информации со временем.

Основа любой науки - инварианты. Именно то, что не меняется.

> Время - это наше субъективное восприятие перемен, чувство причинности.
А информация и есть - не более и не менее как - причина всяких перемен.
Если мы их не наблюдаем, время для нас останавливается - что бы там ни
показывали часы. (И наоборот...) Это и есть состояние "гомеостаза", или
"равновесия", или "покоя", или "максимума энтропии" - остановленное
мгновение, нирвана, к которой стремится каждая система (на что имеется
особый закон - на этот раз физический).

Как-то все в кучу. Гомеостаз не связан ни со временем, ни с покоем.
Субъективное время не повлияет на объективное (например, протухнут продукты в погребе)
итп.

> И это стремление есть
первопричина и перемен, и информации, и времени. Но на самом деле это
равновесие каждый раз оказывается не абсолютным нулем, а
относительным... амнистированным, так сказать. Но об этом позже.

Угу. И более внятно, чем это сделано здесь.

> Идею Гиббса взялись осуществить на практике физики и математики.
Получается это у них трудно... долго... медленно и неправильно - как
обычно в науке. К температуре, давлению и объему (паровых машин) физики
добавили новые, более современные коды: концентрацию и химический
потенциал, тензоры деформации и напряжений... Уже и трудно все
перечислить, да и кому это нужно? В результате, термодинамика потеряла
право на свою приставку "термо-" и на сегодняшний день стала просто
динамикой (физических сред).

Да, нет. Все еще статика. Время там отсутствует.

> Однако, тенденция налицо. И матфизика,
взирающая на тех и других со своих философских вершин, легко может
предсказать, к чему они... к чему мы придем в конце концов. Заменим
физические коды на информационные - и получим динамику информационных
сред.

Упс. "физические коды" мы еще не обсуждали. Это что?

> Вот зачем Шеннон мерил информацию, и вот зачем ему нужны были ее инварианты. Насколько мне помнится, в теории
релейных коммуникаций это не что иное как "количество информации". Это
чистая математика. Прошлое, и будущее текста. Но не его настоящее.

Я уже писал подробно "зачем". Ни к "прошлому", ни к "будущему" текста это
отношения не имеет - это инвариант трансформации. ("Размышления. Количество информации" http://www.proza.ru/2017/06/14/125)

Инвариант   13.09.2019 01:42   Заявить о нарушении
Продолжение 2.

> 3.

Время, время... Пригожин просит слова, и я позволю себе лишь кратко его
отрекомендовать. Поскольку "объект U" имеет как корпускулярную, так и
"волновую" (полевую) природу, ту же природу имеет и информация.

Это мы уже тоже обсуждали. Не только бездоказательно, но и прямо противоречит всему,
что нам известно об информации. В частности, для информации нет законов сохранения
(и, соответственно, диссипации).

> А если считать информацией
только эти отклонения от равновесия (амнистировать общий для всех таких
систем нулевой член разложения Тейлора, "сбросить в нуль" [6] и т.д.),
то поведение станет не только линейным, но и однородным, то есть -
векторным. И мы получим "весовые коды" линейной информатики.

См. выше. Какое отношение "весовые коды" имеют к векторам?

> Разделение
информационной среды на отдельные информационные системы является
условным лишь с точки зрения классической философии. Относительность с
этого только начинается. Как показал нам Пригожин [4], точек
устойчивого равновесия в природе ("объекте U"), - а значит, и в
ноосфере, - мягко говоря, великое множество. И любая информационная
среда на различных своих участках довлеет различным точкам равновесия
("моделям" [8]) Вот это и есть принцип разделения среды на существенно
различные ИС.

Допустим. Декомпозиция. Набор связанных подсистем. И что? Каскадные схемы
и длинные линии хорошо изучены. Ожидается что-то новое?

> Никто не может заставить систему пользоваться одними и
теми же кодами на вводе и выводе; но различие между ними возникает с
усложнением: с началом коммуникации между ИС, довлеющими разным моделям
(точкам равновесия среды). Информатика Шеннона описывает простейший,
примитивный случай коммуникации: когда приемник и передатчик имеют
одинаковые коды на вводе и выводе ("функциональную идентичность" [9]),
и когда оба довлеют одной и той же точке равновесия ("разделяют одну
модель" [6]).

Шеннон явно указывает кодер и декодер как элементы своей диаграммы.
Функциональная идентичность не имеет отношения к кодированию. Я уже приводил, как пример,
синхронизацию кварцевым генератором бронзового балансира электромеханических часов.

> Тогда можно передавать друг другу только информацию об
отклонениях от нее, отжав всю информацию об этой модели, поскольку она
уже имеется у приемника.

При двух названных мною условиях:

- Функциональная идентичность

- Начальная синхронизация

Например, все бегуны бегут по одной дорожке и по сигналу того же самого
стартового пистолета.

> Для коммуникации систем с различными
моделями недостаточно просто сменить коды, это только симптом. Каждая
из них должна обладать "интеллектуальной составляющей": сложной
обратной связью между исходящим сигналом (своим собственным) и входящим
(чужим).

И при чем тут "интеллектуальная составляющая"? Сложная обратная связь это
признак LFSR, например (Linear-feedback shift register)

> То есть, повторять способ действий контрагента коммуникации,
другой ИС. Проще говоря, сложная система должна уметь предвидеть
реакцию собеседника на ее действия (сигнал). В таких случаях говорят,
что ИС "обладает моделью окружающей среды". Ну да, это то самое
"отражение", о котором все время твердили вульгарные материалисты.

Не только :-) В модном NLP, например (Neuro-Linguistic Programming).

> Это "отражение" и эта вторая "модель" означают вторую точку равновесия
для состояния информационной среды в ИС - а значит, и конкуренцию двух
моделей. Вот этот конфликт и служит двигателем "внутреннего" развития
системы, ее "самоорганизации", "самосборки", "саморазвития" и прочей
маргинальной лексики.

Неа. Связанные осцилляторы изучены еще Гюйгенсом. Нет там никакого "саморазвития".

> Дефицит интеллектуальной составляющей в схеме
Шеннона нельзя избыть в два счета. Но линейная информатика не имеет
подобных ограничений на сложные коммуникации. Такие препятствия
вырисовываются только в перспективе, распахнутой Пригожиным. Во-первых,
это все тот же фактор развития - вместе с неизбежными фазовыми
переходами от модели к модели (от окрестностей точки равновесия к
другой точке) и обязательной "сменой кодов" (онтологическим митозом).
Во-вторых, это "комбинаторный предел" сложности. Просчитать вручную
такую массу деталей (подсистем) практически невозможно: это просто-
напросто сплошная среда, в которой не различить песчинок. Предсказать
поведение интеллектуальной системы сегодня может, разве что, сама эта
система.

В гидродинамике (турбулентность) этим довольно успешно занимаются.
И, в целом, динамический хаос - достаточно популярное направление.

Инвариант   13.09.2019 01:43   Заявить о нарушении
Appendix.

За разбором вашего текста, забыл еще одну вещь. В сущности, все, что было предложено - мультимодельная связанная линейная система - давно уже реализовано, только не в области Информации, а (главным образом) Электротехники.

Если вы знакомы с основами электричества и методами расчета эл.цепей (символический, симметричных составляющих), то вам должно доставить удовольствие знакомство с работами Габриэля Крона, перенесшего идеи и аппарат Теории относительности в электротехнику.

Суть его метода - виртуальная декомпозиция (линейной) системы на подходящие для анализа модули и обратная сборка решения полной системы из известных решений для ее частей. Основа преобразований - инвариант мощности (гиперболический поворот). Т.е, в сущности, инвариант энергии, но для периодического режима это, практически, синонимы. Начните с "Тензорный анализ сетей" (по факту, матричный, но важно само понятие инвариантного объекта, проецируемого в различные системы координат.)

+ Ознакомьтесь с работами М. Грамма, развивавшего сходные идеи - оптимизация эл.цепей путем симметрирования. (На сайте какой-то бардак с базой данных. Ex: http://gramm.susu.ru/articles/?article=18, но, если есть интерес, то могу найти и выложить сохраненные копии). Пусть вас не смущает "электрическая" направленность этих работ - идеи и методы везде те же самые. Так, например, "эффективное кодирование" в ТИ есть ни что иное, как симметрирование по Грамму.
(См. "Общая дискуссия о предельной степени сжатия" http://www.proza.ru/2017/06/11/170).

Инвариант   13.09.2019 05:52   Заявить о нарушении
Инвариант, ну у Вас и темпы! Ну, у Вас и масштабы. С такой энергетикой давно уже пора ответить на все вопросы, которые Вы мне задали – прямо или косвенно. Я за один присест не подниму. Подождите немного, а?
Зато Вам, несомненно, не составит труда ответить на вопрос: производит ли публикация впечатление цельности (взглядов автора)? Рискуя превысить все пределы Вашего неиссякаемого (как оказалось) терпения, рискну обратиться еще с одной просьбой: Габриель Крон. Ссылочкой не поделитесь? Где Вы его откопали. Я еще не выходил в гугл, но подозреваю (по горькому опыту), что так просто до него не добраться. Он мне нужен, я как раз залез в эту тематику. Зачем я буду изобретать велосипед?
Спасибо. Ник.

Ник Пичугин   13.09.2019 10:43   Заявить о нарушении
> производит ли публикация впечатление цельности (взглядов автора)?

IMHO, скорее не взглядов, а заблуждений. На сегодня (как изложено) - это химера (набор несовместимых сущностей). С другой стороны, сама идея линеаризации (чего бы то ни было) и использования линейной модели, как первого приближения, вполне работоспособна, тем более вблизи точки равновесия системы. То есть, сам метод вполне разумен, но сомнительна его применимость именно к Информации. Прямые аналогии здесь не работают, и отказ от Законов сохранения требует "перетряхивания" и всего остального.

> Габриель Крон. Ссылочкой не поделитесь?

Могу выложить на обменник (займет какое-то время). Напишите мне на gazlan@yandex.ru - верну ссылку на архив. Пока можете поискать по запросу "Габриэль Крон скачать" - я все взял из открытого доступа (например, www.twirpx.com). Если вам интересен Грамм - выложу подборку.

Инвариант   13.09.2019 14:40   Заявить о нарушении
Впереди выходные, которые опять могут затянуться дней на 10. Поэтому часть вопросов попытаюсь снять сейчас. Впрочем, некоторые из них Вы могли бы снять сами, на некоторые ответить, на некоторые есть ответы ниже по тексту; но есть вопросы, требующие серьезного отношения. Начну с вермишели.
> это Роберто Бартини
– Весьма признателен. А я искал в публикациях Понтекорво.
> Но, к сожалению, так и не содержит "дефиниций".
> Как минимум, требуется определить, что такое "Информация", "возникновение", "регистрация" и "ноосфера".
– Вероятно. Вы правы. Ноосфера определена в другом контексте. Это область человеческого опыта. Здесь она понимается как тотальное (обертывающее) информационное пространство, которое противопоставляется Универсуму, которое определяется философами как основание (общее для всех людей) основание этого опыта. «Вещь в себе». Здесь оно понимается как внешний источник информации для ноосферы. Которая в ней «возникает» или «регистрируется» органами человеческих чувств либо приборами – и, в конечном счете, снова теми же органами чувств. (Это вопрос дефиниции)
> Ну, так определитесь и следуйте своему определению. Посмотрим, что это даст.
– Я следую дефинициям вышестоящего товарища. Кто говорил, что «информация – это аналог физических процессов»? Извините, что цитирую по памяти, а не строго по первоисточникам. На вас не угодишь.
> Что такое Время, Информация, Информационный код… Определения "линейной информатики" еще не было.
– Ниже по тексту. Пальчиком показывать не буду, но насчет весовых кодов не откажу себе в удовольствии.
> Что такое коды и зачем они?
– Это Ваши «степени свободы»
> Признаться, не могу понять ни устройство вашего "информационного пространства"…
– Ниже по тексту.
> ни его метрику - из весовых кодов.
– Уточняю, что весовые коды – это свойство сигнала, а свойства среды (метрика) описываются оператором трансформации (и его компонентами – «кодовыми коэффициентами», по Розенблатту).
> Вот про "информационное пространство", пожалуйста, подробнее.
– Это тема публикации. «Среда» – более определенное (через коды) понятие.
> Числа, наипаче "веса" (мера), очевидно, не есть векторы - они скаляры.
– Это не скаляры, это координаты вектора. Как Вы там ни понимайте информацию i, но в информатике она изображается набором чисел. Кто-то должен стоять между философом и инженером, правильно? В линейной информатике координаты преобразуются ковариантно при преобразовании кодовых таблиц (векторных базисов).
> Упс. "физические коды" мы еще не обсуждали. Это что?
– Упс-упс-упс! «К температуре, давлению и объему (паровых машин) физики
добавили новые, более современные коды: концентрацию и химический
потенциал, тензоры деформации и напряжений...» Не обсуждали? Конечно это не весовые (линейные) коды, они из другой модели:
> Разумеется, в реальных системах линейность, обычно, встречается только как приближение.
– Разумеется. Но
> в любом ВТУЗовском курсе математики, но там нет ничего ни про "ноосферу",
ни про "коды ИС".
– Разумеется, Это же математика – она общая для всех дисциплин.
> Все это уже не раз проделано в различных дисциплинах.
– Вот именно, Ватсон.
> Ну, у дождевого червя есть рот и анус - ими и контактирует
– Вы правильно понимаете!
> Гм. А если наступить на дождевого червя ногой? Это будет "восприятием исходящих кодов нашей ИС"?
– Полного гомеостаза в природе не наблюдается. (См. этюд о былыжнике.)
> Ссылка на "человеческое воображение"…
– Это литературный прием. Я должен был сказать об этом с самого начала. Это литературный сайт. Его публикации читаются начиная с заглавия, а заглавие – с первого слова. Первое слово обсуждаемой публикации – «философия». Это не информатика и даже не введение в. Дефиниции тут не обязаны предшествовать – и вообще не строго обязательны.
> В лучших традициях классической механики, Время автора абсолютно.
– Спасибо. Вы правильно понимаете. До информационного релятивизма мы еще не доросли, но классическая механика – хороший образец:
– В этом смысле часы - генератор времени. Нет часов (в том или ином виде) - нет времени.
> Фуше имел отношение к информатике?
Who is Mr. Клеточкин?
– Фуше был первым, кто использовал сеть информаторов в тайной полиции; с тех пор слово «информация» вошло в обиход – и, следовательно, потребовало философской дефиниции. Клеточкин был информатором «Народной воли» в тайной полиции.

Ник Пичугин   13.09.2019 15:49   Заявить о нарушении
> Фуше был первым, кто использовал сеть информаторов в тайной полиции; с тех пор слово «информация» вошло в обиход – и, следовательно, потребовало философской дефиниции. Клеточкин был информатором «Народной воли» в тайной полиции.

IMHO, это замечание ситоит добавить в основной текст (отредактируйте).

>> Признаться, не могу понять ни устройство вашего "информационного пространства"

И все так же не понимаю.

> В линейной информатике координаты преобразуются ковариантно при преобразовании кодовых таблиц (векторных базисов).

Пока, это только заявление. Не подкрепленное даже примерами. Набор чисел еще не образует вектора. Wiki говорит о 8 аксиомах, определяющих линейное пространство. Вы проверяли их выполнение?

>> Что такое коды и зачем они?
> – Это Ваши "степени свободы"

Невнятно. Ось координат (степень свободы) и отметка на ней (сигнал, код, отсчет) - это разные вещи. Изложите это яснее и с поясняющими примерами.
И еще. Линейность, по сути, синоним Измеримости: Измеримость означает, что существует характеристика, по которой система линейна (мощность у Крона, энтропия у Шеннона итп). Т.е без внятного определения того, ЧТО измеряется, нет смысла говорить о линейности.

Инвариант   13.09.2019 17:24   Заявить о нарушении
Я тоже совершил ошибку, задав лишний вопрос. Свою оценку литературным качествам публикации Вы дали с самого начала; а я совершенно не обратил внимания на столь огорчительный отзыв своего (по всей видимости) единственного читателя. Ладно, проехали – будем работать над стилем. А пока что:
> Невнятно. Ось координат (степень свободы) и отметка на ней (сигнал, код, отсчет) - это разные вещи. Изложите это яснее и с поясняющими примерами.
– Это разные вещи – и что это меняет? Каждая степень свободы предполагает независимую переменную – это и есть код, соответствующий степени свободы. Я следил за стилем и старался быть лаконичным. Уж и не знаю, как яснее; и примеры я приводил, и ссылку на популярную литературу, а классический образец поминается прямо в тексте – и статьи, и комментариев. Если Вас действительно сколь-нибудь интересует линейная информатика, посмотрите, как устроен «Марк-1» Розенблатта с его весами и весовыми коэффициентами – информация в широком доступе. Если не интересует, вот Вам еще одно популярное объяснение, что такое коды, вместе с наглядной иллюстрацией, кстати:
> Шеннон сделал это в духе квантовой механики - через
плотность вероятности (неопределенность), заданную на гиперкубе числа степеней свободы.
– В данном случае кодами являются координаты на этом гиперкубе – иначе как задать плотность вероятности? Инвариант, Вы никогда не пробовали сами отвечать на свои вопросы; вспомнить все, что вам известно об информации, – и отвечать? И кстати, если уж приведена эта цитата, поясняю, что она и есть ответ на вопрос о «волновой» (то есть, вероятностной) природе информации. Привести еще примеры линейной природы? или, может, нужно разъяснить корпускулярно-волновой дуализм?
> Функциональная идентичность не имеет отношения к кодированию.
– Инвариант, опять противоречите себе? Процитировать Ваши собственные слова? Тогда смотрите ниже по тексту своего комментария.
> Куда, кстати, подевались сенсоры и эффекторы (кодер/декодер) в модели Шеннона)?
– А вот за это спасибо, это я упустил – и уже внес дополнение. Это «вывод» и «ввод» в ИС. Терминологию Шеннона оставляю в рамках его модели, чтоб не путаться. Другое дело – что кодируется и декодируется, это отдельный, отложенный вопрос.
Так, давайте я по-быстренькому закруглю список «вермишели» и перейду к существенному.
> Это мы уже тоже обсуждали. Не только бездоказательно, но и прямо противоречит всему, что нам известно об информации. В частности, для информации нет законов сохранения (и, соответственно, диссипации).
– Вопрос времени и развития. В конце концов:
> Основа любой науки - инварианты. Именно то, что не меняется.
– Но в данном случае Вы попали пальцем прямо в небо. Диссипации подвержено как раз то, что не сохраняется – в том или ином смысле.
> Каскадные схемы и длинные линии хорошо изучены. Ожидается что-то новое?
– Да, ожидается… И ожидается…
> И, в целом, динамический хаос - достаточно популярное направление.
> Да, нет. Все еще статика. Время там отсутствует.
– Вы правы. Терминология кошмарная. Статика физических сред у них называется «термодинамикой», а динамика – «кинетикой». Так исторически сложилось. У Шеннона это конечно статика, но на нем история не закончилась.
> В сущности, все, что было предложено - мультимодельная связанная линейная система - давно уже реализовано, только не в области Информации, а (главным образом) Электротехники.
– Вот именно. Только я ничего не предлагал – не тот жанр. Это философия, я размышляю над тем, что сделали другие; «я просто собираю все воедино».
> Wiki говорит о 8 аксиомах, определяющих линейное пространство. Вы проверяли их выполнение?
– Смеетесь? Я матфизик, зачем мне Википедия?
> Линейность, по сути, синоним Измеримости: Измеримость означает, что существует характеристика, по которой система линейна (мощность у Крона, энтропия у Шеннона итп). Т.е без внятного определения того, ЧТО измеряется, нет смысла говорить о линейности.
– А вот это по делу. Когда мы говорим о линейном приближении в (к) точке равновесия, мы обязаны договориться о каком-то топологическом параметре, по которому определяется эта «близость», и по которому выполняется разложение.
> И при чем тут "интеллектуальная составляющая"? Сложная обратная связь это
признак LFSR, например (Linear-feedback shift register). Не только :-) В модном NLP, например (Neuro-Linguistic Programming).
– Я не знаю таких хитрых слов. По-русски это называется «интеллектуальной составляющей». Или Вы не видите обратной связи в том процессе, который в тексте назван «интеллектуальным»? Конечно, это вина автора. (Проклятое косноязычие!)
> > Информационная система "качает" информацию непосредственно из окружающего физического пространства сообразно сенсорным возможностям своего "ввода"… Все, что мы имеем – это информация, и только информация.
> Да, мы уже обсуждали. Проблема автодексрипции конечного автомата.
– Не со мной. Я не знаю таких хитрых слов.
> Это только наша модель Вселенной. Нет способа узнать, существует ли в самом деле этот объект.
– Эт-то что еще за солипсизм? Если есть информация, значит, есть и ее источник, «основание наших ощущений». Другое дело, насколько оно «объективно», – то есть, одно на всех. И это тоже установлено с полной достоверностью. «Наша модель Вселенной» – это, собственно, ноосфера.
> Лирика. Свет далеких звезд возник без всякого участия "человеческой цивилизации".
– Прекрасный пример, благодарю. Здесь информационное пространство неотличимо (для нас) от физического. Отличия проявляются в связи с развитием технологий коммуникации и эффектом «непрямого знания». В число которых технологий входит, кстати, и астролябия, и секстант.
> Вы путаете фильтрацию с информацией. Это фильтрация. То, что в психологии называется "установка".
– Окститесь. Мои глаза и уши, мои нервные окончания дают мне «психологическую установку»?
> Ни один системный администратор, как и производители утилит для резервного копирования с вами не согласится :-)
> Другое дело - как его зарегистрировать?
– Резервное копирование – простейший способ отложенной регистрации. Это вопрос свободы: я хочу зарегистрировать информацию не сейчас, а в нужное мне время. Типичный пример, прекрасная иллюстрация идеи о том, что любые (любые!) носители информации – не более и не менее как технологическое продолжение наших сенсоров.
> каждый раз оказывается не абсолютным нулем, а относительным... амнистированным, так сказать. Но об этом позже.
Угу. И более внятно, чем это сделано здесь.
– Ниже по тексту. На всякий случай, уточняю: это амнистирование нулевого члена в разложении Тейлора при измерении информационных кодов – и превращение их в «весовые».
> Постулат о стремлении к равновесию заслуживает собственной формулировки.
И является ли равновесие "отсутствием сигналов" требует изучения.
– Обдумывания
> Многие системы способны к значительным изменениям
– Ниже по тексту.
Теперь позвольте два вопроса. Что это значит:
> Комплиментарные пары типа "Холмс-Ватсон" или "Чингачгук-Белый человек", как раз пример независимости сигнала (информации) от приемника.
– Как это – независимости? Холмс как Холмс, но вряд ли Ватсон нашел бы общий язык с Красной Шапочкой.
> Суть его метода - виртуальная декомпозиция (линейной) системы на подходящие для анализа модули и обратная сборка решения полной системы из известных решений для ее частей.
– Вот это я понимаю стиль! Можно я буду Вас цитировать? Нет, я серьезно, мне понравилось, и я правда хочу вставить в текст после краткого редактирования. Разрешите?
> Уже обсуждалось. Вопрос метрики. К соседу из другого подъезда тоже ходим через улицу, а не через пролом в стене.
– Но не обсудилось, мы только начали. Предстоит, надеюсь, долгий и трудный разговор о том, какое значение имеет способ передачи информации, и имеет ли. Будем перестукиваться через стенку?
Грамм пока представляет академический интерес. Хотя я признаю, что он в теме. Для Крона пытаюсь выделить время; рассчитываю на Вашу помощь в случае трудностей. Которых, надеюсь, не будет. Пишите.
Ник.

Ник Пичугин   17.09.2019 15:51   Заявить о нарушении
Архивы здесь:

Грамм, Михаил.rar
http://www.sendspace.com/file/yjwqol

Крон, Габриэль.part1.rar
http://www.sendspace.com/file/pmnlrg

Крон, Габриэль.part2.rar
http://www.sendspace.com/file/t2ezpn

Для распаковки потребуется WinRar 5+

Как физику, вам, наверное, будет ближе Грамм.

На остальное отвечу позже, м.б. завтра.

Инвариант   17.09.2019 22:41   Заявить о нарушении
> Невнятно. Ось координат (степень свободы) и отметка на ней (сигнал, код, отсчет) - это разные вещи. Изложите это яснее и с поясняющими примерами.

- Это разные вещи - и что это меняет Каждая степень свободы предполагает независимую переменную - это и есть код, соответствующий степени свободы. Я следил за стилем и старался быть лаконичным. Уж и не знаю, как яснее; и примеры я приводил, и ссылку на популярную литературу, а классический образец поминается прямо в тексте - и статьи, и комментариев.

Если степень свободы - то, в моем понимании, не один код, а набор допустимых кодов. Иными словами, ваше кодовое пространство не должно вырождаться по данной координате - какой-либо код (из возможных) обязан присутствовать.

> Если Вас действительно сколь-нибудь интересует линейная информатика, посмотрите, как устроен "Марк-1" Розенблатта с его весами и весовыми коэффициентами - информация в широком доступе.

Ну, какое-то (самое общее) представление у меня есть.

> Вы никогда не пробовали сами отвечать на свои вопросы; вспомнить все, что вам известно об информации, - и отвечать.

У меня, разумеется, есть какие-то ответы, но интересны именно ваши. Если я буду отвечать себе сам, то вряд ли достигну понимания :-)

> И кстати, если уж приведена эта цитата, поясняю, что она и есть ответ на вопрос о "волновой" (то есть, вероятностной) природе информации.

Не думаю, что это ответ. Хартли ввел единицу информации без всякого обращения к вероятностям. Колмогоров критиковал подход Шеннона. Вполне возможно, что введение вероятности в информацию было ошибочным.

> Функциональная идентичность не имеет отношения к кодированию.

- Инвариант, опять противоречите себе Процитировать Ваши собственные слова Тогда смотрите ниже по тексту своего комментария.

Разумеется, не имеет. Можно встроить какой угодно шифротуннель между отправителем и получателем, и это никак не помешает коммуникации.

> Это мы уже тоже обсуждали. Не только бездоказательно, но и прямо противоречит всему, что нам известно об информации. В частности, для информации нет законов сохранения (и, соответственно, диссипации).

- Вопрос времени и развития.

То есть, вы предполагаете, что они, вдруг, найдутся :-)

> Основа любой науки - инварианты. Именно то, что не меняется.

- Но в данном случае Вы попали пальцем прямо в небо. Диссипации подвержено как раз то, что не сохраняется - в том или ином смысле.

Но и не исчезает.

"Но если соль и растворяется в воде, то она все же в ней есть, и, когда вода испаряется, соль остается"

(c) Лион Фейхтвангер "Иудейская война"

> У Шеннона это конечно статика, но на нем история не закончилась.

Пропускная способность - уже динамика.

> Wiki говорит о 8 аксиомах, определяющих линейное пространство. Вы проверяли их выполнение

- Смеетесь Я матфизик, зачем мне Википедия

Ну, для чего существуют справочники? Наизусть учат только таблицу умножения.

> И при чем тут "интеллектуальная составляющая" Сложная обратная связь это признак LFSR, например (Linear-feedback shift register). Не только :-) В модном NLP, например (Neuro-Linguistic Programming).

- Я не знаю таких хитрых слов. По-русски это называется "интеллектуальной составляющей". Или Вы не видите обратной связи в том процессе, который в тексте назван "интеллектуальным"

Вижу. Но обратная связь - еще не признак интеллекта. Тот же регулятор Уатта, например или гомеостат Эшби.

> Информационная система "качает" информацию непосредственно из окружающего физического пространства сообразно сенсорным возможностям своего "ввода"... Все, что мы имеем - это информация, и только информация.

> Да, мы уже обсуждали. Проблема автодескрипции конечного автомата.

- Не со мной. Я не знаю таких хитрых слов.

Там где была отсылка к Ст. Лему. Его очень занимала эта проблема.

> Это только наша модель Вселенной. Нет способа узнать, существует ли в самом деле этот объект.

- Эт-то что еще за солипсизм Если есть информация, значит, есть и ее источник, "основание наших ощущений". Другое дело, насколько оно "объективно", - то есть, одно на всех. И это тоже установлено с полной достоверностью.

Гм. Каким образом? Мы опять возвращаемся к проблеме автодескрипции.

> "Наша модель Вселенной" - это, собственно, ноосфера.

А при динозаврах Вселенной не было? Или вы им отказываете в моделировании?

> Лирика. Свет далеких звезд возник без всякого участия "человеческой цивилизации".

- Прекрасный пример, благодарю. Здесь информационное пространство неотличимо (для нас) от физического.

Ну, да. Наименования созвездий никак не связаны с их реальным построением. И вряд ли Большая Медведица могла появиться в местности, где медведи не водятся.

> Отличия проявляются в связи с развитием технологий коммуникации и эффектом "непрямого знания". В число которых технологий входит, кстати, и астролябия, и секстант.

"Непрямое знание" - это что?

> Вы путаете фильтрацию с информацией. Это фильтрация. То, что в психологии называется "установка".

- Окститесь. Мои глаза и уши, мои нервные окончания дают мне "психологическую установку"

То, что они вам дают - это "сырой" материал. Которым заполняется готовая модель. Как в пословице: "Глухой не услышит - так придумает". Литература полная примеров...

> Ни один системный администратор, как и производители утилит для резервного копирования с вами не согласится :-)

> Другое дело - как его зарегистрировать

- Резервное копирование - простейший способ отложенной регистрации. Это вопрос свободы: я хочу зарегистрировать информацию не сейчас, а в нужное мне время. Типичный пример, прекрасная иллюстрация идеи о том, что любые (любые!) носители информации - не более и не менее как технологическое продолжение наших сенсоров.

Как-то это противоречит "объективности" информации. Солипсизм :-)

> каждый раз оказывается не абсолютным нулем, а относительным... амнистированным, так сказать. Но об этом позже.

Угу. И более внятно, чем это сделано здесь.

- Ниже по тексту. На всякий случай, уточняю: это амнистирование нулевого члена в разложении Тейлора при измерении информационных кодов - и превращение их в "весовые".

В смысле "сброса на нуль" (Синхронизация стартовой позиции) ?

> Постулат о стремлении к равновесию заслуживает собственной формулировки. И является ли равновесие "отсутствием сигналов" требует изучения. - Обдумывания

Хотя бы. В термодинамике это устанавливается явно.

> Теперь позвольте два вопроса. Что это значит:

> Комплиментарные пары типа "Холмс-Ватсон" или "Чингачгук-Белый человек", как раз пример независимости сигнала (информации) от приемника.

Это довод об объективности информации (сигнала): оба видят физически тот же самый сигнал (след, например), но делают из него различные выводы. Ранее, я приводил пример в вендинговым автоматом.

> - Как это - независимости Холмс как Холмс, но вряд ли Ватсон нашел бы общий язык с Красной Шапочкой.

Как практикующий врач - почему нет? Тем более, судя по сказке Ш. Перро, Кр. Шапочка также была не лишена дедуктивных способностей: "- Бабушка, почему у тебя такие большие зубы?"

> Суть его метода - виртуальная декомпозиция (линейной) системы на подходящие для анализа модули и обратная сборка решения полной системы из известных решений для ее частей.

- Вот это я понимаю стиль! Можно я буду Вас цитировать Нет, я серьезно, мне понравилось, и я правда хочу вставить в текст после краткого редактирования. Разрешите

Думаю, что в том или ином виде это было прямо у Крона. Т.е., я не претендую на авторство. И, разумеется, можете это использовать как угодно.

> Уже обсуждалось. Вопрос метрики. К соседу из другого подъезда тоже ходим через улицу, а не через пролом в стене.

- Но не обсудилось, мы только начали. Предстоит, надеюсь, долгий и трудный разговор о том, какое значение имеет способ передачи информации, и имеет ли. Будем перестукиваться через стенку

Первыми здесь оказались декабристы. Честь этого эпохального открытия принадлежит Михаилу Бестужеву, который, находясь в Алексеевском равелине Петропавловской крепости, в 1826 году придумал перестукиваться через стены одиночных камер с товарищами. И именно по квадратной буквенной табличке. Об этом он подробно рассказал в своих мемуарах (88). Сама же табличка Бестужева сильно отличалась от более поздней революционной практики - в ней он разделял группы гласных и согласных букв и очень сильно сокращал используемую для перестукивания азбуку (от 28 до 14 букв!).

(c) Синельников "Шифры и революционеры России"

Инвариант   17.09.2019 23:46   Заявить о нарушении
К слову, о моделях. Попалось у Ию Шкловского ("Эшелон" / Поиски внеземных цивилизаций)

"Вспоминаю живой, увлекательный доклад одного из основоположников CETI (что
расшифровывается как «Communication with Extraterrestrial Intelligence») профессора
Моррисона. Предмет доклада: как можно по радио передать всю мудрость какой-нибудь (в
частности, земной) цивилизации. Оказывается, можно, и не так уж это много займѐт
времени! Аналогичные расчѐты я выполнил ещѐ до Моррисона в книге «Вселенная, Жизнь,
Разум». С большим запасом делается оценка, что всѐ, написанное людьми, когда-либо
жившими на Земле (а это преимущественно всякого рода пустопорожние бумаги, расписки и
пр.), можно выразить в двоичном коде 10^15 знаками. Радиопередатчик с шириной полосы
приблизительно 100 мегагерц, непрерывно работая, может излучить всю эту «разумную»
продукцию, включая содержание всех книг, когда-либо напечатанных на каком-нибудь
языке, за несколько месяцев! Этот впечатляющий, хотя довольно простой, результат
Моррисона был несколько «подмочен» невинным вопросом спокойно-флегматичного
Дрейка:
– Как вы думаете, сколько бит информации содержит формула Эйнштейна E = m*c^2?
Обычно очень находчивый Моррисон несколько растерялся, а собрание разразилось
взрывом хохота."

Инвариант   18.09.2019 06:30   Заявить о нарушении
Отдельно позвольте – синхронно с моим крайним добавлением к «Янковскому» – оглянуться на то, на что оглянулись Вы:
> Куда, кстати, подевались сенсоры и эффекторы (кодер/декодер) в модели Шеннона)?
– Они уже здесь, Инвариант, в тексте:
> Кстати, они-то, «ввод» и «вывод» (соответственно декодер/кодер у Шеннона), для того и нужны при «Черном ящике», чтобы ему контактировать с окружающей средой посредством своих «сенсоров» и «драйверов», соответственно.
– Декодер нужен Шеннону для того, чтобы отсеять «черный шум» окружающей среды, в котором растворена информация. А кодер – для того, чтобы растворить эту информацию в этом «черном шуме», поскольку иначе информация не передается. Этот «черный шум» – физическое свойство канала коммуникации. Своеобразная, расширенно понимаемая «несущая частота» для переноса этой информации через эфир к приемнику. Канал информации создается синхронизацией («функциональной идентичностью») колебательных контуров на приемнике и передатчике, но на этом их функция исчерпывается – и, значит, «несущая частота» больше не нужна. Коммуникация – коммуникацией, а информация – информацией. «Ввод» и «вывод» ИС работают с этим шумом, неизбежным в сигналах «сенсоров» и… «эффекторов»? ради бога. А на долю «управляющей инстанции» («Черного ящика», «трансформатора», «интерпретатора» и т.д.) остается только преобразование информационного сигнала. Кодер и декодер («ввод» и «вывод») – это средства коммуникации ИС с окружающей средой.
> Опять затрудняюсь вас понять. Общеприняты "белый шум" и "цветной".
Если вам требуются какие-то еще - дайте определения.
– На этот дополнительный вопрос позвольте ответить после того, как Вы ответите на мой. Правильно ли я понимаю, что в процессе релейной коммуникации (у Шеннона) «шум» отсеивается дважды: один раз в передатчике, другой – в приемнике? Если да, разные ли это шумы, и чем они отличаются?
С уважением, Ник.

Ник Пичугин   19.09.2019 11:03   Заявить о нарушении
1. > Если степень свободы - то, в моем понимании, не один код, а набор допустимых кодов. Иными словами, ваше кодовое пространство не должно вырождаться по данной координате - какой-либо код (из возможных) обязан присутствовать.
– Каких «допустимых»? Какое «вырождение»? Зачем Вы запутываете простой вопрос? Информационные коды – это декартовы координаты точки (информационного сигнала). Вы что, отказываетесь от своих слов, что степень свободы – это ось координат?
2. > Вы путаете фильтрацию с информацией.
– «Фильтрация». Новое слово придумали – специально, чтобы запутывать простые вещи?
Информация необходимо субъективна – «это ответ на заданный вопрос». Максимальная объективность достигается в прямом контакте с объектом (U) посредством естественных сенсоров – здесь и сейчас. Вся остальная информация поступает от субъектов – и поэтому еще более субъективна. Это и есть непрямая информация об объекте, искаженная общественными интерпретациями (социальная информация). Проблемой «непрямого знания» является то, что потребность в такой опосредованной информации резко возросла, а ее объективность неизменно снижается. (Подробности в «Тесте на адекватность».)
Все, что находится за пределами сенсорного восприятия (своего или чужого), «объективно» лишь в том смысле, что информацией не является. Это имел в виду Гиббс, факторизуя U по «ансамблям»; об этом говорил Оккам: «избыточная сущность».
А теперь скажите: где здесь «фильтрация», и зачем она нужна?
3. > У меня, разумеется, есть какие-то ответы, но интересны именно ваши. Если я буду отвечать себе сам, то вряд ли достигну понимания :-)
– Это понятно. Но в простых случаях можно активировать логику и немного домыслить за собеседника. Я, например, так и поступаю. Не всегда точно, но как правило – и это себя оправдывает. В простых случаях. Недоразумения возникают лишь как неизбежные издержки в интересах коммуникации. Более того эти недоразумения оперативно диагностируют наиболее глубокие разногласия.
С уважением, Ник.

Ник Пичугин   19.09.2019 13:54   Заявить о нарушении
Дополнительно к предыдущему:
> (Ник): Информационная система "качает" информацию непосредственно из окружающего физического пространства сообразно сенсорным возможностям своего "ввода". Все, что мы знаем об окружающем нас материальном мире, все, что мы называем «реальностью», «действительностью», «событиями», «фактами», «материей»… «Вселенной» – все это лишь информация, зарегистрированная нашими органами чувств… Все, что мы имеем – это информация, и только информация.
> (Инывриант): Да, мы уже обсуждали. Там где была отсылка к Ст. Лему. Его очень занимала эта проблема. Проблема автодексрипции конечного автомата.
– Если есть информация, значит, есть и ее источник, "основание наших ощущений". Другое дело, насколько оно "объективно", - то есть, одно на всех. И это тоже установлено с полной достоверностью.
> Гм. Каким образом? Мы опять возвращаемся к проблеме автодескрипции.
Вы, очевидно, смешиваете "информацию", как объективный фактор, и "чувствительность" - как субъективное свойство ее приемника. >
Конец цитаты.
Да, это уже обсуждалось – причем задолго до того, как прадеды Ст. Лема увидели белый свет; о чем самому Лему, без сомнения, было ведомо. Поскольку это проблема никакого не автомата, а философская проблема разумного бытия.
Все вопросы отвечены, все акценты расставлены. Сам факт, что та же проблема и эти же вопросы снова и снова всплывают как бы заново, под другими, актуальными названиями – свидетельство полного поражения всей современной системы высшего образования; причем не только в СССР и России.
С уважением, Ник.

Ник Пичугин   21.10.2019 12:14   Заявить о нарушении
> Сам факт, что та же проблема и эти же вопросы снова и снова всплывают как бы заново, под другими, актуальными названиями – свидетельство полного поражения всей современной системы высшего образования

Образование, по определению, занимается только уже решенными проблемами.

Инвариант   21.10.2019 13:43   Заявить о нарушении
>Все вопросы отвечены, все акценты расставлены. Поскольку это проблема никакого не автомата, а философская проблема разумного бытия.>
Конец цитаты.

Ник Пичугин   22.10.2019 16:41   Заявить о нарушении