Информация 2 Генрих Хачатрян Наварра
"Информация есть информация, а не материя, не энергия, не разнообразие и ничто другое." Н.Винер.
Гл .1. Информация
Как уже упоминалось, концепций информации насчитывается как минимум несколько десятков /см.73-11/; разбор каждой - предприятие нереальное, поэтому ограничимся несколькими.
В настоящее время различают в основном три аспекта информации: синтаксический /структурный/, семантический /смысловой/, и прагматический /он же аксиологический, ценностный/, соответственно, синтаксическую, семантическую и прагматическую информацию.
Существуют различные подходы к трактовке того или иного вида информации.
Рассмотрим вначале так называемые синтаксические определения.
Первоначальное представление об информации как сведениях, сообщениях о некоторых событиях, объектах, в силу своей неопределенности, неконкретности, не могло удовлетворить нужды конкретных дисциплин.
Развитие средств связи в первой половине XX века вызвало потребность в количественной характеристике сообщений.
Статистическая теория информации Шеннона-Хартли, предназначенная вначале для анализа процессов передачи информации в каналах связи, в дальнейшем оказалась применимой и в других областях.
Информация в этой теории определяется либо через понятие неоп¬ределенности /Хартли/, либо через обратное ей понятие вероятности /Шеннон/.
Ситуация выглядит следующим образом: имеется некоторая система S0 в момент времени t0; в момент времени t1 система может перейти в одно из N состояний St /для простоты пред¬полагаем, что все N состояний равновероятны/.
Сообщение, принятое системой, переводит ее в одно из N равновероятных состояний, снимая тем самым неопределенность, существовавшую в системе до его получения при этом количество информации, заключенное в сообщении, определяется по формуле: I=;Klog;_2 N. Это формула Хартли /1928г./
Шеннон трактует информацию через понятие вероятности. Если имеется N равновероятных состояний системы, то вероятность одного /любого /из них равна 1/N, тогда формула Хартли приобретает следующий вид:;(&I=-;log;_2 1/N).
Эту формулу можно рассматривать как упрощенный вариант формулы Шеннона, которая в полном виде выглядит так: I=-;;;;p_i log;_2 p_i ;.
Единицей информации в этой теории является бит. Считается, что сообщение несет один бит ин¬формации, если в результате его приема система переходит в одно из двух равновероятных состояний /или, что то же, вероятность пе¬рехода системы в другое состояние равна одной второй/.
Реализация события представляет собой "снятие" неопределенности и зак-лючает в себе тем больше информации, чем меньше вероятность его наступления.
Выпадение орла или решки равнозначно получению 1 бит информации, одной грани кубика /P=1/6 / - ;log;_2 6;3бит, выбор одной из букв русского алфавита / P=1/33/ - ;log;_2 33;6 и т.д.
Понятие энтропии играет в статистической теории информации центральную роль и трактуется как мера неопределенности.
Получение информации понимается как снятие неопределенности /уменьшение или уничтожение энтропии/.
Такая трактовка энтропии хорошо согласуется с термодинамической. В самом деле, любая система при Т=0°К находится в единственном возможном состоянии, при этом энтропия /как мера неопределенности / минимальна, /в общем случае равна нулю, а информация, прием которой обеспечил полное устранение неопределенности, равна
Это, разумеется, предельное состояние, вероятность наступления которого равна нулю и наступление которого может быть обеспечено приемом ; количества информации.
Наряду с "вероятностной" /энтропийной/ трактовкой можно выделить так называемую "разнообразностную", изложенную в развернутой форме в середине 5-х годов У.Р.Эшби. Согласно этой концепции информация есть там, где имеется /дано или выявляется/ разнообразие, неоднородность.
Единицей информации можно считать элементарное различие, т.е., различие между двумя объектами в каком-либо одном фиксированном свойстве /см. 71, 85/.
Для выявления различия важную роль играет понятие порога различности /различимости/, понимаемое в общем случае как то минимальное изменение которое дает возможность считать рассматриваемые параметры, свойства, объекты разными. Если изменение ниже порога различимости, сравниваемые объекты считаются идентичными /ноль информации/.
Чем ниже установлен порог, тем большее количество информации /раз-нообразия/ содержится в одном объекте относительно другого, и наоборот, причем, поскольку состояние объекта может характеризоваться разнообразием, ”количество разнообразия, внутренне присущее конечному объекту, или системе, всегда ограничено... и может быть определено на основе принципа порога различности”. /73-82/.
Порог различности имеет некоторые экстремальные значения, и его уменьшение до нуля невозможно”, т.к. в таком случае "пришлось бы иметь дело ...с бесконечно большим числом состоя¬ний, что теряло бы всякий практический смысл”/73-62, 83/.
Таким образом, введение порога различности "упрощает” объект, позволяя тем самым его исследовать, выделяя существенное разнообразие и отвлекаясь от несущественного.
Кроме того, "упрощение” объекта, "ограничение разнообразия” в процессе передачи информации объясняется еще и чисто объективными причинами.
В самом деле, если считать, что при взаимодействии объектов происходит отражение разнообразия одного объекта в другом /и наоборот/ и допустить, что передается все разнообразие, придется допустить что в результате взаимодействия /взаимоотражения/ получаются два совершенно идентичных объекта; за 15-20 млрд лет существования Вселенной при таком допущении в ней, очевидно, должны были остаться только совершенно идентичные объекты, впрочем, для этого не надо было бы столько времени, т.к. в принципе в каждый момент все взаимодействует со всем.
Связь "вероятностной" и "разнообразностной" трактовок становится очевидной, если в качестве двух систем рассматривать одну и ту же, но в разных состояниях /в различные моменты времени/.
Если при "вероятностной" трактовке система только получив информацию переходит из состояния S0 в состояние St, то в "разнообразностной" трактовке информация имеется только тогда, когда система переходит из S0 в St-е состояние. Если S0 и St-е состояния совпадают, информация равна нулю и в той, и в другой трактовке.
Рассмотрим еще одну, т.н., "алгоритмическую" концепцию информации, тесно примыкающую к "разнообразностной".
Автор ее, А.Н. Колмогоров, в 1965 г. ввел принципиально новое определение коли¬чества информации. Идея алгоритмического подхода заключается в том, что количество информации, содержащееся в одном объекте относительно другого, определяется как минимальная длина программы, позволяющей однозначно преобразовать один объект /систему/ в другой . /см. 26,27,71/
Программа /алгоритм/ выражает сложность перехода от од¬ного объекта к другому, измеряя, тем самым, степень тождества /или различия/ объектов.
Соображения, высказанные по поводу связи "вероятностной" и "разнообразностной" концепций, полностью применимы и к "алгоритмической", более того, как показал А.Н.Колмогоров, на базе алгоритмического определения информации можно строить теорию вероятностей.
Завершая рассмотрение синтаксических концепций информации хотелось бы обратить внимание на следующий момент: при всем различии той или иной концепции, все они так или иначе фиксируют момент изменения, различия, между двумя системами или од¬ной и той же в разные моменты времени, что в принципе одно и то же, т.к. ничто не мешает рассматривать каждое состояние системы как отдельную систему.
При этом не столь уж важно, что по одной трактовке прием информации переводит систему в другое состояние, а по другой фиксируются различия между состояниями.
Т.о., связь информации с изменением вообще не вызывает сомнений, если же учесть, что изменение- "наиболее общая форма бытия всех объектов и явлений, ...охватывает всякое движение и взаимодействие" /79- 142/, то становится очевидной связь информации со всяким движением, взаимодействием.
В литературе иногда встречается точка зрения согласно которой движение, изменение рассматриваются как более широкие /общие / понятия, чем взаимодействие.
Причиной такого под¬хода является, очевидно, узкое понимание взаимодействия как взаимодействия двух /и более/ систем, как внешнее взаимодействие, при этом изменение отдельных /единичных/ объектов рассматривается как "самодвижение". Думается, что такая трактовка не совсем верна хотя бы потому, что "самодвижение" /если даже допустить систему, полностью изолированную от внешних воздействий/ невозможно объяснить ничем иным, как взаимодействием элементов, противоположных тенденций и т.д., но в любом случае взаимодействием.
Кроме того, взаимодействие как философская категория зачастую отождествляется с физическим понятием, которое акцентирует внимание лишь на материально-энергетической стороне процесса.
Рассматривать движение именно в этом плане как более общую категорию вполне правомерно, но как философские категории они могут рассматриваться как равнопорядковые.
Прежде чем перейти к рассмотрению связи информации с отражением, имеет смысл кратко остановиться на семантических и прагматических аспектах информации.
Если синтаксические теории информации применимы к объектам /явлениям/ любой природы, характеризуют структуру, разнообразие и другие параметры систем и предполагают наличие в общем случае объект-объектных взаимодействий, то семантические и прагматические концепции предполагают наличие субъект-объектных отношений, причем в качестве субъекта выступает самоорганизующаяся /самоуправляемая/ система, для которой информация приобретает некоторый смысл и ценность. В число самоорганизующихся систем, как уже отмечалось, включают живые, а в некоторых случаях и кибернетические системы.
Семантическая концепция связана с классическим пониманием информации как сведений, сообщений о каком-либо событии или объекте. Информацией считается лишь такое сообщение, которое имеет смысл для получателя.
В настоящее время существуют различные логико-семантические теории информации /Р.Карнап, И.Бар-Хиллел, Дж.Кемени и др., см.71/, позволяющие измерять количество смысла, "смысловой” информации, правда, в достаточно формализован¬ных языковых системах.
Согласно прагматической концепции информацией считается то в сведении, сообщении, что имеет для самоорганизующейся системы ценность, способствует выполнению функций, достижению некоторой цели, стоящей перед системой.
На возможность измерения ценности информации как приращение вероятности достижения цели одним из первых обратил внимание А.А.Харкевич.
Помимо этого под¬хода имеются варианты, связанные с теорией игр и решений, с теорией оптимального управления и т.д.
В общем случае мера ценности информации оказывается зависимой как от субъекта /воспринимающей системы управления/, так и от целей управления, причем мера ценности может быть и отрицательной.
Кроме рассмотренных, выделяют семиотический, коммуникативный, теоретико-отражательный, гносеологический, каузальный и др. аспекты /66-64/.
Само по себе выделение тех или иных аспектов информации для решения конкретных задач или использования в рамках частно-научной дисциплины не вызывает возражений, но "...всякие попытки универсализации частного определения, пригодного для рассмотрения лишь одного из ее аспектов, приводит к ошибочным выводам", как справедливо отмечает Б.С.Украинцев /66-64/.
Далее он обосновывает положение, согласно которому информации нет вне информационной связи, вне управления и самоуправляемых систем, и констатирует: "К сожалению, иногда это важное положение /об отсутствии информации вне информационной связи -Г.X./ теории информации не принимается во внимание и в ранг т.н. потенциальной ин¬формации возводится любое разнообразие физического мира, независимо от того, вовлечено оно в процесс информационной связи или нет.
Между тем считать информацию существующей вне и независимо от процесса информационной связи со всеми ее этапами так же неправомерно, как считать существующей силу вне процесса взаимодействия объектов, фотон вне процесса его движения, содержание вне его формы и т.д." /66-67/.
К сожалению, автор допускает ошибку, от которой предостерегал /тремя страницами раньше.
Несколько соображений:
1.Информацию вне информационной связи, в
вероятно, трудно пред¬ставить, вопрос в том, что понимать под "информационной связью" и информацией.
Если информация = разнообразие и при взаимодействии /взаимоотражении/ происходит отражение разнообразия /==передача информации, и соответственно, прием/, если сохранение разнообразия одного объекта в другом /"следы"/ с полным основанием можно рассматривать как хранение информации, и, наконец, если рассматривать ограничение разнообразия как некоторую переработку информации воспринимающей системой, то налицо информационный процесс, включающий в общем случае прием, хранение и переработку информации.
Другое дело, что он протекает не совсем так, как, скажем, в биосистемах.
2.Информацию неправомерно считать существующей вне материального носителя, что касается информационной связи, -вопрос спорный.
Информация, рассматриваемая как некоторое свойство материальных объектов, безусловно проявляется во взаимодействии, в отношении, как и любое свойство, как подчеркивал еще Ф.Энгельс, вне данного отношения данное свойство, возможно, не проявляется, но, очевидно, вполне правомерно говорить о его потенциальном существовании.
3.Следуя логике самого автора, информация, находящаяся на хранении, "выключенная" на время из процесса управления, перестает быть таковой, исчезает, "включившись" же в него, появляется вновь.
Не вызывает сомнения, что сторонники атрибутивной концепции и "функционалисты", к числу которых принадлежит и Украинцев, говорят на разных языках, но в принципе об одном и том же.
Признание потенциальной информации вовсе не противоречит тому, что в не¬которых системах она из потенциальной превращается в актуальную, включается в информационную связь, выполняет функции управления, обретает ценность, смысл и т.д.- для некоторого класса систем.
Обе концепции не столько противоречат друг другу, сколь¬ко дополняют, вся "беда" сторонников той или иной - в нетерпимости /непонимании/ противоположной и в абсолютизации своей трактовки.
Вопрос не в том, какая концепция лучше "работает" в той или иной области знания, а в том, чтобы выявить наиболее общее в феномене информации.
Безусловно, на уровне живых, а тем более мыслящих систем информация имеет и синтаксический, и семантический, и прагматический и массу других аспектов, но ведь она /информация/ выявляется и в объектах иной природы, не имеющих отношения ни к живым, ни к управлению /в традиционном смысле/- правда, не в таком разнообразии свойств.
Можно трактовать информацию в единстве всех ее аспектов, а все остальные ее проявления считать чем угодно, но не информацией, -и можно выявить общее, присущее всем ее проявлениям.
Думается, второй подход был бы более плодотворным, точнее, для адекватного объяснения необходимы оба подхода.
Сторонники функционального подхода явно или неявно исходят из аристотелевского положения "целое больше суммы своих частей". Это положение, безусловно верное по своей сути, тем не менее не отменяет противоположного- "новое качество преемственно связано со старым", иначе не было бы смысла, в частности, рассматривать свойство материи, по существу родственное ощущению /см. 5-91/
Свидетельство о публикации №225041401612