Скачать книгу

того, что она существует только при «наличии» воспринимающего ее (сканирующего) субъекта, понимание того, что для человека мир таков, каким он его видит, широкое распространение в науке сегодня антропного принципа – эти итоги научной рефлексии свидетельствуют об истинности богословского утверждения: мир антропоцентричен, мир создан для человека. В антропоцентричном мире все существует для человека. Каждой вещи и явлению Замыслом Творца заданы определенная функция и смысл их существования для человека логосом, парадигмой вещи. Информация – это открытие существования «вещи» каждым субъектом. Логос – это Мысль Бога, информация – это мысль человека о Мысли Бога.

      Христоцентричность мира указывает точно так же на субъективность символа: объект или знак не становятся символом, если их человек не видит таковыми. Субъективность информации и символа можно рассматривать в 2-х ракурсах:

      1. Как осуществление заданной логосом, Промыслом Творца взаимосвязи мира и человека через информационные параметры среды;

      2. Как зависимость информации от возможностей человека, способности конкретного субъекта к построению индивидуальной картины мира и нахождению смыслов существования.

      5.3. Взаимосвязь информации и энергии

      Выше рассматривалась взаимосвязь логоса сущности и энергии в богословском контексте. Существует ли и отрефлексирована ли наукой взаимосвязь информации и энергии?

      Эту взаимосвязь отражает определение информации в области статистической термодинамики и теории вероятности как меры определенности и упорядоченности. Шеннон предложил формулу, определяющую количественную меру информации[175].

      Статистическая мера количества информации отличается постоянным коэффициентом и обратным знаком от выраженной термодинамической энтропии. Информационные процессы существуют во взаимосвязи с веществом или энергией.

      Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, – писал Н. Винер[176], – есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации». И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности.

      Мера организации и в физике, и в теории информации является вероятностно-статистической:

      где: Р – вероятность состояния i элемента;

      n – количество элементов множества;

      Н – мера количества информации.

      «Передаваемую сигналом информацию, – писал Н. Винер[177], – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний

Скачать книгу


<p>175</p>

Веккер Л. М. Психические процессы… Т. I.

<p>176</p>

Винер Н. Кибернетика и общество…

<p>177</p>

Там же.