Скачать книгу

понятие информации было уточнено кибернетикой, которая изучала живые организмы и машины с точки зрения их способности воспринимать определенную информацию, сохранять ее «в памяти», передавать по «каналам связи» и перерабатывать в «сигналы», направляющие их деятельность.

      В ходе дальнейших естественнонаучных исследований понятие информации было расширено и включило в себя обмен сведениями не только между людьми, но между человеком и машиной, между двумя машинами; обмен сигналами в животном и растительном мире; передачу признаков («генетической информации») от одной живой клетки другой клетке, от одного организма – другому.

      Кроме того, была предложена количественная мера информации, что привело к созданию научной теории информации.

      Началом развития теории информации послужила написанная в 1948 г. работа американского инженера и ученого К.Э. Шеннона «Математическая теория связи», в которой автор, с позиций разработанной им теории, объяснял некоторые процессы, происходящие в биологических структурах, что позволяло рассчитывать количество информации, характеризующей строение биологических объектов. Основным понятием теории К.Э. Шеннона явилось количество информации, определяемое как совокупность всех возможных сообщений и их вероятностей, независимо от содержания[182].

      По выражению А.Н. Колмогорова, тем самым были заложены основы количественного подхода к исследованию информации, который впоследствии был развит в рамках математической теории информации[183].

      Благодаря разработке К.Э. Шенноном абстрактного подхода к информации и введению ее количественной меры, с начала 1950-х гг. многими учеными стали предприниматься попытки использовать понятие информации для объяснения и описания самых разнообразных явлений и процессов, в первую очередь биологических.

      Вскоре выяснилось, что количественных характеристик информации недостаточно для исчерпывающего объяснения биологических процессов.

      Автор обобщенной теории живого как общей теории информационных систем B.Л. Калмыков заметил, что теория надежности

      К.Э. Шеннона, которую часто называют «теорией информации», в действительности таковой не является. Это теория «о емкости информационной бочкотары и о надежности информационных трубопроводов, но не теория о природе их содержимого»[184].

      И.И. Шмальгаузен, первым применивший теорию информации к эволюции органического мира, заключил, что эта теория не располагает методами для оценки информации с качественной стороны, которая в биологии нередко имеет решающее значение[185].

      К аналогичным выводам пришли и другие ученые[186].

      Справедливости ради следует отметить, что сам К. Шеннон признавал недостаточность чисто количественного подхода к исследованию природы информации и необходимость его дополнения изучением качественных, структурных характеристик информации.

      В середине XX столетия понятие информации получило общетеоретическое значение.

      Основоположниками

Скачать книгу


<p>182</p>

См.: Шеннон К.Э. Работы по теории информации и кибернетике / Пер. с англ. М., 1963.

<p>183</p>

См.: Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. 1965. Т. 1. Вып. 1.

<p>184</p>

См: Калмыков В.А. Об актуальности проекта «Виртуальное живое». М., 1999.

<p>185</p>

См.: Шмальгаузен И.И. Кибернетические вопросы биологии. Новосибирск, 1968.

<p>186</p>

См.: Анохин П.К. Теория функциональной системы как предпосылка к построению физиологической кибернетики // Сб.: Биологические аспекты кибернетики. М., 1962; Анохин П.К. Кибернетикаи интегративная деятельность мозга// Вопросы психологии. 1966. № 3; Анохин П.К. Биология и нейрофизиология условного рефлекса. М., 1968; и др.