Читать «Информация как основа жизни» онлайн

В. И. Корогодин

Корогодин В. И., Корогодина В. Л.

Информация как основа жизни

Оглавление

Пролегомены

Глава первая. Историческая справка

Глава вторая. Информация и её свойства

Глава третья. Информационные системы

Глава четвертая. Принцип поризма

Глава пятая. Динамика информации

Глава шестая. Биосфера и техногенез

Глава седьмая. Предвидимо ли будущее?

Обозначение используемых понятий

Contents

Prolegomenon

Chapter 1. History

Chapter 2. Information and Its Properties

Chapter 3. Information Systems

Chapter 4. Porism Principle

Chapter 5. Dynamics of Information

Chapter 6. Biosphere and Technogenes

Chapter 7. Can One Predict the Future

Designation of the Notions Used

ПРОЛЕГОМЕНЫ

Термин "информация"

Термин "информация" широко используется в научной литературе. Трудно найти область знаний, избежавшую соблазна его применять. Это – следствие все продолжающегося расширения смыслового поля этого термина.

В тридцатые годы и ранее слово "информация" использовали, в основном, как "сведения" или "осведомление", т. е. как прямой перевод латинского informatio. К концу сороковых годов под "информацией" начали понимать функцию статистических характеристик букв какого-либо языка. Так, согласно К. Шеннону [1], количество информации, содержащейся в каком-либо сообщении, состоящем из М букв, равно (1):

где n – число букв в данном языке, а p –- частота встречаемости i–той буквы ( i=1,2...n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество информации Н всегда было положительным.

Под влиянием работ Л. Бриллюэна [2], начиная с шестидесятых годов, возник и приобрел широкую известность "негэнтропийный принцип информации". В отличие от энтропии, рассматриваемой в качестве меры неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода антиэнтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит формальное сходство обобщенной формулы К. Шеннона (2):

и знаменитой формулы Больцмана для физической энтропии S = lnW, где W - число состояний, которые может принимать система. Если микросостояния системы различны, то формула будет выглядеть так (3):

Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или энтропийных (эрг/град).

Б. Б. Кадомцев указывает [3], что величины I и S формально равны потому, что I соответствует информации одного единственного состояния из множества возможных, a S определена по множеству всех состояний. Здесь понятие информации дается в терминах физической статистики. Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности [4]. Эти два определения практически совпадают [5].

Однако существуют области феноменов, для обозначения которых этот термин также хорошо подходит, и использование его существенно упрощает задачи их изучения.

Жизнь вокруг нас

Замечали ли вы когда-нибудь, что в русском языке нет слова, противоположного словам "живое", "жизнь"? Вернее, есть слова "мертвое", "смерть", но они означают лишь то, что когда-то было живым, а затем погибло. "Неживое" также происходит от слова "живое". И этот характерный для многих языков феномен связан, видимо, с тем, что, склонный судить о других по себе, первобытный человек одушевлял, по аналогии с собой, весь окружающий мир [6].