Читать «Одна формула и весь мир» онлайн - страница 14

Евгений Александрович Седов

И все же в конечном счете наука и искусство воздвигают не два различных изолированных здания, в которых, согласно утверждениям Сноу, независимо произрастают две разные культуры, а единое здание — общечеловеческую культуру.

В этом здании наука призвана служить постижению Истины, а искусство — воспевать, отвоевывать и создавать Красоту. Достаточно вспомнить, что Истина красива, а Красота истинна, чтобы понять: все достижения человеческой культуры смыкаются в неразрывный круг.

В строительстве величественного здания общечеловеческой культуры теории информации предстоит выполнять роль цемента. В самом деле, «величественное здание физики», которое, по мнению Сноу, строится особняком от гуманитарных наук и искусства, для энтропии теперь стало слишком мало. Ведь с помощью энтропии теперь решаются не только физические проблемы. Благодаря теории информации энтропия стала эффективно использоваться и биологией, и психологией, и лингвистикой, и искусствоведением, и... В общем, сейчас трудно даже назвать область знаний и творчества, для которых не был бы актуален новый энтропийно-информационный подход.

Будем надеяться, что после всего сказанного читатель не захлопнет в сердцах эту книгу, встретив в очередной раз пока еще непонятные ему математические символы. По крайней мере он попытается прежде приложить немного усилий, чтобы понять, в чем заключается смысл замечательной функции энтропии и что таят в себе ее «каббалистические» знаки. Тем более что усилий нужно не так уж много, поскольку теория информации пролила на энтропию достаточно яркий свет. Благодаря теории информации наука стала исследовать энтропию не только незримых микропроцессов, но и таких доступных для непосредственных наблюдений объектов, как изображение на телеэкране или печатный текст.

Больцману было много труднее, поскольку с помощью этой функции он исследовал не доступный непосредственным наблюдениям, а лишь воображаемый микромир. И все же ему удалось «увидеть», как в таком мире ведет себя энтропия: она возрастает в том случае, если вероятности всех скоростей и положений молекул приближаются друг к другу. Так, например, разбив мысленно все занимаемое газом пространство на N равных по объему ячеек, можно утверждать, что энтропия достигнет максимума, когда все молекулы равномерно распределятся по всем N ячейкам.

Переходя на язык теории вероятностей, можно сказать: энтропия достигнет максимума, когда вероятность нахождения молекулы в 1-й ячейке равна вероятности нахождения ее в 5-й ячейке или в любой другой ячейке из общего числа N. Обозначив через Pi вероятность того, что молекула находится в i-й ячейке, и считая, что i может принимать любые значения от 1 до N (i=1, 2, 3, ..., N), запишем условие максимального значения энтропии, соответствующее наиболее беспорядочному, хаотичному расположению молекул в ячейках