Вы здесь

Седьмое доказательство. Информация (Виктор Печорин)

Информация

Информация означает степень упорядоченности.

Станислав Лем

Обратную по отношению к энтропии величину мы назвали «степенью упорядоченности». Если энтропия характеризует стремление материи к состоянию хаоса, то степень упорядоченности указывает на движение в противоположном направлении – к упорядоченному состоянию, т. е. к космосу.

Что такое степень упорядоченности, представить несложно. Интуитивно любой человек имеет об этом представление. Представьте себе, что ребенок раскидал свои игрушки по всей комнате. Это – хаос. Но вы заставили его собрать все и сложить в коробку для игрушек. Теперь они не занимают всего пространства комнаты, но находятся в специально отведенном для них месте. Это – упорядоченное состояние.

Если вы рассортируете игрушки по какому-то признаку, например, отдельно мелкие, а отдельно – крупные, степень упорядоченности увеличится, так как теперь внутри категории игрушек выделятся какие-то подкатегории (структуры).

Термин «степень упорядоченности», несмотря на достаточную ясность и конкретность, не получил распространения. Вместо него широко употребляется другой термин: информация.

По-латыни informatio означает «разъяснение, изложение, истолкование, осведомление, сообщение о чем-то». Но слово informatio является производным от латинского выражения in-formo, означающего «придавать форму, порядок, устраивать, организовывать». Таким образом, информация означает не что иное, как степень упорядоченности.

Как известно, наука начинается тогда, когда от качественных оценок переходят к количественным, то есть, попросту говоря, когда появляется возможность измерять. Чем же измерить информацию? Может быть, количеством слов? Например, для исчисления величины писательского гонорара используется такая единица измерения, как авторский лист – лист определенного размера, заполненный авторским текстом, набранным шрифтом определенного размера. Можно воспользоваться для этой цели и количеством знаков (т. е. букв) в тексте. Но всегда ли информативность текста определяется его величиной? Можно прочитать толстенную книгу и извлечь из нее лишь одну банальную мысль, например о том, что неразделенная любовь – это плохо. В то же время, в маленькой первой главе книги Бытие содержится информация обо всей истории сотворения мира с начала времен. Не зря ведь говорят, что краткость – сестра таланта.

Конечно, связь между количеством слов или знаков и количеством информации имеется, но это должны быть не просто слова и знаки, а слова и знаки, содержащие значимые, существенные сведения.

Для измерения информации придумана специальная единица – бит. Что это такое? Один бит – это количество информации, устраняющее неопределенность при выборе одной возможности из двух равноценных. По существу, это ответ на элементарный вопрос, допускающий только два ответа – «да» или «нет». Как говаривал Иисус: «да будет слово ваше: да, да; нет, нет; а что сверх этого, то от лукавого» (Матф.5:37).

Очевидно, что чем более сложно организованную систему мы рассматриваем, тем больше число вопросов, которые у нас в относительно нее могут возникнуть, следовательно, тем большее количество информации содержится в этой системе.

Ну что, например, можно рассказать о Хаосе? Только то, что он существует. Но попробуйте описать Космос, состоящий из галактик, метагалактик, звездных систем, планет с лунами, астероидов, комет, «белых карликов», «черных дыр», нейтронных звезд, – и каждый из этих объектов движется по определенным законам и оказывает влияние на другие объекты! Безусловно, Космос (упорядоченное состояние Вселенной) содержит гораздо большее количество информации, чем Хаос.

В теории информации известен закон, гласящий, что количество информации, введенное в какую-либо систему, в результате различных ее преобразований не возрастает. Вследствие наличия помех (шумов) в каналах связи оно может либо уменьшиться, либо, в лучшем случае, остаться неизменным (закон сохранения информации). Здесь идет речь о так называемой абсолютной информации.

Существует также понятие распределенной информации. Если мы вводим одну и ту же информацию в несколько разных систем, то количество распределенной информации будет во столько раз больше количества абсолютной информации, во сколько систем она была введена. Например, если вот эту книгу прочитают 10 человек, то количество распределенной информации станет в 10 раз больше количества абсолютной информации, содержащейся в книге.

Если имеется алфавит из 32 букв, частота появления которых в тексте одинакова (предположим, что это так), то знание одной буквы из алфавита дает 5 битов информации (25 = 32). Следовательно, в простейшем случае равенства исходных вероятностей количество информации (I), выраженное в битах, равно двоичному логарифму числа возможных результатов (N):

I = log2 N [5]

Несложно заметить, что эта формула совпадает с формулой Больцмана [4] с точностью до постоянного множителя. Это совпадение не случайно.

Известный физик Л. Бриллюэн установил так называемый негэнтропийный принцип информации, согласно которому введение в систему информации уменьшает энтропию системы.

Объективная связь между энтропией и количеством информации заключается в том, что обе величины являются мерами организованности рассматриваемой физической системы.


К негэнтропийному принципу информации можно прийти, например, путем таких рассуждений.

Возьмем определенную физическую систему с энтропией S, состояние которой может осуществляться N различными способами (S = k ln N). Введем в эту систему такое количество информации I = log2 N, чтобы из N различных способов осуществления состояния системы реализовался один определенный способ. Рассматриваемая нами система выступает при этом как система записи данной информации. Тогда в формуле (5) следует положить N =1, а, значит, в этом случае будет S=0, то есть мы получим полностью упорядоченную систему. Таким образом, энтропия системы уменьшилась до нуля, и произошло это благодаря получению количества информации I = log2 N. Значит, информация несет с собой отрицательную энтропию (негэнтропию), и для количества информации нужно так выбрать единицы измерения вместо битов, чтобы для рассматриваемого случая было:

S – I = 0 [6]

или log2 N (битов) = k ln N = k log2 N ln 2.

Откуда 1 бит = k ln2 ~ 10—23 Дж/К.


Формула [6] наглядно демонстрирует отношение информации к энтропии. Бриллюэн, давая определение информации, назвал её «отрицанием энтропии».

Заметим, что формула [6] идентична формуле [1], выведенной нами из наблюдений за окружающей действительностью. Это означает, что величины энтропии и информации весьма достоверно описывают действие разрушительной силы М и противостоящей ей созидательной силы А.

Если исходить из того, что исходным состоянием Вселенной (Универсума) был хаос, характеризующийся максимальной энтропией, то для возникновения космоса, т. е. её нынешнего состояния, необходимо было введение во Вселенную некоторого количества информации. Очевидно, что эта информация не содержалась изначально во Вселенной, иначе её энтропия не принимала бы максимального значения. Значит, она была введена откуда-то извне. Но откуда? Ведь согласно материалистическим взглядам физическая Вселенная – это всё, что есть, и кроме неё ничего не существует! Получается, что источник информации должен иметь нематериальный, трансцендентный13 характер. В мире физических явлений «его глубочайшая тайна лежит вне его собственной реальности»14.

Важнейшим следствием из формулы [6] является связь между информацией и энергией. Формула позволяет рассчитать количество энергии, необходимое для возникновения единицы информации:

Для того, чтобы возник 1 бит информации, необходимо произвести работу в 1023 Дж/К.

И наоборот: чтобы возникла энергия в размере 1 Дж/К необходимо затратить 10 23 бит информации.

Запомним этот вывод – он нам еще пригодится.

Обратим внимание на еще одну немаловажную особенность. Если по мере упорядочения системы энтропия уменьшается от абсолютного максимального значения (принимаемого ею при хаотическом состоянии системы), в идеале стремясь к нулю, то информация увеличивается от нуля (в состоянии хаоса) до бесконечности. При этом во Вселенной может быть реализован абсолютный хаос (собственно, это её изначальное состояние), но не может быть достигнута абсолютная упорядоченность. Вселенная может лишь стремиться к наивысшему порядку, но он находится за гранью возможностей материального мира, за гранью Природы.

Этот принцип сформулировал Станислав Лем: «максимальный порядок, какой мы можем представить себе, выше того, который проявляет Природа»15. Этот наивысший, абсолютный или идеальный порядок, характеризующийся нулевой энтропией и бесконечным объемом информации, представляет собой не что иное, как мировой Абсолют, т. е. то, что принято называть Богом.