Часть I
Биты в атомах
Глава 1
Секрет путешествия во времени
Стул, на котором я ожидал рождения своей дочери, был не очень удобным. Моя жена Анна и я приехали в Главный госпиталь Массачусетса в 6:30 вечера в ту субботу. Мы оставались дома, пока развивались ее схватки, и решили направиться в больницу, когда интервал между ними сократился до нескольких минут. Ее схватки усилились во время медицинской сортировки, но обезболивающий укол, который ей сделали пару часов спустя, дал необходимый отдых. На часах было 2:00. Ночь прошла спокойно. Слышался только периодический шум прибора, измеряющего ее давление. Комнату освещали несколько дисплеев и уличные фонари, отражающиеся в реке Чарльз. В этой полутьме я видел только Анну, мирно отдыхающую на кровати. Я держал ее за руку и ждал рождения нашей дочери, сидя в кресле, которое, как я уже говорил, не было особенно удобным.
В 3:00 утра медсестра сказала нам, что Анне пора тужиться. Анна была полностью готова, и наша дочь Айрис начала одно из важнейших путешествий в своей жизни. Жене потребовалось всего двадцать шесть минут, чтобы вытолкнуть Айрис в руки нервничающего, но сосредоточенного студента-медика, который принял ее. Двадцать шесть минут кажется коротким временем для родов, и это действительно так. Тем не менее я утверждаю, что путешествие, которое Айрис проделала в ту ночь, представляло собой не просто продвижение по нескольким сантиметрам родовых путей в течение двадцати шести минут, а 100-тысячелетнее путешествие из далекого прошлого в неизвестное будущее. За двадцать шесть минут Айрис проделала путь из древности чрева своей матери в современность общества XXI века. Рождение, в сущности, представляет собой путешествие во времени.
До той ночи, за исключением нескольких звуков, мир для Айрис представлял собой тот же мир, что и для младенцев сто тысяч лет назад. Она находилась в утробе матери и слышала в основном только голоса родителей, не представляя сложности окружающего ее современного мира. В ночь ее рождения все изменилось.
Айрис родилась в 3:26 утра в комнате, освещенной не солнечными лучами, а флуоресцентными светильниками и лампами накаливания. Ее бабушка и дедушка, которые с тревогой ожидали новостей, впервые увидели ее лицо во вложении в электронном письме. Музыка, наполнившая палату после рождения Айрис, была не пением птиц и не шелестом деревьев, а лилась из динамиков планшетного компьютера, который повиновался приказам алгоритма, выбравшего для нас песню.[10] В ту ночь Айрис за несколько минут проделала путь в несколько сантиметров, однако в более глубоком смысле она совершила намного более длительное путешествие. В ночь своего рождения она переместилась из далекого прошлого в поистине фантастическое настоящее.
Несмотря на то, что путешествие Айрис имеет для меня особое значение, ее способ путешествия во времени не является редкостью. Рождение в XXI веке представляет собой чуждый опыт для большинства детей. Мир XXI века значительно отличается от того, в котором эволюционировал наш вид. Это сюрреальный мир, наполненный материальными объектами, которые до своего появления представлялись в воображении. Палата, в которой родилась Айрис, была полна материальных объектов, однако современным этот мир делали не эти объекты. Различие между миром, в котором родилась Айрис, и миром ранних гоминид заключается не в телесности материи, а в способе ее организации. Этот физический порядок представляет собой информацию. Ночному рождению Айрис способствовали не объекты, а заключенная в них информация и практическое использование знания и ноу-хау, которые неявно присутствуют в этих объектах. Палата, в которой родилась Айрис, была освещена не только лампами, но и пониманием электричества, энергии и материалов, используемых в этих лампах. В ту ночь Айрис было тепло благодаря не случайному скоплению нитей, а одеялам, сотканным из материи, знаний и воображения. Как это ни парадоксально, но Айрис родилась в реальном мире, который, хотя и является материальным, имеет свое происхождение в воображении. Этот мир отличается от того, в котором эволюционировал наш вид, только способом организации материи.
Тот факт, что объекты являются воплощением информации и воображения, может показаться очевидным. Информация – это фундаментальный аспект природы, который старше самой жизни. Кроме того, по мере развития жизни накопление информации происходило с ускорением. Рассмотрим репликацию таких информационно насыщенных молекул, как ДНК и РНК. Репликация ДНК и РНК является процессом воспроизведения не материи, а заключенной в ней информации. Живые организмы представляют собой хорошо организованные структуры, которые обрабатывают и производят информацию. Тем не менее мы сосредоточим свое внимание не на способности генерировать информацию, заключенную в наших клетках, а на той способности, которая возникла с появлением людей и общества. Люди – это особые животные в плане информации, поскольку в отличие от других видов мы развили способность кодировать большие объемы информации вне нашего тела. Наивно полагать, что речь идет об информации, закодированной в книгах, нотах, аудио- и видеозаписях. Еще до освоения письма мы воплощали информацию в артефактах или предметах, начиная со стрел и каменных топоров и заканчивая микроволновыми печами и Интернетом. Таким образом, наша способность производить стулья, компьютеры, скатерти и бокалы является простым ответом на вечный вопрос: в чем разница между нами, людьми, и всеми другими видами? Ответ заключается в том, что мы умеем создавать физические инстанциации объектов, которые мы представляем в своем воображении, в то время как другие виды ограничены тем, что создает природа.[11]
На следующих страницах я опишу физические, социальные и экономические механизмы, которые объясняют рост объема информации в нашем мире и в нашей Вселенной. Эти механизмы отвечают за создание физического порядка, который сделал рождение Айрис как материальным, так и волшебным. С одной стороны, мы изучим физику информации. В результате мы поймем сущность информации и физические механизмы, способствующие ее появлению. Тем не менее физика информации способна объяснить лишь простейшие формы физического порядка. Чтобы объяснить порядок, пронизывающий наше современное общество, потребуется выйти за рамки физики и исследовать социальные и экономические процессы, которые позволяют группам людей производить информацию. К этим процессам относится образование социальных и профессиональных сетей, в которых заключена способность социальной обработки информации. Эта способность включает в себя накопление знаний и ноу-хау.
Знания и ноу-хау являются двумя основными способностями, которые относятся к вычислению и имеют решающее значение для накопления информации в экономике и обществе. Тем не менее знания и ноу-хау – это не одно и то же. Проще говоря, знание включает в себя отношения или связи между объектами. Эти отношения часто используются для того, чтобы спрогнозировать последствия действия, не совершая его.[12] Например, мы знаем, что употребление табака увеличивает вероятность развития рака легких, и мы можем использовать эту связь, чтобы предсказать последствия курения, не употребляя табак.
Ноу-хау отличается от знания тем, что оно включает в себя не выражаемую словами способность выполнять некоторые действия.[13] Например, большинство из нас знает, как ходить, хотя мы не знаем, как нам это удается. Большинство из нас знает, как определять и называть изображенные объекты, хотя нам неизвестно, каким образом мы выполняем эти задачи восприятия и вербализации. Большинство из нас умеет распознавать объекты с разных углов, узнавать лица, переваривать пищу и улавливать эмоции, хотя мы и не можем объяснить, как мы это делаем. Однако нам удается совершать эти действия благодаря тому, что у нас есть ноу-хау. Ноу-хау – это не выражаемая словами вычислительная способность совершать действия, которая накапливается как на уровне индивида, так и на уровне коллектива.
Невыражаемая словами природа ноу-хау кажется странной, поскольку из-за нее мы можем чувствовать себя автоматами, не осознающими своих действий. Тем не менее в этом нет ничего странного. Марвин Мински, один из отцов искусственного интеллекта, однажды сказал: «Ни один созданный компьютер не осознает того, что он делает, однако большую часть времени мы тоже этого не осознаем».[14]
Другое отличие, о котором мне следует упомянуть, заключается в разнице между информацией, являющейся чем-то, и информацией о чем-то, например информацией, передаваемой в сообщении. Возьмем в качестве примера машину. Я могу сказать вам, что у меня красная машина с шестиступенчатой механической коробкой передач и 1,6-литровым двигателем. Все это является информацией о моей машине, однако это не та информация, которая заключена в моем автомобиле. Как мы узнаем в следующих главах, моя машина состоит из информации, которая является не информацией о чем-то, а представляет собой физический порядок.
По большей части я буду использовать слово «информация», подразумевая физический порядок, воплощенный в объектах. Я подробно рассмотрю это определение в следующей главе. Я использую это определение, потому что оно помогает мне сформулировать более простую теорию роста объема информации, в которой физический порядок, независимо от того, являлась ли целью его создания необходимость в передаче значения, развивается вместе со способностью Вселенной производить вычисления. В социальном и экономическом контексте эта вычислительная способность включает в себя как знания, так и ноу-хау.
Таким образом, для объяснения роста объема информации в природе и обществе мы изучим совместную эволюцию физического порядка, знания и ноу-хау, которые позволяют нашей Вселенной порождать этот физический порядок. При этом мы перейдем от простейших физических систем, в которых информация возникает спонтанно, до сложного устройства нашего общества, где для дальнейшего накопления информации появляется необходимость в знании и ноу-хау.
Случай с обществом и экономикой является наиболее сложным, поскольку здесь накопление знаний и ноу-хау становится весьма ограниченным. Как и информация, заключенная в объектах, знания и ноу-хау всегда должны быть физически воплощены. Тем не менее, в отличие от информации, носителями знания и ноу-хау являются люди и сообщества людей, чей потенциал воплощения знания и ноу-хау является ограниченным. Конечность человека и формируемых им сообществ ограничивает нашу способность накапливать и передавать знания и ноу-хау, что приводит к скоплениям знаний и ноу-хау в определенных местах, обусловливающих глобальное неравенство. Таким образом, необходимость того, чтобы знания и ноу-хау были воплощены в людях и сообществах людей, может помочь объяснить неравномерность развития стран мира. Этим идеям посвящены части III и IV книги, и для их подтверждения я буду использовать данные о продуктах, создаваемых группами людей в разных местах, поскольку продукты, которые состоят из информации, являются выражением знания и ноу-хау, доступных в конкретном месте.
Таким образом, центральными понятиями, которые я буду использовать для описания процесса роста объема информации на нашей планете, являются физические объекты как физические воплощения информации и люди как основные носители знаний и ноу-хау. С этой фундаментальной точки зрения мы опишем экономику как систему, с помощью которой люди накапливают знания и ноу-хау для создания пакетов физического порядка или продуктов, подчеркивающих нашу способность накапливать еще больше знаний и ноу-хау, что в свою очередь способствует дальнейшему накоплению информации. В основном мы сосредоточимся на росте объема информации, знаний и ноу-хау в экономике, создав сначала теорию о продуктах в терминах физического порядка, а затем опишем социальные и экономические механизмы, которые позволяют нашему обществу накапливать знания и ноу-хау, необходимые для производства продуктов.
Однако сначала необходимо удостовериться в том, что мы одинаково понимаем физическую основу информации и ее неочевидные истоки. Я начну с объяснения того, что представляет собой информация с точки зрения математики и физики. Как мы увидим позднее, это поможет нам понять, почему Больцман и Шеннон пришли к одной и той же формуле. Кроме того, это познакомит нас с основополагающими физическими принципами, которые позволяют информации накапливаться.
Глава 2
Тело бессмысленного
Предположим, что нас попросили распределить по категориям следующие понятия: расстояние, масса, электрическая сила, энтропия, красота, мелодия. Я думаю, что существуют достаточные основания для того, чтобы поместить энтропию рядом с красотой и мелодией, а не с первыми тремя понятиями. Энтропия проявляется только там, где части рассматриваются в связи, и именно просмотр или прослушивание частей в их связи с другими частями позволяет различить красоту и мелодию.
Чтобы что-нибудь изобрести, необходимо хорошее воображение и куча мусора.
Несколько месяцев назад мне на глаза попалась статья, помещенная на главной странице посвященного бизнесу раздела чилийской газеты. В этой статье говорилось о чилийце, купившем самый дорогой в мире автомобиль. Стоимость машины марки Bugatti Veyron составила более двух с половиной миллионов долларов США, и ее покупка стала одним из самых ярких примеров показного потребления, когда-либо виденных мной.
Поискав в Интернете, я оценил стоимость килограмма веса этого автомобиля, которая составила примерно одну тысячу триста долларов США (или около шестисот долларов США за фунт веса).[15] Для сравнения возьмем стоимость килограмма золота и серебра. В некоторые дни стоимость килограмма чистого серебра составляет около одной тысячи долларов США, а килограмма золота – около пятидесяти тысяч долларов США.[16] Стоимость килограмма веса обычного автомобиля колеблется от десяти (Hyundai Accent) до шестидесяти долларов США (BMW M6). Таким образом, хотя стоимость Bugatti Veyron не превышает стоимости ее весового эквивалента в золоте, она превышает стоимость ее весового эквивалента в серебре, тогда как стоимость автомобиля Hyundai Accent соответствует стоимости его весового эквивалента в бронзе.
Вы, конечно, можете сказать, что сравнивать килограмм веса автомобиля Bugatti и килограмм серебра бессмысленно, поскольку вы мало что можете сделать с килограммом Bugatti. Тем не менее эта бессмыслица может много рассказать нам о том, как физический порядок, или информация, может быть упакована в продукте.
Представьте на секунду, что вы только что выиграли автомобиль Bugatti Veyron в лотерею. В порыве радости вы решили прокатиться на своей новой машине. Из-за своего волнения вы врезаетесь в стену. Вы не получили повреждений, но расстроились, поскольку не успели застраховать свой автомобиль, который уже не подлежит восстановлению. Сколько стоит килограмм Bugatti теперь?
Ответ на этот вопрос совершенно очевиден. Долларовая стоимость автомобиля испарилась за секунды, которые потребовались на то, чтобы разбить его об стену, в то время как его вес остался прежним. Так куда же делась ценность? Долларовая стоимость автомобиля испарилась во время аварии не потому, что в ее результате были уничтожены атомы, из которых состоял автомобиль Bugatti, а из-за того, что авария изменила порядок их расположения. Когда части, из которых состояла машина, были разъединены и деформированы, информация, которая была воплощена в Bugatti, оказалась в значительной степени уничтожена. Другими словами, два с половиной миллиона долларов США стоили не атомы автомобиля, а то, как эти атомы были организованы.[17] Эта организация и представляет собой информацию.[18]
Таким образом, стоимость автомобиля Bugatti определяется физическим порядком, которым и является информация, несмотря на продолжающиеся споры о том, что она собой представляет.[19] Клод Шеннон, отец теории информации, говорил, что информация – это мера минимального объема данных, необходимого для передачи сообщения. То есть это количество битов, требуемое для передачи данных об организации, например о порядке атомов, составляющих автомобиль Bugatti.
Тем не менее для лучшего понимания определения «информация», сформулированного Шенноном, лучше начать с чего-нибудь более простого, чем автомобиль Bugatti. Я буду использовать в качестве примера твит. Твит – это сообщение, состоящее из 140 символов, которое используется на сервисе Twitter. Твит, как и Bugatti, представляет собой небольшой пакет информации, но, в отличие от Bugatti, он создается в качестве акта коммуникации. Тем не менее с точки зрения теории Шеннона это не имеет значения. Согласно Шеннону, информация – это минимальный объем данных для передачи любого сообщения. Будь то твит, состоящий из случайных символов, или самое остроумное сообщение, которое вы когда-либо видели, все это не имеет значения с точки зрения теории информации Шеннона.
Итак, сколько же информации содержится в твите? Чтобы представить содержимое твита в количественном выражении, рассмотрим гипотетическую игру для двух пользователей сервиса Twitter, Эбби и Брайана. В этой игре Эбби и Брайан должны угадать твиты друг друга, используя только вопросы типа «да/ нет». Для игры в эту игру у них есть книга, которая содержит все возможные твиты, которые могут быть написаны. Игра начинается тогда, когда Эбби случайным образом выбирает твит из своей книги. После этого она просит Брайана угадать ее твит, используя только вопросы типа «да/нет». Шеннон учит нас тому, что объем информации, заключенной в твите, равен минимальному количеству вопросов типа «да/нет», необходимых Брайану для того, чтобы угадать твит Эбби со стопроцентной точностью.[20] Однако каково количество этих вопросов?
Для простоты будем считать, что Эбби и Брайан используют «алфавит» из тридцати двух символов: строчных латинских букв и таких дополнительных символов, как пробел (), косая черта (/), запятая (,), точка (.), а также «собака» (@) и решетка (#). Кроме того, будем считать, что у Эбби и Брайана есть таблицы, в которых каждый символ соответствует числу (a = 1, b = 2, […], @ = 31, # = 32).
Лучшим способом угадывания твита Эбби является использование Брайаном каждого вопроса для разделения пространства поиска возможных твитов пополам. Брайан может сделать это, отгадывая сообщение Эбби символ за символом. Если Брайан решит использовать данную стратегию, то его первым вопросом типа «да/нет» будет: «Число, соответствующее первому символу, больше 16?» Если Эбби ответит отрицательно, то Брайан будет знать, что первый символ в твите Эбби расположен между буквами a и p. Имея это в виду, Брайан должен будет задать второй вопрос, который разделяет пополам оставшийся набор символов: «Число, соответствующее первому символу, больше 8?» Если Эбби ответит утвердительно, то Брайан будет знать, что первый символ сообщения Эбби расположен между числами 9 и 16 (то есть между буквами i и p). Теперь вы уже можете догадаться, что следующим вопросом Брайана будет: «Число, соответствующее первому символу, больше 12?»
Каждый заданный вопрос позволяет Брайану сократить количество возможных символов в два раза. Поскольку существует тридцать два возможных символа, Брайану потребуется задать только пять вопросов, чтобы угадать каждый символ (вам нужно разделить 32 на 2 пять раз, чтобы получить только один вариант). Наконец, поскольку твит состоит из 140 символов, Брайану потребуется 140 × 5 = 700 вопросов типа «да/нет», или битов, чтобы угадать сообщение Эбби.[21]
Теория Шеннона говорит, что нам требуется 700 бит, или вопросов типа «да/нет», для передачи твита, написанного с использованием алфавита, включающего тридцать два символа. Кроме того, теория Шеннона является основой современных систем связи. Путем количественного определения числа битов, необходимых для кодирования сообщений, он помог разработать технологии цифровой связи. Тем не менее во время разработки своей формулы Шеннон не знал о том, что его формула была идентична той, которую вывел Больцман почти за полвека до него. Прислушавшись к предложению известного венгерского математика Джона фон Неймана, Шеннон решил назвать свою меру «энтропией», поскольку формула Шеннона была эквивалентна формуле энтропии, используемой в статистической физике. (Кроме того, согласно легенде, фон Нейман сказал Шеннону, что если тот назовет свою меру энтропией, то это гарантирует его победу в любом споре, поскольку никто точно не знает, что такое энтропия.)
Однако интерпретацию понятий «энтропия» и «информация», которые появились в результате работы Шеннона, было трудно примирить с традиционным толкованием слов «информация» и «энтропия», возникшим в работе Больцмана. Конфликт между определением слова «информация», используемым Шенноном, и его разговорным значением, которое широко распространено и сегодня, легко понять, используя в качестве примера компьютеры. Подумайте о своем персональном компьютере. Будь то настольный компьютер, ноутбук или смартфон, вы используете его для хранения фотографий, документов и программного обеспечения. Вы считаете эти фотографии и документы «информацией» и, конечно, хорошо понимаете то, что эта информация хранится на жестком диске вашего устройства. Тем не менее, согласно Шеннону, если бы мы случайным образом перемешали все биты на жестком диске, удалив таким образом все ваши фотографии и документы, мы бы увеличили количество информации на жестком диске. Как это может быть? Дело в том, что определение термина «информация», предложенное Шенноном, учитывает только количество битов, необходимое для передачи сообщения о состоянии системы (в данном случае речь идет о последовательности битов, которые хранятся на вашем жестком диске). Поскольку нам требуется больше битов для создания сообщения о состоянии жесткого диска, полного случайных данных, чем о состоянии жесткого диска с фотографиями и документами, содержащими корреляции, позволяющие сжимать последовательности, определение Шеннона подразумевает то, что после перемешивания битов в случайном порядке на вашем жестком диске станет больше информации. Технически Шеннон прав, говоря о том, что нам необходимо большее количество битов для передачи сообщения о содержимом жесткого диска, наполненного случайными данными, чем о содержимом жесткого диска с фотографиями и документами. Однако теорию информации Шеннона, которая, по сути, представляет собой теорию коммуникативного инжиниринга, следует расширить, чтобы примирить ее с разговорным смыслом слова «информация» и работой Больцмана. В дополнение к работе Шеннона мне сначала нужно будет объяснить определение энтропии, которое возникло из работы Больцмана, а затем вывести определение, которое мы могли бы использовать для описания информационно насыщенных состояний, ассоциирующихся с компьютером, наполненным фотографиями и документами.
Чтобы понять разницу между определениями энтропии, используемыми Больцманом и Шенноном, рассмотрим наполовину заполненный стадион.[22] Одной важной характеристикой такого стадиона является то, что существует множество способов наполнить его наполовину, и путем исследования этих способов мы можем объяснить понятие энтропии.
Сначала мы рассмотрим случай, в котором люди могут беспрепятственно передвигаться по стадиону. При этом один из способов наполовину наполнить стадион сводится к тому, чтобы рассадить людей как можно ближе к полю, оставив все верхние ряды свободными. Другой способ предполагает размещение людей на дальних рядах (при этом нижние ряды останутся незанятыми). Тем не менее люди также могут заполнить полстадиона, заняв места случайным образом.
Теперь чтобы использовать пример со стадионом для объяснения понятия энтропии, мне нужно ввести еще две идеи. Во-первых, я буду называть каждую комбинацию из сидящих на стадионе людей состоянием системы (или, выражаясь технически, микросостоянием). Во-вторых, я буду исходить из того, что мы можем определить эквивалентные конфигурации, используя некоторый критерий, который для целей данной иллюстрации может быть просто средним заполненным рядом.
В данном примере принятое в статистической физике определение энтропии соответствует просто доле всех эквивалентных состояний (на самом деле это логарифм доли, однако эта формальность не имеет отношения к тому, что я пытаюсь сказать). Таким образом, энтропия является наименьшей, когда люди сидят максимально близко или максимально далеко от поля, поскольку существует только один способ такого размещения людей.[23] Энтропия является наибольшей, когда средним из занятых рядов является центральный, поскольку существует много способов размещения людей на местах, при которых средним занятым рядом будет центральный. В предложенном Больцманом определении энтропия представляет собой множество эквивалентных состояний. В случае со стадионом наибольшее число эквивалентных состояний существует тогда, когда средним из заполненных рядов является центральный.
Следует отметить, что энтропия, которая обычно ассоциируется с беспорядком, не является мерой беспорядка. Энтропия – это мера множества состояний (количества эквивалентных состояний). Тем не менее неупорядоченных состояний, как правило, бывает больше, поэтому на практике состояния высокой энтропии, скорее всего, будут неупорядоченными. Именно поэтому приравнивание беспорядка к энтропии не является таким уж неудачным упрощением. Однако увеличение энтропии может не сопровождаться увеличением беспорядка. Рассмотрим случай с расширением газа в коробке, которая удваивается в размере (или распространение людей по стадиону, увеличивающемуся в два раза). Энтропия газа увеличивается с размером коробки, поскольку в коробке большего размера существует больше вариантов организации частиц газа. Тем не менее газ в большей коробке не является более неупорядоченным, чем газ в меньшей коробке.
Шеннон был заинтересован в передаче микросостояния системы, например отдельного твита или расположения сидящих на нашем гипотетическом стадионе людей, поэтому он приравнял понятие информации к понятию энтропии, часто используя эти слова как синонимы. Передача сообщения об одном микросостоянии, в котором средним из занятых рядов является центральный, требует больше бит, так как при этом условии существует множество эквивалентных микросостояний, поэтому для передачи данных о некотором микросостоянии требуется создать очень конкретное сообщение. Таким образом, на языке Шеннона понятия информации и энтропии функционально эквивалентны, поскольку количество битов, необходимых для создания сообщения (информация по Шеннону), представляет собой функцию от числа возможных сообщений, которые могут быть переданы (множество состояний, которое мы понимаем как энтропию). Но, это не делает энтропию и информацию одним и тем же. Лауреат Нобелевской премии по химии 1967 года Манфред Эйген заметил: «Энтропия относится к среднему (физическому) состоянию, а информация – к конкретному (физическому) состоянию».[24]
Однако тот факт, что нам требуется больше битов для передачи сообщения о состоянии, в котором каждый человек случайно выбрал место на стадионе или в котором биты на жестком диске были случайным образом перемешаны, не означает, что эти состояния заключают в себе больше порядка или информации. Информация подразумевает увеличение количества битов, но это еще не все. В примере со стадионом множество состояний, при которых люди выбрали места случайно, характеризуется наивысшим значением энтропии, но при этом самым низким значением упорядоченности (хотя некоторые из этих состояний могут быть весьма упорядоченными). В самом деле, в области естественных наук и среди широкой общественности давно существует традиция приравнивания понятия информации к чему-то большему, чем биты, к тому, что подразумевает порядок. Подумайте о генетиках, разговаривающих об информации, содержащейся в ДНК, или об информации, содержащейся в музыкальных партитурах, на катушке пленки или в книге. В данных примерах слово «информация» говорит о присутствии порядка, а не только о количестве битов, необходимых для передачи сообщения о генетической последовательности, книги или нот.
Однако упорядоченные состояния являются редкими и своеобразными. Сначала я объясню, что я имею в виду под словом «редкий» в данном контексте. Далее я объясню своеобразие информационно насыщенных состояний, которое подразумевает корреляции, придающие слову «информация» его широко распространенный разговорный смысл.
Чтобы объяснить редкость упорядоченных состояний, я расширю пример со стадионом до того, что описывал Больцман в контексте атомов. Предположим, что стадион наполовину полон, но люди не могут свободно передвигаться. Теперь разрешены только те состояния, в которых средним из занимаемых рядов является центральный. В случае с физической системой это равносильно фиксированию энергии системы. Тем не менее, поскольку существует много различных состояний, в которых средним из занятых рядов является центральный, система по-прежнему предоставляет на выбор множество вариантов. Большинство этих состояний являются достаточно случайными. Другие, однако, весьма своеобразны. Люди на стадионе могут действовать подобно пикселам на экране, поэтому в некоторых из этих состояний комбинации сидящих людей могут образовывать такие слова, как «информация», или изображения лица. Однако насколько часто встречаются такие своеобразные состояния?
Для определения часто встречающихся состояний нам нужно наметить множество всех возможных состояний. Один из способов заключается в том, чтобы посмотреть, как эти состояния связаны. Мы можем сказать, что два состояния связны между собой, если я могу перейти от одного к другому с помощью простого преобразования. Для простоты давайте рассмотрим все преобразования, при которых каждый зритель может пересесть на соседнее место, при условии, что новое состояние удовлетворяет ограничению, касающемуся среднего ряда. К числу этих преобразований относятся те, при которых каждый зритель пересаживается на одно место справа, а также преобразования, при которых человек на нижней половине стадиона пересаживается на одно место вверх, а человек на верхней половине стадиона пересаживается на одно место вниз.
В принципе мы можем использовать эти преобразования, чтобы прийти к любому состоянию. Однако на практике достижение какого-либо состояния не является таким уж простым делом. Если мы позволим людям на стадионе пересаживаться на соседние места, выбранные случайным образом (разумеется, допуская только те преобразования, которые удовлетворяют ограничению, касающемуся среднего ряда), мы никогда не получим комбинации, которые образуют слова или изображения. Эти состояния очень редки и труднодостижимы. Данное упражнение позволяет проиллюстрировать определение информации, подразумевающее наличие порядка. В физической системе информация представляет собой понятие, обратное энтропии, поскольку оно предполагает редкие и сильно коррелирующие конфигурации, которые трудно получить.
Необычные конфигурации атомов, как в автомобиле Bugatti или гитаре, несут больше информации, чем более распространенные конфигурации тех же атомов, хотя технически (и Шеннон в этом прав) передача сообщения об упорядоченной конфигурации и передача сообщения о неупорядоченной конфигурации требует одинакового количества битов, если мы проигнорируем корреляции, превалирующие в упорядоченном состоянии (которые мы можем использовать для сжатия последовательности, что позволит сократить количество битов, требующихся для передачи сообщения об упорядоченном состоянии). Тем не менее, несмотря на разницу в интерпретации, которая мешает примирить идеи Шеннона и Больцмана, мы по-прежнему можем сделать вывод о том, что из информации состоят не только сообщения, но и большинство вещей.
Итак, давайте вернемся к автомобилю Bugatti. Случай с Bugatti не так прост, как случай с твитом, поскольку он подразумевает позиционирование огромного числа атомов, а не просто 140 символов. Кроме того, как я только что сказал, в случае с Bugatti мы ищем не любую возможную конфигурацию атомов, а конфигурацию, соответствующую чему-то вроде автомобиля Bugatti (как и в примере с редкой комбинацией занятых на стадионе мест). Например, перестановка шин Bugatti приводит к изменению расположения атомов, но ни одно из основных интересующих нас свойств при этом не изменяется, поэтому мы будем рассматривать все автомобили Bugatti с перестановленными шинами одинаковыми. Тем не менее группа автомобилей, находящихся в идеальном состоянии, относительно мала, а это означает, что в совокупности всех возможных комбинаций атомов (как и перемещающихся по стадиону людей) лишь некоторые представляют собой Bugatti в идеальном состоянии. С другой стороны, группа разбитых Bugatti включает гораздо большее количество состояний (более высокое значение энтропии) и, следовательно, несет меньше информации (хотя для передачи сообщения о каждом из этих состояний требуется большее количество битов). Однако, к самой большой группе, которая включает случайные комбинации сидящих на стадионе зрителей, относятся автомобили Bugatti в их «естественном» состоянии. Это состояние, в котором железо представляет собой руду, а алюминий входит в состав боксита. Таким образом, разрушение автомобиля Bugatti приводит к уничтожению информации. С другой стороны, создание Bugatti – это процесс воплощения информации.
Пример со стадионом позволяет нам понять, что конфигурации материи, воплощающие информацию, например автомобиль Bugatti, являются редкими и труднодостижимыми. Пример со стадионом также подчеркивает динамическое происхождение порядка, поскольку для любой формы порядка атомы должны располагаться в определенном месте. Проблема состоит в том, что системы не могут свободно переходить из одного состояния в любое другое. Как показывает пример со стадионом, существующее состояние системы ограничивает число возможных вариантов ее преобразования, а для перехода системы от беспорядочного состояния к упорядоченному необходимо совершить множество последовательных шагов. К сожалению, количество путей, ведущих систему от беспорядка к порядку, гораздо меньше, чем количество путей, ведущих от порядка к беспорядку. В системе, эволюция которой является случайной (как в системе статистической физики), совершить серию последовательных шагов нелегко.
Подумайте о кубике Рубика, который прекрасно иллюстрирует связь между доступными путями и энтропией, поскольку вам никогда не удастся собрать кубик Рубика случайным образом (хотя вы и можете совершить такую отчаянную попытку). Кубик Рубика предусматривает более 43 квинтиллионов возможных состояний (то есть 43 252 003 274 489 856 000, или 4,3 × 1019), только одно из которых является идеально упорядоченным. Кроме того, кубик Рубика представляет собой систему, в которой до достижения порядка не так уж далеко, поскольку эту головоломку всегда можно решить за двадцать или менее ходов.[25] Кажется, что это сравнительно небольшое число, однако найти нужную последовательность шагов непросто. Большинство людей собирают кубик Рубика гораздо более извилистыми путями. Основной метод решения данной головоломки (выстраивание верхнего креста, позиционирование углов, завершение среднего ряда и т. д.), как правило, подразумевает более пятидесяти ходов (и до недавнего времени люди считали, что для решения головоломки требуется более двадцати ходов).[26] Это говорит о том, что в случае с кубиком Рубика существует лишь несколько путей, ведущих к совершенному порядку, и эти пути, короткие они или длинные, редки, поскольку они скрываются среди огромного количества путей, которые уводят прочь от упорядоченного состояния. Таким образом, увеличение энтропии можно сравнить с кубиком Рубика, который находится в руках ребенка. В природе информация встречается нечасто не только потому, что информационно насыщенные состояния являются редкостью, но и потому, что они недоступны в свете того, как природа исследует возможные состояния.
Но каковы же свойства информационно насыщенных состояний? И как мы можем использовать знания об их свойствах для их идентификации? Одной из важных характеристик информационно насыщенных состояний является то, что они подразумевают наличие длинномасштабных и короткомасштабных корреляций. В случае с кубиком Рубика эти корреляции очевидны:[27] когда кубик находится в идеально упорядоченном состоянии, каждый квадратик того или иного цвета находится в окружении максимально возможного количества квадратиков того же цвета. Однако бросающиеся в глаза корреляции встречаются не только в таких созданных человеком объектах, как кубик Рубика, но и в природе. Рассмотрим цепь ДНК, содержащую длинную последовательность нуклеотидов (А, С, Т и G). Цепочки ДНК являются очень длинными и, несмотря на все крупные научные достижения, мы до сих пор не знаем, за что отвечает большая часть последовательностей ДНК. Тем не менее мы можем определить информационно насыщенные фрагменты ДНК. Простейший способ выявления информации заключается в сравнении цепи ДНК со случайной последовательностью нуклеотидов (с последовательностью, в которой A, С, Т и G выбираются путем бросания четырехгранной игральной кости). Сравнивая существующую последовательность ДНК со случайной последовательностью, мы можем выявить необычные фрагменты ДНК, подразумевая, что они не должны появиться, учитывая то, что мы могли бы ожидать от случайной последовательности. Эти необычные последовательности включают неожиданные корреляции между соседними нуклеотидами (они «произносят слова»), а также корреляции между нуклеотидами, расположенными далеко друг от друга (они «произносят абзацы и главы» и «ссылаются» на «слова», которые были использованы ранее). В итоге эти корреляции обнаруживают существование информации в ДНК, поскольку они говорят нам, что найденные в ДНК последовательности не являются такими комбинациями, к которым можно было бы прийти, исследуя пространство последовательностей случайным образом. Скорее они являются редкими последовательностями, которые были найдены, сохранены, отточены и расширены в процессе эволюции.[28] Кроме того, пример с ДНК говорит нам о том, что наличие информации не зависит от нашей способности ее декодировать. Порядок в ДНК не является повторным введением значения в определение информации. Мы можем обнаружить существование информации в ДНК, хотя и испытываем затруднения при попытке понять, что многие из этих последовательностей означают и за что отвечают. Таким образом, мы не путаем информацию со смыслом и не ищем информацию, которая находится в глазах смотрящего. Корреляции, характеризующие информацию, которая передается в процессе человеческого общения (например, на английском языке) или с помощью биологических форм связи (например, ДНК) присутствуют вне зависимости от того, можем мы их декодировать или нет. Они являются характеристикой информационно насыщенных состояний, а не того, кто их наблюдает. Это говорит нам о том, что, когда дело доходит до коммуникации, значение «едет верхом» на бессмыслице. Наша способность передавать осмысленные сообщения основывается на существующих бессмысленных формах физического порядка. Эти бессмысленные формы порядка и представляют собой информацию.[29]
Наконец, я свяжу определение энтропии, основанное на множественности состояний, с нашей способностью обрабатывать информацию (то есть производить вычисления). Как мы видели на примере кубика Рубика, информационно насыщенные состояния трудно найти не только потому, что они редки, но и потому, что существует очень мало путей, ведущих к ним. Вот почему мы приравниваем чье-либо умение решать эту головоломку к определенной степени развития интеллекта, поскольку те, кто знает, как собирать кубик Рубика, получают признание за умение находить эти редкие пути (или помнят правила их нахождения). Однако существуют более простые примеры, чем кубик Рубика, которые можно использовать для иллюстрации связи между множеством состояний системы и вычислением. Рассмотрим игру, в которой детям необходимо поместить такие формы, как цилиндр и куб, в соответствующие отверстия. В возрасте четырнадцати месяцев большинство детей довольно хорошо справляются с помещением шаров и цилиндров, однако испытывают трудности с кубами, квадратами, треугольниками и другими формами.[30] Почему? Поместить шар в отверстие легко, поскольку шар выглядит одинаково, независимо от того, как вы его повернете (все состояния эквивалентны). Помещение цилиндра в отверстие также не вызывает сложностей, поскольку цилиндр не изменится, если вы повернете его вокруг своей оси. Однако помещение куба в отверстие представляет собой более сложную задачу, так как его можно повернуть лишь несколькими способами. Случай с треугольником еще хуже, поскольку количество вариантов вращения еще меньше. Треугольник с неравными сторонами (для которого существует только одно правильное положение) является для ребенка эквивалентом кубика Рубика, поскольку лишь некоторые дети в состоянии решить эту задачу. Итак, как видите, в процессе развития способности помещать формы в соответствующие им отверстия дети научаются находить эти редкие состояния с низким значением энтропии. Нахождение редких, но полезных состояний в континууме возможных конфигураций – это хорошая упрощенная модель нашей способности обрабатывать информацию, то есть производить вычисления. Это относится и к детям, пытающимся поместить формы в отверстия, и к подросткам, собирающим кубик Рубика.
Мы начали эту главу с того, что разбили воображаемый автомобиль Bugatti, чтобы проиллюстрировать идею воплощения в продукте физического порядка, или информации. Тем не менее мы не приблизились к объяснению источника этого порядка, причин его накопления и экономической ценности. В следующей главе мы исследуем происхождение физического порядка с фундаментальной точки зрения, оставив для более поздних глав вопросы относительно того, какой порядок люди накапливают в экономике, в чем состоит его польза и как люди способствуют его росту. После описания продуктов с точки зрения информации мы опишем социальные и экономические механизмы, которые ограничивают нашу способность производить порядок, подобный тому, который воплощен в автомобиле Bugatti. Это поможет нам осознать эволюцию экономической неравномерности мира и расширить наше понимание процесса накопления информации до идей социального и экономического развития.
Глава 3
Вечная аномалия
Необратимость времени – это механизм, который создает порядок из хаоса.
У всех нас были случаи, когда мы хотели повернуть время вспять. Иногда благодаря этому нам хочется избежать маленьких ошибок, а иногда – больших. Однако все мы знаем, что размер ошибки не имеет значения. Время течет в одном направлении: от прошлого к настоящему, от молодости к старости, от жизни к смерти.[31]
Необратимость времени, как и гравитация, является физической реальностью настолько очевидной, что кажется, будто она должна иметь очевидное объяснение. Но это не так. По сути, вплоть до ХХ века необратимый ход времени представлял собой загадку, которая вводила в замешательство некоторых из самых блестящих умов человечества. Исаак Ньютон и Альберт Эйнштейн создали работающие теории движения, которые технически предусматривали обратимость времени.[32] Они объясняют движение пушечных ядер, планет и спутников без четкого разграничения между тем, где объект находится и куда он движется. Эта симметрия, являющаяся справедливой для простых систем, не в состоянии объяснить, почему львы едят и переваривают газелей, вместо того чтобы отрыгивать целых и невредимых живых животных, и почему разбитый автомобиль Bugatti не собирается обратно в функционирующее транспортное средство.
В данном случае нас интересует необратимость времени не только потому, что она является увлекательной загадкой природы, но и потому, что она тесно связана с физическими истоками информации. И необратимость времени, и физическое происхождение информации являются характеристиками Вселенной, которые не закодированы в законах движения, регулирующих перемещение отдельных частиц, будь то законы Ньютона или Эйнштейна. Необратимость времени и происхождение информации – это свойства Вселенной, которые зависят от дополнительных физических законов, регулирующих поведение больших скоплений частиц. Это неисследованная теоретическая область, в которой основная идея траектории – пути, по которому движется некоторый предмет, теряет смысл. Удивительно то, что когда траектории становятся бессмысленными, возникает время.
Вместе необратимость времени и повсеместность информации создают еще большую загадку. Как мы увидим далее, необратимость времени связана с движением Вселенной от порядка к беспорядку. Тем не менее, как показывает история, на нашей планете происходит прямо противоположное. Количество информации на нашей планете, по-видимому, неуклонно растет, а не уменьшается.
Повсеместный рост объема информации на нашей планете был фактом, который отчетливо осознали физики XIX века. Хотя, выглянув из окна, они могли видеть ускоряющийся и усложняющийся мир, они понимали открытие Больц мана, согласно которому информация со временем теряется. Звук, производимый гитарой, исчезает по мере того, как звуковые волны проникают в воздух. Волны, создаваемые брошенным в пруд камешком, исчезают, когда пруд возвращается в свое спокойное состояние. Эта потеря информации была объяснена с помощью физических законов, открытых в XIX веке, однако рост объема информации, продолжающийся в некоторых местах Вселенной, остался без объяснения.
Внимание к этому парадоксу, связанному с порядком, возросло в XIX веке, когда Чарльз Лайель и Чарльз Дарвин подчеркнули, что возраст нашей планеты составляет миллиарды лет, а не шесть тысяч лет, как говорилось в Библии. Этот новый впечатляющий факт предполагал, что наблюдаемое всеми аномальное увеличение объема информации продолжается на протяжении миллиардов лет. Однако аномалии существуют недолго: они не должны быть вечными. Поэтому единственный вывод, который можно было сделать из этого очевидного противоречия, состоял в том, что в нашем понимании природы чего-то не хватает. Степень упорядоченности увеличивалась, но никто не знал почему.
Самым главным успехом Больцмана стала работа 1878 года, в которой он показал, что системы, состоящие из большого количества частиц, тяготели к состояниям, характеризующимся минимальным объемом информации. Это то, что известно как второй закон термодинамики, который несколькими десятилетиями ранее был предвосхищен Рудольфом Клаузиусом, хотя его формулировка и была более громоздкой. Второй закон термодинамики гласит, что энтропия закрытых физических систем всегда имеет тенденцию к увеличению, а это означает, что системы развиваются от порядка к беспорядку. Подумайте о капле чернил, попавшей в стакан с чистой водой. Начальное состояние, при котором капля чернил локализована в великолепном водовороте, является информационно насыщенным. Существует лишь несколько способов локализации чернил, но много способов их более или менее равномерного распределения в стакане. Конечное состояние, при котором чернила полностью растворены, является информационно бедным, поскольку у него много эквивалентных состояний. Таким образом, когда вы капаете чернила в стакан воды, вы наблюдаете движение стрелы времени, которое происходит от информационно насыщенного состояния к информационно бедному. По мере течения времени Вселенная переходит от редких конфигураций к распространенным, и теория Больцмана отлично это объяснила.
Тем не менее Вселенная полна примеров, не похожих на каплю чернил, примеров, в которых информация и сложность увеличиваются, как в случае с развитием человеческих младенцев или естественным восстановлением выгоревших лесов. Откуда же берется эта информация? Вселенные, предсказанные Больцманом и Максвеллом и позднее дополненные термодинамикой Гельмгольца, Гиббса и Эйнштейна, должны превращаться в однородный суп, в котором нет никакой информации и свободной энергии (то есть нет энергии для выполнения работы).[33]
В ХХ веке нам удалось примирить свое понимание стрелы времени и физического происхождения информации с физической природой реальности. Новые теории смогли показать, что информация представляла собой не аномалию, а то, появления чего следовало бы ожидать. Эти теории не противоречили динамике Эйнштейна и Ньютона или статистической механике Больцмана, поскольку они показали, что происхождение информации и стрела времени зависели от дополнительных физических принципов и допущений. Ключевым мыслителем в этой области был бельгийский физик российского происхождения Илья Пригожин. В 1977 году Пригожин был награжден Нобелевской премией по химии «за свой вклад в неравновесную термодинамику, особенно в теорию диссипативных структур».[34] Пригожин выдвинул много важных идей, однако нас в данном случае интересует та, согласно которой информация возникает естественным образом в устойчивых состояниях физических систем, которые находятся не в равновесии. Это выражение, в котором кратко описаны физические истоки происхождения информации, звучит ужасно сложно. Тем не менее если мы тщательно рассмотрим последовательность примеров, то поймем, что это не так. Поэтому в следующих абзацах я раскрою значение выражения Пригожина, чтобы его смысл стал очевидным.
Чтобы разобраться в физических истоках происхождения информации, сначала нам нужно понять некоторые вещи. Во-первых, следует разобраться с идеей устойчивого состояния. Во-вторых, нужно понять разницу между динамическим устойчивым состоянием и статическим устойчивым состоянием. Очень простым примером статического устойчивого состояния является брошенный в чашу стеклянный шарик. Все мы знаем, что при этом происходит. Вскоре после броска шарик остановится на дне чаши. Это и есть статическое устойчивое состояние.
Более интересным является случай с коробкой, наполненной газом. Если мы наполним коробку газом и немного подождем, количество газа в правой части коробки станет равно его количеству в левой части коробки. Тем не менее устойчивое состояние наполненной газом коробки не аналогично примеру с шариком на дне чаши. В коробке, наполненной газом, не все молекулы находятся в фиксированном положении. Они постоянно движутся, и устойчивое состояние достигается, когда количество молекул газа, передвигающихся слева направо, равно количеству молекул, передвигающихся справа налево. Коробка с газом (как и случай с каплей чернил, полностью растворенной в стакане воды) представляет собой пример динамического устойчивого состояния.
Теперь давайте рассмотрим устойчивое состояние неравновесной системы. Классическим примером в данном случае является водоворот, который возникает при сливе воды из ванны. Как только вы вынете пробку и вода потечет в трубу, вода над стоком начнет организовываться в водоворот. Этот водоворот представляет собой устойчивое состояние, поскольку он остается стабильным, пока в системе есть вода. Кроме того, это состояние является информационно насыщенным, так как водовороты – это редкие конфигурации молекул воды, которые не возникают спонтанно в стоячей воде.[35] В отличие от стоячей воды, водовороты представляют собой организованные структуры, в которых молекулы воды движутся не случайным образом, а обладают скоростью и траекторией, которая коррелирует с аналогичными параметрами молекул воды, находящихся рядом с ними. Информационно насыщенное состояние водоворота возникает естественным образом – это то, что получается само собой в неравновесной системе. Возвращаясь к нашему начальному утверждению, мы можем сказать, что водоворот является примером информации, которая возникает естественным образом в устойчивом состоянии физической системы, которая находится не в равновесии.
Тем не менее водоворот – это не единственный пример. Существуют многочисленные примеры порядка, который возникает спонтанно в неравновесных системах, например завитки сигаретного дыма, гипнотическое движение пламени костра и даже свечение экрана вашего компьютера, поскольку, будучи включенным, он точно находится не в равновесном состоянии. Вы и ваш мобильный телефон также являются примерами неравновесных физических систем. Вы едите, чтобы оставаться в неравновесном состоянии и подзаряжаете свой мобильный телефон каждый вечер.
Пригожин понял, что, хотя теория Больцмана была верной, она неприменима к тому, что мы наблюдаем на Земле, поскольку наша планета представляет собой неравновесный карман, находящийся внутри системы большего размера, то есть Вселенной, которая стремится к равновесию. На самом деле наша планета никогда не была близка к какой-либо форме равновесия. Энергия солнца и ядерный распад, происходящий в ядре Земли, выводят нашу планету из равновесия, обеспечивая ее энергией, необходимой для возникновения информации. Мы можем представить нашу планету в виде маленького водоворота информации в обширном и бесплодном космосе.
Пригожин осознал, что для понимания информационно насыщенной природы Вселенной ему нужно было разобраться со статистическими свойствами неравновесных систем. Эти статистические свойства отличаются от свойств систем, изучаемых Больцманом, и они включают случаи, в которых информация возникает естественным образом. Одним из прорывов Пригожина был вывод некоторых математических законов и принципов, управляющих поведением неравновесных систем. Его работа показала, что своеобразная манера организации Вселенной подразумевает то, что по другую сторону хаоса скрывается информация. Рассмотрим кипящую в кастрюле воду. Сначала представьте себе, что включаете газ ненадолго. При этом подогреется небольшое количество воды на дне кастрюли. Эти молекулы начнут двигаться немного быстрее, однако если вы быстро выключите газ, то вода в кастрюле сама по себе никогда не организуется в информационно насыщенное состояние. Теперь представьте, что оставляете газ включенным на более длительное время. По мере ускорения движения молекул воды жидкость становится турбулентной. Это движение хаотично. Такое состояние уже содержит информацию, как и в случае с завитками сигаретного дыма. Теперь оставьте газ включенным и подождите, пока кастрюля не достигнет динамического устойчивого состояния конвекции. В данном случае возникнет организованный поток. Таким образом, после хаоса система приходит в высокоорганизованное состояние, полное корреляций и информации. Пригожин показал, что устойчивые состояния, достигаемые материей в неравновесных системах, стремятся к организации. За хаосом следует информация.
Тот факт, что неравновесные системы характеризуются информационно насыщенными устойчивыми состояниями, помогает нам понять, откуда берется информация. В такой неравновесной системе, как Земля, появление информации является ожидаемым. Это уже не считается аномалией. Тем не менее плохая новость заключается в том, что энтропия всегда скрывается на границах информационно насыщенных аномалий, готовая поглотить эти аномалии при первой же возможности. Водоворот в ванне исчезнет, как только мы заткнем сток или как только кончится вода. Это может привести нас к мысли о том, что Вселенная стремится отобрать информационно насыщенные устойчивые состояния, предоставляемые нам неравновесными системами. Тем не менее информация нашла способы сохранить себя. В результате мы живем на планете, где информация является достаточно «прилипчивой», чтобы заново собираться и создаваться. Эта «липкость», которая имеет большое значение для возникновения жизни и экономики, также зависит от дополнительных фундаментальных физических свойств.
Первый механизм, который обеспечивает «липкость» информации, связан с идеей термодинамических потенциалов. Это звучит сложно, но на самом деле это не так. Здесь мы должны понимать, что устойчивые состояния физических систем можно описать как минимумы математических функций, которые известны под названием термодинамических потенциалов. Мы все знакомы с основной идеей потенциалов из школьных уроков физики, мы знаем, что стеклянные шарики в итоге окажутся на дне чаши, потому что это состояние соответствует минимуму потенциальной энергии. Однако дело в том, что не все устойчивые состояния физических систем соответствуют минимуму энергии. Во многих устойчивых состояниях минимизируются или максимизируются другие величины (например, при спокойном состоянии газа в коробке максимума достигает значение энтропии). Тем не менее нам нет необходимости описывать здесь все эти величины, поскольку нас в первую очередь интересуют потенциалы, которые управляют неравновесными системами. Так какой же потенциал минимизируется в такой неравновесной системе, как наша ванна? В 1947 году Пригожин показал, что в устойчивом состоянии неравновесных систем минимизируется производство энтропии.[36] Это означает, что неравновесные системы самоорганизуются в устойчивые состояния, в которых порядок возникает спонтанно, минимизируя степень уничтожения информации.
Пригожин вывел свой принцип, рассматривая систему, состояние которой было близко к равновесию. Эта система характеризовалась одним устойчивым и несколькими переходными состояниями. Это достаточно специфический случай, поэтому его принцип нельзя было сразу применить к системам, которые были далеки от равновесия, то есть к системам, которые могли «выбирать» между несколькими устойчивыми состояниями. На самом деле, несмотря на то что это по-прежнему вызывает споры, некоторые люди предполагали, что далекие от равновесия системы выбирают устойчивое состояние, в котором максимизируется производство энтропии.[37] Тем не менее этот принцип максимального производства энтропии не противоречит принципу Пригожина о минимальном производстве энтропии, поскольку устойчивое состояние максимального производства энтропии все равно производит меньше энтропии, чем переходные состояния. И все же, мы должны быть осторожны, чтобы не увлечься, поскольку нашей целью является не вдаваться в тонкости неравновесной статистической физики, а объяснить происхождение информации. Таким образом, я оставлю вопрос о потенциале, который управляет далекими от состояния равновесия системами, открытым и заключу, что этот потенциал, будь то минимизация производства энтропии, максимизация производства энтропии или степень необратимости статистического процесса, тем не менее, характеризуется самоорганизующимися состояниями, которые богаты корреляциями, менее диссипативны по сравнению с переходными состояниями и производят физический порядок, являющийся необходимым условием для жизни. Пригожин и Грегуар Николис в блестящей работе 1971 года, посвященной обсуждению связи между неравновесными системами и жизнью, отметили: «Вообще говоря, разрушение структур – это ситуация, которая преобладает вблизи положения термодинамического равновесия. Напротив… возникновение структур может иметь место со специфическими линейными кинетическими законами за пределами области стабильности состояний, характеризуемых обычным термодинамическим поведением».[38]
Системы статистической физики генерируют информацию и сохраняют ее, когда они находятся не в равновесии, однако их текучесть усложняет понимание того, как эти системы могут подолгу удерживать информацию. Водовороты внезапно исчезают, а сигаретный дым утрачивает свою богемную красоту, превращаясь в бесформенные облака. Статистические свойства неравновесных систем помогут нам понять нечеловеческое происхождение информации, но не ее долговечность. Однако, именно долговечность информации обусловливает возможность ее повторного комбинирования и возникновения жизни и экономики. Таким образом, долговечность информации так же важна, как и ее происхождение, поскольку без нее невозможно перекомбинирование, необходимое для порождения еще большего объема информации. Тем не менее долговечность информации не гарантируется законами, объясняющими ее происхождение. Здесь должно быть что-то еще.
Как Эрвин Шредингер, лауреат Нобелевской премии в области физики 1933 года, отметил в своей книге 1944 года «Что такое жизнь?», мы не можем понять долговечность физически воплощенной информации, рассматривая только жидкие системы, которые мы использовали в наших примерах. Сигаретный дым, водовороты, капли чернил и газы являются жидкими системами, и большая часть их эфемерности обусловлена текучестью. Таким образом, вторая причина «липкости» информации и ее способности к перекомбинированию связана с тем, что она воплощена в твердых телах. Давайте снова рассмотрим водоворот в ванне, только теперь предположим, что у вас есть волшебная палочка, которая позволяет заморозить или кристаллизовать этот водоворот одним движением руки.[39] Возьмите воображаемые щипцы для льда и извлеките водоворот из его ледяного заточения. То, что окажется у вас в руках, является небольшим квантом информации. Пока вы не разморозите водоворот, информация, которая присутствовала в соответствующем информационно насыщенном устойчивом состоянии, будет сохраняться.[40] Переведя водоворот в твердую форму, мы закрепили информацию, сгенерированную в жидком мире, и получили кристалл информации, который мы можем использовать для понимания сложности нашего мира.
Насколько мне известно, заморозить водоворот физически невозможно, однако эта мысленная картина позволяет нам понять важность твердых тел для постоянства и эволюции информации. В книге «Что такое жизнь?» Шредингер подчеркнул, что твердые тела имеют решающее значение для объяснения информационно насыщенной природы жизни. Шредингер, как и каждый современный ему биолог, понимал, что информация, необходимая для построения биологического организма, была скрыта где-то внутри клетки, либо в белках, либо в ДНК.[41] С физической точки зрения и белки, и ДНК технически представляют собой кристаллы. Точнее они являются апериодическими кристаллами (структуры, которые не повторяют друг друга, но содержат крупномасштабные корреляции). Представьте партитуру, в которой снова и снова повторяются одни и те же четыреноты. Содержащийся в ней объем информации будет минимальным по сравнению с партитурой, в которой превалируют вариации. Шредингер понял, что апериодичность была необходима для хранения информации, поскольку обычный кристалл не мог содержать большой объем информации: «Ген точно не является однородной каплей жидкости. Скорее всего, это большая белковая молекула, в которой каждый атом, каждый радикал, каждое гетероциклическое кольцо играет особую роль, более или менее отличную от той, которую играет какой-либо из других аналогичных атомов, радикалов или колец». Согласно Шредингеру, феномен жизни зависит как от апериодичности биологических молекул, так и от твердой кристаллической природы. Апериодичность необходима для того, чтобы молекула воплощала информацию, а твердая природа молекулы позволяет этой информации сохраняться.
Таким образом, объединив идеи Пригожина и Шредингера, мы можем понять, откуда берется информация (устойчивое состояние неравновесных систем) и почему она сохраняется (потому что хранится в твердых телах). Поэтическая причуда такой комбинации заключается в том, что согласно ей наша Вселенная является одновременно замороженной и динамичной. С точки зрения физики твердое тело является «замороженным», поскольку его структура устойчива к тепловым флуктуациям окружающей среды.[42] Наши города состоят из таких твердых тел, как автомобили, здания, автобусные остановки, метро и тротуары. Наши дома созданы из таких твердых тел, как кухонные раковины, холодильники, посуда, лампочки и стиральные машины. Наши клетки также состоят из твердых тел, которыми являются десятки тысяч белков, участвующие в клеточном шоу. Тем не менее автомобили и белки представляют собой подвижные твердые тела. Города и клетки являются динамическими системами, в которых твердые тела перемещаются относительно друг друга. Твердость этих объектов позволяет накапливать информацию с низкими издержками, поскольку твердое тело охраняет воплощенную в нем информацию от кровавых когтей энтропии, хотя бы на короткое по масштабам космоса время.
Тем не менее рост объемов информации подразумевает нечто большее, чем кристаллические твердые тела и динамические водовороты. Для того чтобы информация по-настоящему накапливалась, Вселенной требуется еще один трюк. Это способность материи к обработке информации, то есть способность материи производить вычисления.
Рассмотрим дерево. Дерево в своем «полузамороженном» состоянии представляет собой компьютер, питаемый солнечным светом. Дерево в Новой Англии реагирует на продолжительность светового дня и выполняет различные программы в зависимости от времени года. Оно определяет, когда следует сбрасывать листья, а когда выращивать новые. Дерево обрабатывает информацию, поступающую из окружающей среды. Белки, организованные в сигнальные пути, помогают дереву определить, как ему следует растить корни, чтобы добраться до воды, в которой оно нуждается, как активировать иммунный ответ, когда ему угрожают патогены, и как направить листья к солнцу, света которого оно жаждет. Дерево не обладает сознанием или языком, который есть у нас, однако оно, как и мы, способно обрабатывать информацию. У дерева есть ноу-хау, хотя его способ обработки информации отличается от нашего интеллекта и больше напоминает такие бессознательные процессы, происходящие в наших телах, как пищеварение, иммунитет, гормональная регуляция и так далее.
Хотя технически дерево представляет собой компьютер, его источником питания является не электрическая розетка, а солнце. Дерево – это компьютер, который, как и мы, не может использовать язык программирования MATLAB, но, в отличие от компьютеров и нас, имеет ноу-хау, позволяющее производить фотосинтез. Деревья могут обрабатывать информацию благодаря тому, что они представляют собой устойчивые состояния неравновесных систем. Деревья обладают ноу-хау, которые используются ими для выживания.
Однако поскольку дерево является живым, я не могу, используя его в качестве примера, утверждать, что вычисление предшествует жизни (хотя это представляет собой убедительный пример вычисления, которое предшествовало появлению людей). Чтобы проиллюстрировать пребиотическую природу способности материи обрабатывать информацию, нам следует рассмотреть более фундаментальную систему. Именно здесь пригодятся химические системы, которые завораживали Пригожина.
Рассмотрим набор химических реакций, которые превращают вещества[43] в набор выходов[44] через промежуточные соединения.[45] Теперь представим, что в эту систему постоянно поступают вещества.[46] Если поток веществ[47] небольшой, то система придет в устойчивое состояние, в котором промежуточные вещества[48] будут производиться и потребляться таким образом, что их количество не станет подвергаться сильным флуктуациям. Система достигнет состояния равновесия. Однако в большинстве химических систем, как только мы усилим поток,[49] это равновесие окажется неустойчивым, а это означает, что устойчивое состояние системы будет заменено двумя или несколькими устойчивыми состояниями, отличными от исходного состояния равновесия.[50] Когда возникнут эти новые устойчивые состояния, системе нужно будет «выбирать» между ними. Это значит, что ей придется перейти к одному или другому, нарушив симметрию системы, и развить историю, отмеченную этими выборами. Если мы еще больше усилим поток входных соединений{В}, то эти новые устойчивые состояния станут неустойчивыми и возникнут дополнительные новые устойчивые состояния. Это увеличение количества устойчивых состояний может привести химические реакции к таким высокоорганизованным состояниям, как те, которые присущи молекулярным часам, являющимся химическими осцилляторами, соединениями, периодически меняющими тип с одного на другой. Но разве такая простая химическая система способна обрабатывать информацию?
Теперь представим, что мы можем привести систему в одно из этих устойчивых состояний путем изменения концентрации поступающих веществ{В}. Такая система будет «выполнять вычисления», поскольку она станет генерировать выходы в зависимости от поступающих веществ. Это будет химический транзистор. В очень грубом приближении эта модель химической системы имитирует примитивный метаболизм. В еще более грубом приближении эта система представляет собой модель клетки, изменяющей тип с одного на другой. Типы клеток могут абстрактно рассматриваться в качестве динамических устойчивых состояний этих систем, как десятилетия назад предположил биолог и исследователь сложных систем Стюарт Кауффман.[51]
Высокоинтерактивные неравновесные системы, будь то деревья, реагирующие на смену сезонов, или химические системы, обрабатывающие информацию о поступающих веществах, показывают, что материя способна производить вычисления. Эти системы говорят нам, что процесс вычисления, как и информация, предшествует появлению жизни. Химические изменения, кодируемые этими системами, преобразуют информацию, закодированную в химических соединениях, и, следовательно, они представляют собой фундаментальную форму вычислений. Жизнь существует благодаря способности материи производить вычисления.
Наконец, нам следует объяснить, как все это соотносится с необратимостью времени. Ведь именно с этого началась данная глава. Для объяснения я снова буду использовать работу Пригожина, а в качестве примера предлагаю вам представить большую коробку, наполненную триллионами шариков для пинг-понга.[52]
Представьте, что шарики для пинг-понга сталкиваются друг с другом без потери энергии, поэтому эти взаимодействия никогда не прекращаются. Теперь предположим, что вы начали наблюдать за системой в тот момент, когда все шарики были собраны в одном квадранте коробки, но обладали достаточной кинетической энергией, или скоростью, чтобы со временем рассеяться по коробке. Этот пример похож на пример с каплей чернил, который мы рассматривали ранее.
В этой простой статистической системе вопрос обратимости времени является вопросом о том, можно ли в любой момент времени обратить движение шариков вспять, как если бы время текло в обратном направлении. То есть можно ли поместить шарики на траекторию, конечным состоянием которой является расположение, определенное нами в качестве начальной конфигурации?
Мы легко можем представить, что произойдет, если прокрутить это «кино» в обычном направлении. Шарики будут непрерывно двигаться, пока не заполнят коробку и в ней не установится то, что мы теперь подразумеваем под динамическим устойчивым состоянием. Однако давайте проведем эксперимент с обращением времени вспять. Для облегчения я предположу, что у нас есть две машины. Одна из машин может взять любое количество шариков и моментально изменить их скорости, если мы предоставим этой машине входящий файл, содержащий желаемые скорости для каждого шарика. Эта машина имеет бесконечную точность, но выполняет инструкции, исходя только из точности переданной ими информации. То есть если положения и скорости указаны с точностью до двух знаков (скорость задана в сантиметрах в секунду), то машина будет назначать скорости шариков только с такой точностью, причем все неуказанные десятичные значения (миллиметры в секунду и т. д.) будут случайными. Вторая из имеющихся у нас машин измеряет положение и скорость каждого шарика с конечной, но сколь угодно большой точностью. Таким образом, вопрос заключается в том, можем ли мы использовать эти две воображаемые машины для того, чтобы обратить движение системы вспять, как при обратном воспроизведении «фильма»?
Сначала давайте поэкспериментируем с обращением скорости каждого шарика, используя низкую степень точности. Например, если скорость конкретного шарика в направлении оси х vx = 0,2342562356237128… [м/с], мы просто обратим данное значение, взяв только первые два знака после запятой (то есть новым значением будет vx= –0,23). Будет ли этого простого обращения достаточно, чтобы воспроизвести фильм в обратном направлении? Конечно, нет. Описываемая здесь система с триллионами шариков, которые никогда не теряют энергию, по определению является хаотичной, а это означает, что небольшие различия в начальных условиях накапливаются в геометрической прогрессии с течением времени. Хаотичность системы предполагает, что точность до двух знаков после запятой недостаточна, чтобы поместить шарики на траекторию, которая естественным образом вернет в их исходное положение. Но только лишь в точности дело или существует какое-то фундаментальное ограничение? Могли бы мы обратить время вспять при достаточной точности наших измерений и действий?
Вооружившись нашими воображаемыми машинами, мы можем повторно провести этот мысленный эксперимент с большей точностью, однако пока точность является конечной, мы не сможем обратить время вспять. Вместо использования нескольких знаков мы могли бы указать скорость с точностью до десяти, двадцати или ста знаков после запятой. Однако обратить время вспять по-прежнему будет невозможно, поскольку в хаотической системе неточность наших измерений будет накапливаться. Пользуясь математическим языком, можно сказать, что в данном случае важность цифр инвертируется. Обычно при наличии длинного ряда цифр цифры, которые находятся левее, имеют большую важность, чем цифры, находящиеся правее (особенно если речь идет о вашем банковском счете). Однако в хаотической системе это не так, поскольку в такой системе не первая, а последняя цифра становится доминирующей. Тем не менее, независимо от точности измерений, справа от любого числа всегда существует цифра. Таким образом, даже не учитывая принцип неопределенности Гейзенберга (который ограничивает нашу точность до нескольких десятков знаков), мы можем заключить, что фильм всегда будет выглядеть так, как будто он воспроизводится в обычном направлении, за исключением того короткого периода времени, когда мы будем вбрасывать энергию в систему путем изменения скорости частиц с помощью наших машин.
Таким образом, время необратимо в статистической системе, потому что хаотичная природа систем, содержащих большое количество частиц, предполагает то, что для обращения эволюции системы потребовался бы бесконечный объем информации. Это также означает, что статистические системы не могут вернуться, поскольку существует бесконечное количество путей, совместимых с любым настоящим. По мере движения вперед статистические системы быстро «забывают», как возвращаться. Эту бесконечность Пригожин называет барьером энтропии, она обеспечивает точку зрения на время, которая не связана с пространством, как в теориях, выдвинутых Ньютоном и Эйнштейном. Для Пригожина прошлое не только недоступно, его просто не существует. Прошлого нет, хотя оно было. В нашей Вселенной нет ни прошлого, ни будущего, а только настоящее, которое вычисляется в каждый конкретный момент. Глубина этой мгновенной природы реальности помогает нам объединить статистическую физику с вычислением. Мгновенная Вселенная Пригожина предполагает, что прошлое недоступно, поскольку оно невычислимо на микроуровне. Барьер энтропии Пригожина запрещает настоящему эволюционировать в прошлое, за исключением случаев с идеализированными системами, вроде маятника или планетарных орбит, которые выглядят одинаково при движении вперед и назад (при отсутствии диссипаций).
Мы начали эту главу с вопроса о необратимости времени и происхождении информации. Мы узнали, что вместе взятые эти вопросы представляют собой загадку, поскольку время течет по направлению от порядка к беспорядку, несмотря на то, что сложность нашего мира увеличивается. Вселенский рост энтропии, как кажется, противоречит росту объема информации, однако это не так, поскольку у Вселенной есть определенные приемы, позволяющие информации возникать в четко определенных карманах. В этих карманах в изобилии присутствует энергия, но диапазон температур позволяет веществам существовать в твердом состоянии, поскольку в твердых телах информация сохраняется дольше.
Термодинамика Вселенной, которую я описал в данной главе, помогает нам понять обстоятельства, при которых может возникать информация. Тем не менее способность Вселенной порождать сложность, которую мы наблюдаем из окна, не является непосредственным следствием действия этих простых механизмов. Чтобы объем информации по-настоящему увеличивался, Вселенной необходим еще один прием, которым является способность материи производить вычисления.
Эта вычислительная способность материи, которая может быть реализована как в простых химических системах, так и в сложных формах жизни, например деревьях или людях, является ключевой способностью, которая позволяет информации накапливаться в том месте Вселенной, которое мы считаем своим домом. Этой вычислительной способности и тому, как она соотносится с людьми и человеческими сообществами, будет посвящена третья часть книги, в которой исследуется способность систем накапливать знания и ноу-хау. Эта вычислительная способность и ограничения, обусловленные ее воплощением в человеке, поможет нам объяснить причины роста объема информации в обществе.
Однако прежде чем продолжить, мы должны разобраться с физическим аспектом информации, который тесно соотносится с людьми, то есть с информацией, которую мы производим с помощью наших человеческих знаний и ноу-хау. Это не телесность ДНК или замороженных водоворотов, а телесность простых и сложных продуктов, которые мы производим и обмениваем, начиная от макарон и заканчивая авиалайнерами. Таким образом, далее мы подробно опишем составляющие нашу экономику объекты, ориентируясь на воплощенную в них информацию и их неочевидные способности, обусловленные ею. Это позволит нам рассматривать продукты не только в качестве физического воплощения информации, но и в качестве механизма передачи чего-то более важного, чем сообщения: способов практического применения знаний и ноу-хау.