12 Информация

We use cookies. Read the Privacy and Cookie Policy

Мы приближаемся к завершению нашего путешествия. В нескольких предыдущих главах я говорил о конкретных случаях применения квантовой гравитации: описании того, что произошло со Вселенной вблизи Большого взрыва, описании тепловых свойств черных дыр и о подавлении бесконечностей.

Прежде чем переходить к заключению, я хотел бы вернуться к теории, но заглянуть в ее будущее и поговорить об информации – теме, которая тревожит физиков-теоретиков, вызывая у них как энтузиазм, так и недоумение.

Эта глава отличается от предыдущих, где я рассказывал об идеях и теориях, которые еще не проверены, но четко сформулированы; здесь я расскажу об идеях, которые все еще остаются смутными, но остро нуждаются в упорядочении. Если до сих пор, любезный читатель, наше путешествие могло казаться вам немного некомфортным, то держитесь крепче, поскольку теперь мы входим в зону турбулентности. Если эта глава покажется вам особенно туманной, то не потому, что вы запутались в своих мыслях. Причина в том, что я сам путаюсь в своих соображениях.

Многие ученые сегодня подозревают, что понятие информации может оказаться ключевым для новых прорывов в физике. Информация упоминается в основаниях термодинамики, науки о тепле, в основаниях квантовой механики, а также в других областях, но это слово почти всегда используется в крайне нечетком смысле. Я верю, что в этой идее есть нечто важное. Я попытаюсь объяснить почему и покажу, какое отношение информация имеет к квантовой гравитации.

Прежде всего, что такое информация? Слово «информация» используется в обыденной речи для обозначения множества разных вещей, и эта нечеткость служит источником путаницы, в том числе и в науке. Научное понятие информации, однако, было определено со всей ясностью в 1948 году американским математиком и инженером Клодом Шенноном и представляет собой нечто очень простое: информация – это мера числа возможных альтернатив для чего-либо. Например, если я бросаю игральную кость, она выпадает одной из шести сторон. Когда мы видим, что она выпала одной конкретной стороной, мы получаем количество информации N = 6, поскольку число возможных альтернатив равно шести. Если я не знаю вашего дня рождения, то имеется 365 различных возможностей. Когда вы назовете мне дату, я получу информацию N = 365. И так далее. Вместо числа альтернатив N ученые измеряют информацию величиной, обозначаемой буквой S (от термина «шенноновская информация»). Величина S определяется как логарифм N по основанию 2: S = log2N. Преимущество использования логарифма в том, что единица измерения S = 1 соответствует N = 2 (поскольку 1 = log22), делая единицей информации минимальное число альтернатив – выбор между двумя возможностями. Эта единица измерения называется битом. Если я знаю, что на рулетке выпало красное, а не черное, я располагаю одним битом информации; узнав, что выпало красное четное, я получаю два бита информации; когда выпадает четное красное меньшее (восемнадцать или меньшее[117] на рулеточном жаргоне), у меня имеется три бита. Два бита соответствуют четырем альтернативам (красное четное, красное нечетное, черное четное, черное нечетное). Три бита информации соответствуют восьми альтернативам. И так далее[118].

Ключевой момент состоит в том, что информация может где-то располагаться. Представим, например, что вы держите в руке шар, который может быть либо черным, либо белым. Допустим, что у меня тоже есть такой шар, который может быть либо черным, либо белым. Есть две возможности с моей стороны и две – с вашей. Общее число возможностей составляет четыре (2 ? 2): белый-белый, белый-черный, черный-белый и черный-черный. Теперь допустим, по некоторой причине мы уверены, что эти два шара имеют разную окраску (например, потому что мы брали шары из коробки, содержащей два шара – один белый и один черный). Полное число альтернатив тогда составляет только 2 (белый-черный или черный-белый), даже если для меня и для вас остается по две альтернативы. Обратите внимание, что в этой ситуации происходит что-то странное: глядя на свой шар, вы знаете, какой цвет у меня. В этом случае говорят, что цвета двух шаров коррелированы, то есть связаны друг с другом, или, другими словами, мой шар «несет информацию» о вашем (и, конечно, наоборот).

Если подумать, это в точности то же самое, что происходит в жизни при общении: например, когда я звоню вам, я знаю, что телефон делает звуки на вашей стороне зависящими от звуков на моей. Звуки на обеих сторонах связаны, подобно цветам шаров.

Этот пример выбран не случайно: Шеннон, который изобрел теорию информации, работал в телефонной компании и искал способ точного измерения того, сколько может «нести» телефонная линия. Но что передает телефонная линия? Она несет информацию. Она передает способность различать между альтернативами. Именно для этого Шеннон определил понятие информации.

Почему понятие информации оказалось полезным и, возможно, даже ключевым для понимания мира? По одной простой причине: потому что информация измеряет способность одной физической системы коммуницировать с другой физической системой.

Давайте в последний раз вернемся к атомам Демокрита. Представим себе мир, образованный бескрайним морем атомов, которые соударяются, притягивают и отталкивают друг друга, – и больше ничего. Не упустили ли мы что-то?

Платон и Аристотель настаивали, что нечто важное в этой картине действительно упущено; они считали, что форма вещей – то, что еще должно быть добавлено к субстанции, из которой состоят вещи, чтобы понять мир. Согласно Платону, формы существуют сами по себе в вечном идеальном мире форм, мире

«идей». Идея лошади существует до любой реальной лошади и независимо от нее. Для Платона реальная лошадь есть не что иное как бледное отражение идеи лошади. Атомы, составляющие лошадь, мало что значат – важнее «лошадиность», абстрактная форма. Аристотель немного ближе к реальности, но и для него форма не может быть сведена к субстанции. В статуе есть нечто большее, чем камень, из которого она сделана. Это большее, по Аристотелю, – форма. Это основа критики материализма Демокрита в Античности. И этот аргумент все еще остается типичным для критики материализма.

Однако действительно ли Демокрит утверждал, что всё может быть сведено к атомам? Присмотримся внимательнее. Демокрит говорит, что когда атомы объединяются, то значение имеет их форма, их конфигурация в структуре, а также способ, которым они комбинируются. Он приводит в пример буквы алфавита: есть лишь пара десятков букв, но, как он пишет, «можно комбинировать их разными способами, получая комедии и трагедии, бессмысленные истории и эпические поэмы»[119].

В этой идее есть нечто большее, чем просто атомы: важен способ, которым они комбинируются друг с другом. Но какое значение имеет способ комбинирования в мире, где нет ничего, кроме атомов?

Если атомы – тот же алфавит, кто способен читать записанные с помощью этого алфавита фразы?

Ответ будет довольно тонким: способ, которым атомы комбинируются друг с другом, коррелирован со способом, которым другие атомы комбинируются друг с другом. Поэтому одна совокупность атомов может нести информацию о другой совокупности атомов в том точном, формальном смысле, как это было сформулировано выше.

В физическом мире это происходит постоянно и непрерывно – в каждое мгновение, в каждом месте: свет, который попадает в наши глаза, несет информацию об объектах, с которыми он взаимодействовал; цвет моря несет информацию о цвете неба над ним; клетка имеет информацию о вирусе, который ее атакует; новорожденное живое существо обладает массой информации, поскольку коррелировано с родителями и со своим видом; и вы, дорогой читатель, получаете из этих строк информацию о том, о чем я думал, когда их писал, то есть о том, что происходит в моем сознании в тот момент, когда я пишу этот текст. То, что происходит с атомами вашего мозга, больше не остается независимым от того, что происходит с атомами моего, – мы коммуницируем.

Таким образом, мир – это не просто сеть сталкивающихся атомов, это также сеть корреляций между множествами атомов, сеть реальной взаимной информации физических систем друг о друге.

Во всем этом нет ничего идеалистического или мистического, это не что иное как применение шенноновской идеи подсчета альтернатив. Всё это в такой же мере часть нашего мира, как доломитовые скалы, жужжание пчел и морские волны.

Как только мы поняли, что во Вселенной существует эта сеть взаимной информации, естественно попытаться применить это сокровенное знание к описанию мира. Начнем с такого аспекта природы, хорошо понятого уже в конце XIX века, как тепло. Что есть тепло? Что мы имеем в виду, называя нечто горячим? Что заставляет чашку обжигающе горячего чая самопроизвольно остывать, а не нагреваться еще сильнее?

Австрийский ученый Людвиг Больцман, основатель статистической механики[120], был первым, кто понял, почему так происходит. Тепло – это случайные микроскопические движения молекул: когда чай горячий, движение его молекул более интенсивно. Почему он остывает? Больцман рискнул выдвинуть блестящую гипотезу: потому что количество возможных состояний у молекул горячего чая и холодного воздуха меньше, чем их количество у молекул остывшего чая и чуть потеплевшего воздуха. Совокупное состояние эволюционирует от ситуации, которой соответствует меньшее число возможных состояний, к ситуации, которой соответствует большее число возможных состояний. Чай не может сам по себе нагреваться, поскольку информация не может самопроизвольно возрастать.

Поясню это подробнее. Молекулы чая крайне многочисленны и крайне малы, и мы не знаем в точности, как они движутся. У нас нет соответствующей информации. Этот недостаток – или нехватку – информации можно оценить численно. (Больцман сделал это: он подсчитал число различных состояний, в которых могут находиться молекулы.) Если чай остывает, небольшая часть его энергии переходит к окружающему воздуху; поэтому молекулы чая начинают двигаться медленнее, а молекулы воздуха – быстрее. Если вы подсчитаете недостающую информацию, то обнаружите, что ее стало больше. Если бы, напротив, чай забрал часть тепла у холодного воздуха, количество недостающей информации уменьшилось бы. Таким образом, мы бы стали знать больше. Но информация не может свалиться с неба. Она не может возрасти сама по себе, поскольку мы просто не знаем того, чего не знаем. Поэтому чайник не нагревается сам по себе в контакте с холодным воздухом. Может показаться, что это какая-то магия, но это работает: мы можем предсказать, как ведет себя тепло, на основании одного лишь наблюдения, что информация не может возрастать даром!

Больцмана не восприняли всерьез. В возрасте пятидесяти шести лет он покончил с собой в Дуино недалеко от итальянского Триеста. Сегодня его считают одним из гениальных физиков. На его могиле высечена его знаменитая формула:

S = k log W,

которая выражает (недостающую) информацию как логарифм числа альтернатив, – ключевая идея Шеннона. Больцман отмечал, что эта величина совпадает с энтропией, используемой в термодинамике. Энтропия – это «недостающая информация», то есть информация со знаком минус. Общее количество энтропии может только возрастать, поскольку информация может только убывать[121].

Сегодня физики в целом признают идею, что информацию можно использовать как концептуальный инструмент, проливающий свет на природу тепла. Более смелая идея, защищаемая, тем не менее, всё большим числом теоретиков, состоит в том, что понятие информации может быть также полезным для понимания загадочных особенностей квантовой механики, описанных в главе 5.

Вспомните, что ключевой вывод квантовой механики заключается как раз в том, что информация конечна. В классической механике число альтернативных результатов, которые могут быть получены при измерении физической системы[122], бесконечно; но благодаря квантовой теории мы понимаем, что в действительности оно конечно. Квантовую механику можно понимать как открытие того, что информация в природе всегда конечна.

Фактически все построение квантовой механики можно интерпретировать и понимать в терминах информации следующим образом. Любая физическая система проявляет себя только во взаимодействии с другой физической системой. Описание физической системы, таким образом, всегда дается в форме отношения с другой физической системой, с которой взаимодействует первая. Любое описание системы является, таким образом, описанием информации, которой система обладает о другой системе, иными словами, описанием корреляции между двумя системами. Тайны квантовой механики становятся чуть менее загадочными, если интерпретировать ее подобным образом, то есть как описание информации, которой физические системы располагают друг о друге.

Описание системы, в конечном счете, есть не что иное как способ суммировать все ее прошлые взаимодействия и на их основе предсказывать результаты будущих взаимодействий. Вся формальная структура квантовой механики может быть в основном выражена двумя простыми постулатами[123].

1. Релевантная информация в любой физической системе конечна.

2. Вы всегда можете получить новую информацию о физической системе.

Здесь под релевантной информацией понимается информация, которую мы получили о данной системе в ходе наших прошлых взаимодействий с ней; это информация, позволяющая нам предсказывать, что мы получим в результате будущих взаимодействий с этой системой. Первый постулат описывает зернистость квантовой механики, то есть тот факт, что существует лишь конечное число возможностей. Второй описывает неопределенность – то, что всегда существует некоторая непредсказуемость, позволяющая нам получать новую информацию. С приобретением новой информации о системе полная релевантная информация не может расти бесконечно (в силу первого постулата), и часть прежней информации становится нерелевантной, то есть она больше не влияет на предсказания будущего. В квантовой механике при взаимодействии с системой мы не только что-то узнаем, но также «аннулируем» часть релевантной информации о системе[124].

В целом формальная структура квантовой механики по большей части следует этим двум простым постулатам. Тем самым теория неожиданным образом сама создает благоприятную почву для ее интерпретации в терминах информации.

Фундаментальное значение понятия информации для объяснения квантовой реальности первым осознал Джон Уилер, отец квантовой гравитации. Уилер использовал для выражения этой идеи фразу «всё из бита», означающую, что всё сущее есть информация.

Информация вновь появляется в контексте квантовой гравитации. Вспомните, площадь любой поверхности определяется спиновыми петлями, которые ее пересекают. Эти спины являются дискретными величинами, и каждый из них вносит свой вклад в площадь.

Поверхность фиксированной площади может быть образована из этих элементарных квантов площади множеством различных способов, скажем, N способами. Если вы знаете площадь поверхности, но не знаете, как в точности распределены составляющие ее кванты площади, то имеет место нехватка информации о поверхности. Это один из способов вычисления теплоты черной дыры. Для квантов площади черной дыры, заключенных в поверхности определенной площади, есть N различных способов, которыми они могут быть скомбинированы. Это аналогично тому, как у молекул в чашке чая есть N различных способов движения. Таким образом, мы можем связать с черной дырой определенное количество недостающей информации, то есть энтропию.

Количество информации, связанной таким образом с черной дырой, напрямую зависит от площади A: чем больше дыра, тем больше количество недостающей информации.

Информация, попадающая в черную дыру, больше не возвращается вовне. Но, входя в черную дыру, информация несет с собой энергию, за счет которой черная дыра становится больше и увеличивает свою площадь. При взгляде со стороны информация, теряющаяся в черной дыре, проявляется как энтропия, связанная с площадью дыры. Первым, кто заподозрил нечто подобное, был израильский физик Яаков Бекенштейн.

Однако ситуация еще очень далека от ясности, поскольку, как мы видели в предыдущей главе, черные дыры испускают тепловое излучение и очень медленно испаряются, становясь все меньше и меньше, пока, по всей вероятности, не исчезают, растворяясь в океане микроскопических черных дыр, составляющих пространство в планковском масштабе. Что происходит с информацией, упавшей в черную дыру, когда дыра сжимается и исчезает? Физики-теоретики спорят по этому вопросу, и ни у кого нет пока окончательного ясного ответа.

Всё это, как я думаю, указывает на то, что для понимания фундаментальной грамматики мира необходимо объединить три базовых ингредиента, а не два: не только общую теорию относительности и квантовую механику, но и теорию теплоты, то есть статистическую механику и термодинамику, которые можно также охарактеризовать как теорию информации. Однако термодинамика в общей теории относительности, то есть статистическая механика квантов пространства, находится пока в зачаточном состоянии. Всё запутано, и очень многое еще только предстоит понять.

Всё сказанное подводит нас к последней идее, о которой я расскажу в этой книге, – тепловому времени.