Глава 2. Отсеивание информации

We use cookies. Read the Privacy and Cookie Policy

Глава 2. Отсеивание информации

Демон должен быть изгнан. Первые десятилетия 20 века стали одной длинной чередой побед идеи, что материя состоит из атомов и молекул. Идеи Максвелла и Больцмана, касающиеся статистического поведения больших скоплений подобных атомов и молекул, были подтверждены, несмотря на определенное сопротивление, которое оказалось для Больцмана столь фатальным.

В конце 19 века споры о существовании атомов все еще были настолько ожесточенными, что проблему демона Максвелла можно было до поры до времени оставить в покое. Но чем дальше мы продвигаемся к 20 веку, тем яснее становится, что с этим демоном у нас серьезная проблема. В конце концов, оказалось, что имеется проблема со вторым законом термодинамики — то есть если бы мы имели достаточно знаний о мире, все было бы так, как мы хотим. Но как нам известно, все совсем не так.

Венгерский физик Лео Сцилард в 1929 году выдвинул отличный вопрос: можно ли знать все о мире, не меняя его. Ответ был простым: нет, нельзя.

В документе под устрашающим названием «Об увеличении энтропии в термодинамических системах при влиянии мыслящих существ» Сцилард задался вопросом о цене обретения знаний и о том, сможет ли такая цена «спасти» второй закон от демона Максвелла.

Лео Сцилард сам дал ответ на собственный вопрос. Он выяснил, что цена знания для спасения второго закона была бы слишком высокой. Если вы хотите быть таким же умным, как и демон Максвелла, вам придется конвертировать огромное количество энергии, а, следовательно, создать огромное количество энтропии в противовес накоплению знаний. Демон получает свое преимущество, наблюдая за абсолютно каждой молекулой, будучи готовым закрыть отверстие немедленно. Но подобное преимущество перевешивается его ценой: чтобы быть готовыми закрывать и открывать заслонку между двумя камерами в нужный момент, нам придется изучить движение всех без исключения молекул. Так что нам придется измерить все частицы. А это имеет свою цену. Сцилард объясняет: «Можно предположить, что процедура изменения будет фундаментально связана с производством определенного среднего количества энтропии — и это восстановит соответствие со вторым законом».

Данная оригинальная идея существенно повлияла на науку этого столетия — от теории информации и компьютерных наук до молекулярной биологии.

Физики были в восхищении: демон был изгнан. Он работает только потому, что кое-что знает о мире — и это знание имеет высокую цену. С этого времени историки науки выступили вперед на поле научных баталий: «Почему Максвелл об этом не подумал?» Эдвард Е. Дауб задал этот вопрос в 1970 году в журнале истории и философии науки. Он ответил: «Потому, что его демон являлся созданием его теологии».

Теология Максвелла, установил Дауб, происходила от Исаака Ньютона, основателя современной физики. Ньютон говорил о Боге, который видит, слышит и понимает все «не совсем как человек, не материально, способом, который нам полностью не известен. Подобно тому, как слепой человек не имеет представления о цвете, мы не имеем представления о том, каким образом всемудрый Бог воспринимает и понимает все происходящее», — написал Ньютон.

Сцилард отринул божественное. «Демон Максвелла не был смертным, — написал Дауб, — так как он был создан по подобию Бога. И как Бог, он может видеть, не глядя, и слышать, не слушая. Если говорить коротко, он может получать информацию, не тратя при этом энергию. В общем, Сцилард сделал максвелловского привратника смертным».

Анализ демона Максвелла, который выполнил Лео Сциллард, начался с изучения знания как части физического мира — озарение, как нечто, имеющее цену; измерения как материальное действие; ощущения как акт метаболизма; знание как работа; термодинамика мышления; внутренняя жизнь разума, связанная с его физической сущностью.

Исключительно значимое событие в истории человеческого знания. Важная веха в восприятии человеком его окружения и самого себя.

И еще более примечательно то, что анализ Сциларда в конечном итоге оказался неверным. С помощью его аргументов невозможно изгнать демона. Они не выдерживают критики, несмотря на то, что в них верили около полувека — вплоть до 1982 года.

«Это одна из великих загадок социологии науки — почему этот очевидно неадекватный аргумент был столь широко и некритично принят, — написал в 1989 году физик Рольф Ландауэр, добавляя с едва скрытым нетерпением: — Лишь в последние годы появились четкие обсуждения, но они еще не получили широкого одобрения».

Ландауэр, который работает в исследовательских лабораториях IBМ в Йорктаун Хайз, Нью Йорк, сам является одной из ведущих фигур, стоявших за озарениями, которые привели к окончательному изгнанию демона. Его провел коллега Ландауэра по IBM Чарльз Беннет в 1982 году.

Изменение, получение информации не будут стоит ничего. Цену будет иметь избавление от этой информации. Знание не имеет цены. А мудрость — имеет.

Как это часто бывало в истории науки, неверное заключение оказалось исключительно плодовитым. Анализ Лео Сциларда не выдерживает критики, но от этого становится не менее интересным, ведь Сциларду удалось во многом ухватить самую суть проблемы.

На самом деле Сцилард вовсе не писал о том, что ему удалось изгнать демона Максвелла. Он пишет, как процитировано выше, «мы можем предполагать», что процесс измерения будет стоить нам выработки определенного количества энтропии — определенное количество существующей энергии станет недоступным. Он показывает далее, что количество произведенной энтропии будет по меньшей мере равно тому количеству энергии, которое будет произведено благодаря действиям демона, вооруженного своими знаниями.

Так что на самом деле Сцилард предполагает, что измерение будет иметь свою цену в форме возрастания энтропии. Но он этого не доказывает.

Но не так много людей заметили то, что озадачило Ландауэра. Каким образом аргумент Сциларда мог приниматься в течение половины столетия, если на самом деле он был неверным? Одна из главных причин этого, безусловно, тот факт, что способность демона опровергнуть один из самых фундаментальных законов физики казалась несколько обескураживающей. Второй закон был настолько фундаментальным для физики, что было ясно как день — демон Максвелла попросту не мог работать. Потому что, если бы он работал, мы смогли бы построить различные виды вечных двигателей и получать теплый воздух из морозного ночного воздуха. Так что никому не приходило в голову усомниться, что что-то здесь было не так — а Сцилард оказался опытным физиком, который обеспечил элегантный аргумент в пользу этого мнения.

Не то чтобы анализ Сциларда не вызывал протестов. Но они поступали в основном от философов. Физики же никогда не питали особого уважения к философам, которые оспаривают результаты физических исследований, так как эти результаты вступают в противоречие с их философскими воззрениями. Протесты звучали от таких философов, как Карл Поппер, Пол Фейерабенд и Рудольф Карнап — самых влиятельных философов науки 20 века. Они протестовали в первую очередь потому, что их философии не слишком соответствовал факт понимания ментального феномена через физические характеристики. Так что их протесты не произвели особого впечатления.

Более того, взгляды Сциларда образца 1929 года во многом напоминали воззрения квантовых физиков, которые возникли в 20-е годы относительно процессов измерения при изучении частиц и «кусочков», составляющих материю. Нильс Бор и его студент Вернен Хайзенберг указали, что измерения нарушают систему, в которой они выполняются. Конечно, это имеет мало общего с нашей проблемой, но это как раз то, что думали многие, когда некоторые физики попытались оптимальным образом выкристаллизовать аргументы Сцилларда.

«Демон Максвелла не может работать, — заявлял Леон Бриллоун, физик в лабораториях IBM в Нью-Йорке в своей статье, где пытался расширить аргументацию Сциларда. Бриллоун уже обсуждал проблемы демона в работе «Жизнь, термодинамика и кибернетика», которая была опубликована в 1949 году. Он стал известным благодаря своей книге «Наука и теория информации» 1956 года. Предметы, которые Бриллоун выводит на арену дискуссии о демоне Максвелла, довольно интересны: жизнь, информация и механизмы контроля (кибернетика).

Аргумент кажется кристально ясным: демон Максвелла находится в контейнере, наполненном газом при определенной температуре. Он следит за различными молекулами и проводит их отбор в соответствии со скоростью таким образом, что самые быстрые молекулы оказываются в одной из двух камер сосуда.

Тем не менее поначалу газ является равномерно горячим. Это значит, что излучение и материя внутри сосуда находятся в равновесии и мы ничего не можем увидеть: так как все одинаково горячее, никакой разницы заметить нельзя. «Демон не может видеть молекулы, следовательно, он не может управлять дверью и у него не получится нарушить второй принцип», — писал Бриллоун.

Демон Максвелла не работает, так как он ничего не видит. Это может показаться весьма специфическим утверждением, но речь идет о мысленном эксперименте — гипотетическом мире, который не напоминает нашу обычную жизнь, а призван проиллюстрировать физические законы во всей их простоте.

В повседневной жизни все, на что мы смотрим, имеет примерно одинаковую комнатную температуру (не считая солнца и звезд, поверхность которых очень горячая). Но так как в обычном мире много света, мы можем видеть. Свет, который позволяет нам видеть, происходит от тела, которое намного горячее, чем то, на что мы смотрим (поверхность солнца или нить накала электрической лампы). В своей повседневной жизни мы можем видеть предметы, так как свет исходит от объектов, которые намного горячее, чем эти предметы. Мы живем в сложном мире, поэтому можем видеть — а демон живет в мире, где соблюдается баланс, и, следовательно, видеть от не может.

Тем не менее Бриллоун решает прийти на помощь демону. «Мы можем оснастить его электрическим фонариком, так что он начнет видеть молекулы». Но фонарик будет иметь свою цену. Бриллоун подсчитывает стоимость заряженной батарейки и лампочки, которая будет испускать свет. Свет рассеивается по сосуду после того, как освещает молекулы, и превращается в тепло. Фонарик конвертирует доступную энергию батареи в тепло от рассеявшегося света. Энтропия возрастает. В то же время энтропия и уменьшается, так как молекулы, которые летают вокруг, сортируются по двум отсекам сосуда в соответствии с их скоростью. Но количество энергии, к которой мы можем получить доступ в подобном случае, будет меньше, чем количество энергии, к которой мы теряем доступ по мере того, как истощается батарейка.

Бриллоун расширил этот анализ до более общей теории, касающейся того, каким образом физики могут осуществлять эксперименты, в которых необходимо вести измерение природных явлений. Его заключение было понятным. «Физику в его лаборатории ничуть не лучше, чем демону… Ему нужны батарейки, источник энергии, сжатый газ и т. д… Физику в лаборатории также нужен свет, чтобы он смог прочитать показания амперметров и других приборов.

Знание имеет цену.

Лео Бриллоун прояснил важный момент в работе Сцилларда: демон Максвелла не работает, так как информация выражается материальной величиной. Бриллоун был доволен. «Мы открыли очень важный физический закон, — написал он. — Каждое физическое измерение требует соответствующего возрастания энтропии». Такой вывод можно сделать из того факта, что демону сложно видеть в темноте.

Но Бриллоун забыл поинтересоваться, может ли демон Максвелла ощущать свое окружение. Так что он пришел к заключению — как и многие физики с тех пор, к примеру, Денис Габор, изобретатель голографии — что второй закон был спасен только благодаря тому, что демон начал пользоваться фонариком. Но ведь демон — умный малый, и кто сказал, что ему нужен свет для того, чтобы стать более знающим?

В 1982 году Чарльз Беннетт, физик из IBM, продемонстрировал, что демон отлично справлялся бы со своей задачей и в неосвещенном контейнере. Беннетт сконструировал оригинальный аппарат, в котором демон смог бы определять положение каждой молекулы совершенно бесплатно. Идея заключалась не в том, чтобы получать знание без конвертирования энергии — это было бы невозможно даже для демона. Идея заключалась в том, чтобы определять свое положение таким образом, что вся конвертируемая при этом энергия была бы доступной после того, как измерения были бы завершены.

Когда мы используем фонарик, свет рассеивается и в конечном итоге превращается в тепло. Энергия оказывается недоступной. Но если мы сможем ощущать все, что происходит вокруг, то сможем обнаружить молекулы без того, чтобы использованная энергия становилась недоступной.

Аппарат, который спроектировал Беннет, был весьма усовершенствованным. Фактически он мог работать только со «специальным изданием» демона Максвелла, в контейнере которого содержится газ, состоящий из единственной молекулы! Это может звучать как весьма странная версия гипотезы демона, но как раз она и пришла на ум Сциларду в 1929 году, когда он показал, что цены определения местоположения этой единственной молекулы как раз будет достаточно для спасения второго закона. Просто анализируя цену очень простого измерения — отправить ли молекулу направо или налево — Сцилард пришел к тому, что стало основой для всех последующих информационных теорий: ответ на вопрос «да/нет».

Настолько упрощая проблему, Сцилард получил возможность задать вопрос: сколько будет стоит такой простой кусочек знания. С тех пор он стал известен как бит — самый маленький кусочек информации. Эта концепция стала одним из самых распространенных технических терминов, постоянно применяемых в конце 20 столетия. В своей статье о демоне Максвелла Сцилард стал основоположником всей современной теории информации.

Сцилард предполагал, что измерение даже такого бита будет иметь свою стоимость. Но Беннетт доказал, что эта стоимость в случае, который анализирует Сцилард, может оказаться произвольно маленькой.

Если задуматься об этом, то ничего странного нет: получение информации о местонахождении молекулы будет означать копирование информации, которая уже существует. Вы «считываете» состояние, а копирование подобной информации не обязательно будет иметь большую цену в виде энергии, которая становится недоступной. В конце концов можно сделать множество копий, и стоимость каждой из них будет относительно низкой. На самом деле это очень характерная черта информации, в отличие от многих потребительских товаров: может быть выполнено произвольное количество копий, а состояние оригинальной информации не изменится. Информацией можно пользоваться, не меняя ее состояния. Так с чего бы знаниям, которые получает демон, иметь цену?

Рольф Ландауэр и Чарльз Беннет могли доказать, что никакой стоимости вообще не было. Но это не значит, что демон Максвелла может нарушить второй закон термодинамики. Это просто означает, что измерения вовсе не обязательно должны иметь цену. На самом деле демон платит не за то, чтобы получить информацию — а за то, чтобы снова ее забыть.

В 1961 году Ландауэр доказал, что забывание всегда имеет цену. Когда вы избавляетесь от информации, стирая ее, приходится платить за это увеличением энтропии. Вам нужно избавиться от информации, так как измерение необходимо повторить: вам нужно очистить память, чтобы вновь обнулить измерительный аппарат.

В случае с демоном Максвелла это означает, что он может обнаруживать молекулы в темноте и платить за это только преимуществом получения знания. Но демон очень быстро столкнется с такой проблемой: ему приходится сохранять информацию своего знания о большом количестве молекул, которыми он уже распорядился должным образом. Демон начинает тонуть в большом количестве знаний, накопленных от предыдущих наблюдений.

Эту мысль в 1987 году обобщил Беннет: «Мы обнаружили причину, по которой демон не может нарушить второй закон: чтобы наблюдать за молекулой, ему сначала нужно забыть результаты предыдущих наблюдение. Это забывание, или уничтожение информации, будет иметь свою стоимость с точки зрения термодинамики».

Можно возразить, что демон просто может помнить все. Тогда ему не будет нужды забывать и, следовательно, создавать энтропию. У нас от подобного количества информации наступило бы истощение — но мы ведь не демоны. Но это истощение показывает нам, что цена есть — цена памяти. Энтропия увеличивается по мере того, как память постепенно заполняется молекулами, которые давно уже распределены. Проблема поддержания такого огромного количества памяти превышает преимущества от обладания ею.

Если взглянуть на относительные размеры в реальном мире, можно увидеть, что на практике это действительно представляет огромную проблему. В воздухе находится громадное число молекул. Даже если демону потребуется всего один бит информации о каждой молекуле (пропускать через отверстие или нет), у него вскоре закончится резерв памяти. Даже если у демона будет память, всех компьютеров в мире вместе взятых (10 миллионов миллиардов бит), память, в которой он хранит результаты измерений, закончится еще до того, как ему удастся снизить энтропию в одном грамме воздуха всего на одну десятую миллионной доли процента! В воздухе молекул невообразимо много — они просто очень, очень малы. Мы живем в мире, где объема памяти, эквивалентного всей информации, которую обрабатывает мозг в течение жизни, будет недостаточно, чтобы запомнить всего по одному биту информации о каждой молекуле в единственном литре воздуха.

Так что факт заключается в следующем: демон Максвелла не сможет функционировать, так как ему придется все забывать, а это обойдется дороже, чем вся приносимая им польза. Эта идея может показаться странной, но она указывает нам на очень важный факт: в информации интересно то, что от нее приходится избавляться. Сама по себе информация — предмет очень скучный. А вот то, как от нее избавиться — и за счет чего — это уже весьма интересно.

К примеру, вы стоите у кассы супермаркета. Все ваши покупки уже посчитаны. Каждый предмет в вашей корзине имеет свою цену. Кассир вводит каждое значение цены, складывает их и получает сумму — итого, скажем, 27,80 долларов. Эта сумма является результатом вычислений, включающих в себя сложение нескольких чисел.

Что будет наиболее информативным — результат вычислений? Эта сумма представляет собой одно число — 27,80 — а само вычисление является коллекцией нескольких чисел — к примеру, 23 различных цен. Может показаться, что больше информации содержится в результате — ведь когда мы выполняли сложение в школе, учитель всегда объяснял нам, что нужно получить правильный ответ. Но на самом деле в результате гораздо меньше информации, чем в самой задаче. В конце концов, существует множество различных комбинаций товаров, которые могут приводить к такой же итоговой сумме. Но это не означает, что вы всегда можете определить, что содержится в корзине, зная только ее итоговую стоимость.

Кассир за кассой уничтожает информацию после того, как установит итоговую сумму. В этой ситуации кассиру все равно, какие товары вы выносите из магазина и сколько стоит каждый из них — при условии, что вы их все оплатили.

Значимой является общая цена, даже несмотря на то, что в ней содержится очень мало информации — или, если быть более точным, значение имеет тот факт, что в ней содержится мало информации. Она содержит ровно такое количество информации, которое является релевантным в данном контексте.

Вычисления — это способ избавления от информации, в которой вы более не заинтересованы. Вы просто отсеиваете то, что не нужно.

Это противоречит нашему обычному представлению о том, что информация является чем-то очень позитивным, хорошим. Мы привыкли рассматривать информацию с позитивной точки зрения, но это может оказаться полностью нецелесообразным — это предрассудок, который оказывает влияние на человека, живущего в информационном обществе.

Как утверждает Чарльз Беннет, «мы платим за то, чтобы нам доставляли газеты, а не уносили их. Интуитивно может показаться, что запись предыдущих действий демона может быть ценной (или по меньшей мере их ценность может быть бесполезной). Но «вчерашняя газета» (результат предыдущих измерений) забирает у демона ценное место в памяти, и стоимость очистки этого места нейтрализует ту пользу, которую демон извлек из газеты, когда она еще была свежей. Возможно, идея о том, что информация может иметь негативную ценность, сегодня, в эпоху растущих опасений по поводу загрязнения окружающее среды и информационному взрыву, который приносят компьютеры, кажется более естественной, нежели она казалась еще недавно.

В лабораториях IBM отлично известно, что информация тесно связана с энтропией, которая является мерой беспорядка. Время от времени мы можем просто складировать наши старые газеты в подвале. Но информация тоже нуждается в рециркуляции — избыток информации приведет нас к хаосу.

Но нам всем кажется, что информация — это благо, воплощение порядка, педантичности и правильных результатов. Этому мы научились, когда изучали арифметику в школе: все предварительные вычисления сделать на черновике, чтобы затем представить в чистовике аккуратно записанный результат. Мы научились избавляться от информации, а не приобретать ее. Тем не менее мы живем в мире, который верит, что информация — это то, что является ценным в информационном обществе.

Да, пожалуй, с нашим обычным восприятием информации действительно что-то не так (или с восприятием информации учеными в сфере естественных наук — эти два понятия не совпадают). Демон Максвелла уже указал нам на часть проблемы. Но кое-что было скрыто у него в рукаве — и мы снова возвращаемся к Людвигу Больцману.

За несколько лет до того, как умер Джеймс Кларк Максвелл, Больцман опубликовал серию работ, в которой разъяснял удивительную теорию о связи между понятием энтропии, которое выросло из учения об ограничении эффективности паровых двигателей, и теорией тепла как статистического завихрения мельчайших компонентов материи. Максвелл так и не узнал об этих работах, и, как пишет историк Мартин Кляйн, соответственно он «лишился удовольствия увидеть связь между энтропией и вероятностью».

Идея Больцмана была проста. Он ввел разделение между тем, что известно, как макросостояния и микросостояния — между характеристиками больших конгломератов материи и индивидуальными компонентами этой материи. Макросостояния — это такие показатели, как температура, давление, объем. Микросостояния включают в себя тщательное описание поведения каждого индивидуального компонента.

Температура облака газа — это макросостояние, который не может многое сказать нам о микросостояниях. Температура говорит нам о том, что молекулы неорганизованно движутся по отношению друг к другу со средней скоростью, которая выражается температурой и распределением скоростей, которое является статистическим и известно, как «распределение Максвелла-Больцмана». Оно говорит нам о том, что большинство молекул движутся со скоростями, близкими к средним, в то время как несколько молекул имеют скорости, которые намного больше или намного меньше средних показателей. На самом деле это не представляет для нас большого интереса: мы можем знать макросостояние — определенную температуру, но это не говорит нам почти ничего о состоянии отдельных молекул.

Так как при данной температуре у нас есть 117 тысяч миллионов миллиардов молекул (а обычно гораздо больше), то не слишком важно, у какой молекулы какая скорость, если они распределены по правилу, которое устанавливает распределение Максвелла-Больцмана — а это так и есть, раз уж они постоянно сталкиваются друг с другом.

Существует невообразимое количество различных способов распределения скоростей между … надцатью миллиардами молекул, которое будет соответствовать данной температуре. Существует множество микроскопических состояний, которые соответствуют макросостоянию, выражаемому температурой — и действительно неважно, какие из них на самом деле присутствуют в помещении.

Чем выше температура, тем больше скоростей, из которых можно выбирать. Увеличивается и количество микросостояний, которые соответствуют данному росту макросостояния — температуры.

Идея Людвига Больцмана, проще говоря, состояла в том, что макросостояния, которые реализуются через множество различных микросостояний, являются более неорганизованными, чем макросостояния, соответствующие всего нескольким микросостояниям. Согласно Больцману чем большим количеством микросостояний сопровождается макросостояние, тем большей будет энтропия последнего.

Макросостоянию «температура в помещении 21 градус по стоградусной шкале» соответствует очень много микросостояний, так что все их сосчитать очень сложно. Поэтому Больцман использовал математический фокус, известный еще с эпохи Возрождения, когда числа стали слишком большими, чтобы с ними оперировать: он взял логарифм количества микросостояний и сделал этот логарифм равным энтропии. Это просто означает, что, если вы будете спрашивать не о миллионе миллиардов (1016) микросостояний или миллиарде миллиардов (1018), а всего лишь о том, равен ли логарифм их числа 15 или 18. Более того, использование логарифмов несет в себе и еще одно важное преимущество, если речь идет о подсчете микросостояний.

Но важнее всего является базовая идея, неважно, каким математическим способом вы ее выразите: энтропия является мерой того, сколько микросостояний мы можем не принимать в расчет и почему мы выбираем вместо этого макросостояния. Энтропия — это мера того, насколько нам не нужно быть аккуратными — мы просто можем смести все под ковер, используя общий термин, который скажет нам все, что нужно знать — то есть температуру.

Будучи людьми, мы любим тепло. Температура представляет для нас интерес. Нас мало волнует движение молекул (точно также, как политические фигуры часто заинтересованы в своих избирателях только тогда, когда их набирается достаточно для состояния, которое может оказать пользу на выборах). Макросостояние — это выражение интереса, релевантность. Оно заключает в себе интерес. Нам интересно знать.

Хороший пример — покер. У вас есть колода карт. Когда вы ее покупаете, она находится в очень специфическом макросостоянии. Карты положены по порядку мастей и рангов. Это макросостояние соответствует только одному микросостоянию — когда все карты находятся в том порядке, в котором они поступают с завода.

Но прежде чем начнется игра, карты нужно перетасовать. Когда у вас будет колода перетасованных карт, у вас все еще будет одно макросостояние — перетасованные карты — но существует практически бесконечное количество микросостояний, которые соответствуют этому макросостоянию. Все способы, которыми могут быть перетасованы карты, различны — но у нас недостаточно энергии, чтобы их выразить. Поэтому мы просто говорим: карты перетасованы.

Чтобы начать игру, каждому игроку дается пять карт — «рука». Эта рука теперь является макросостоянием, в котором заинтересованы игроки. Оно может иметь различные формы. некоторые макросостояния включают в себя сходные карты — к примеру, пять карт той же масти, хотя и не находящиеся в последовательности — флеш. Другие макросостояния могут представлять собой пять последовательных карт, хотя и различных мастей — стрейт. Стрейт может быть сформирован различными способами — но их не слишком много. Существует гораздо больше вариантов формирования не-стрейта.

Среди множества состояний, которые описываются макроскопическим «стрейтом», есть небольшая группа стрейтов, которые известны как стрейт флеш. Здесь карты находятся не только в последовательности — они еще и одной масти. Лучшим из всех является флеш-рояль — последовательность от десятки до туза одной масти. Существует только 4 микросостояния, которые соответствуют макросостоянию «флеш рояль» — а вот макросостоянию, известному как «пара», соответствует астрономическое число микросостояний.

Ценность в покере — это выражение того, сколько микросостояний соответствует макросостоянию. Ваша рука является «сильной», если она не предполагает множество вариантов и, следовательно, встречается редко.

Существует выраженная связь между вероятностью и энтропией. Чем большим будет количество различных карт, которые могут складывать ту или иную руку, тем выше будет вероятность, что вам попадется такая рука. Таким образом, чаще всего вам приходится иметь дело со «слабыми» руками (с большим количеством энтропии), а не с «сильными» руками, где макросостоянию соответствует только очень небольшое количество макросостояний.

Цель игры — выяснить, у кого имеется макросостояние с самым низким уровнем энтропии.

Огромное количество микросостояний на самом деле настолько несущественно, что в покере для них даже нет названий. В ваших картах может не прослеживаться никакой схемы, и единственное, что вы можете заявить — это «крупные карты» — макросостояние, которое соответствует любому микросостоянию. Так как люди играют в покер для своего удовольствия, в игре есть возможность оказать влияние на макросостояние путем изменения микросостояния — то есть индивидуальных карт: вы можете тянуть карты. Это может помочь улучшить макросостояние до такого, которому будет соответствовать уже не так много микросостояний. Вы играете роль демона Максвелла — если вам повезет, вы вытащите хорошие карты вместо тех, от которых избавляетесь.

В игре есть и возможность притвориться, что макросостояние, которое у вас есть на самом деле, соответствует только очень небольшому количеству микросостояний — даже если на самом деле это и не будет правдой. Это явление известно под названием «блеф» и предполагает использование более продвинутых теорий, нежели нам предлагает Больцман. О них мы поговорим позже, в Главе 5.

Связь между энтропией и вероятностью может дать нам представление о том, почему увеличивается энтропия: вероятность получить низкоэнтропийное макросостояние меньше, чем вероятность высокоэнтропийного. Таким образом, все движется по направлению к более высокой энтропии.

Если макросостояние меняется, оно будет непреклонно вести к другому макросостоянию с еще более высоким уровнем энтропии — и, следовательно, с ним будет связано больше микросостояний, чем с первым. Следить за миром становится все более сложной и утомительной задачей.

В этом нет ничего таинственного. Все это становится очевидным, как только определено макросостояние. Но как миру узнать о том, что именно мы находим настолько скучным, чтобы не напрягать себя отслеживанием этого?

Больцман объяснял, что энтропия — это выражение количества микросостояний, которые соответствуют данному макросостоянию. Это может звучать как очень субъективная концепция, так как энтропия, по-видимому, выражает то, что нам неизвестно об известном макросостоянии. Высокая температура соответствует высокой энтропии, так как чем выше скорость молекул, тем больше существует вариантов образования различных схем их движения. Наш недостаток знания о микросостояниях растет по мере того, как в гостиной становится жарче. Энтропия — это мера невежества, но это комфортное невежество: на самом деле нет никаких причин, которые побуждали бы нас знать, куда направляется каждая молекула и с какой скоростью.

Энтропия — это выражение грубого структурирования, которое применимо на том уровне, на котором мы описываем предметы. Тепло — это весьма грубая концепция: имеется огромное количество знаний, которые мы радостно игнорируем. Тепло — это концепция, которая включает в себя огромное количество энтропии, так как эта концепция весьма грубая и она не рассматривает большую часть знаний о микросостояниях, которые мы не удосуживаемся приобрести. Ветер и течение — это несколько менее грубые концепции, так как мы знаем достаточно много о том, куда направляются молекулы, когда говорим, что на улице теплый бриз, а не просто заявляем, что: «На улице тепло».

Энтропия — это мера информации, к которой нет немедленного интереса — микросостояния, только думая о которых, мы уже устаем. Энтропия — это концепция, которая предполагает наличие значения только тогда, когда мы можем объяснить, за чем именно мы не будем следить. Концепция энтропии предполагает, что мы объяснили, какое макросостояние нас интересует. Но независимо от того, какое именно состояние мы выбираем — его энтропия растет.

Второй закон говорит нам, что мир становится все сложнее описать: беспорядок растет, его становится все больше, и все в конечном итоге превратится в трение и тепло. Беспорядок — это такой вид порядка, который настолько изобилует деталями, что становится беспорядком.

Откуда миру знать, что именно мы расцениваем как беспорядок? Почему наши учебники физики никогда не рассказывают нам о том, что концепции подобные энтропии бессмысленны, если не объяснить, какое именно макросостояние имеется в виду? Зачем учить школьников и студентов термодинамике, не рассказав им о том, что Максвелл и Больцман все время упоминали как способ, которым мы описываем мир? Так как подсознательно физики всегда знали о том, что интересует человека — тепло.

Это негласная предпосылка всей современной термодинамики — люди любят тепло. Вот почему термодинамика описывает тепло и сходные с ним макросостояния — то, что интересует людей. В свою очередь микросостояния — определенный порядок атомов и молекул — это то, что интересует физиков.

Но дать определение энтропии можно только тогда, когда мы знаем, кто его дает. Энтропия неопределима, пока нам не станет известной степень точности наблюдателя. Учителям физики это кажется настолько очевидным, что они не видят никаких причин рассказать об этом своим студентам.

Именно на это намекал физик Эдвин Джейнс, когда выступал в Санта Фе в 1990 году — на важность задать вопрос: что означают вещи, те вещи, о которых написано в наших учебниках физики. Джейнс переформулировал современную версию термодинамики и очень ясно осветил старые моменты работ Больцмана. В 1979 году он написал: «Энтропия в термодинамической системе — это мера степени невежества человека, чье знание о ее микросостояниях состоит всего лишь в оценке макроскопического количества Х, которое определяет ее термодинамическое состояние. Это полностью «объективное» количество в том смысле, что функция зависит только от Х и не зависит от чьей-либо индивидуальности. Следовательно, нет причин, почему она не может быть измерена в лаборатории».

Таким образом, энтропия может быть точно определена, когда вы установили уровень описания.

Эта концепция не является субъективной в том плане, что для каждого наблюдателя будет существовать собственная энтропия. Каждый, кто заинтересован в тех же макро- и микросостояниях, может обнаружить одинаковую меру энтропии. Но она является субъективной в том плане, что не будет иметь никакого смысла, пока вы не спросите у человека, заинтересованного в определении энтропии, в чем конкретно он заинтересован.

Это, впрочем, не исключает того, что энтропия является мерой невежества. Ведь она является именно мерой того невежества, которое сопровождает данный уровень грубости вычислений.

«Но с чего бы моей машине интересоваться тем, что я знаю о мире?» — спросил один физик в Санта Фе, когда Джейнс объяснял эти вещи. Ответ действительно очень простой: потому, что она построена такими же людьми, как и вы. Потому, что двигатель машины будет иметь как раз ту приблизительность, которую люди используют при описании мира: мы ощущаем тепло — но не ощущаем молекул. Наше описание мира приобретается через обработку того, что мы ощущаем. И оно воспроизводится в тех машинах, которые мы строим на базе своего знания.

Философ Пол Фейерабенд говорил о Больцмане: «Со своим осознанием гипотетического характера всех наших знаний Больцман намного опередил свое время — а возможно, и наше собственное».

В 1948 году инженер Клод Шеннон задал очень хороший вопрос: «Сколько стоит передать сообщение из одного места в другое?». Сцилард задавал вопрос, сколько будет стоит измерение. Шеннон же заинтересовался тем, сколько будет стоить общение. Отправным пунктом стала концепция бита — разницы между двумя идентичными состояниями: ответом на вопрос «да/нет».

Анализ Шеннона оказался революционным. Базируясь на идеях Сциларда, он стал основателем современной теории информации.

Когда мы говорим об информации в нашей повседневной жизни, мы имеем в виду ее содержание. Но Клода Шеннона интересовало не содержание. Его интересовала продолжительность телефонных разговоров.

Шеннон был инженером в лабораториях Белла, знаменитом исследовательском отделе AT&T. Он изучал сложность передачи сообщений в форме сигналов. Он был заинтересован в определении того, что требуется для передачи специфического сообщения через специфическое соединение — к примеру, телефонную или телексную линию.

Как можно измерить сложность передачи сообщения?

Шеннон предположил, что сложность коммуникации можно выразить с помощью понятия «неожиданное значение». Как измерить неожиданное значение букв алфавита?

Мы знаем, что следующий символ, который перед нами появится, будет буквой. Мы знаем также, что алфавит состоит из 26 букв. Таким образом неожиданность для нас будет выражаться фактом, что каждый символ состоит из одной из 26 возможных букв. Когда мы видим букву, неожиданность для нас будет ограничена пределом, что перед нами — именно эта буква, а не любая другая из 25 возможных.

Выразить теорию Шеннона можно так: каждый символ — это макросостояние, которому могут соответствовать 26 различных микросостояний, то есть отдельных букв. Каждый символ обладает определенной степенью неожиданности, которая выражается его способностью быть одной из этих 26 букв. Получение отдельной буквы, таким образом, содержит неожиданное значение, которое исходит из факта, что оно исключает появление остальных 25 букв.

Это позволяет точно выразить сложность коммуникации: отдельный символ — это макросостояние, неожиданное значение которого определяется тем, сколько микросостояний ему соответствуют.

Шеннон долго сомневался, как назвать эту величину. Он рассматривал возможность использования слова «неуверенность» и слова «информация». Математик Джон фон Нейман, известный как отец логической структуры современных компьютеров, пытался убедить Шеннона, что это неожиданное значение нужно назвать энтропией, поскольку сходство с концепциями термодинамики было настолько удивительным, что он, как отмечалось, спорил с Шенноном: «это даст тебе большое преимущество в спорах, так как в любом случае никто не знает точно, что такое энтропия».

В конце концов Шеннон выбрал формулировку «информационная энтропия», но так как никто не знал, что такое энтропия, его теория вошла в историю как теория информации.

В реальности, следовательно, «информационное общество» — это на самом деле «общество энтропии» — общество невежества и беспорядка.

Проще всего дать определение этой концепции информации, если мы ограничим себя общением с помощью специального алфавита — бинарных чисел. Когда мы применяем бинарные числа, как сегодня это делается везде в коммуникации и компьютерной индустрии, у нас есть только два фундаментальных значения для выражения себя: 0 или 1.

Будучи макросостоянием, бинарная цифра соответствует только двум равновероятным микросостояниям. Когда мы получаем бинарный символ, наше неожиданное значение ограничено: или/или. Но ведь именно эта степень неожиданности, когда мы различаем две одинаково равные возможности, была открыта Сциллардом и в дальнейшем именовалась «один бит»: информация, которая выражается ответом на вопрос «да/нет», то есть разницей между двумя возможностями. Когда мы получаем бит, мы получаем кусочек информации, который соответствует разнице между двумя микросостояниями. Таким образом, прежде чем неожиданность станет существенной величиной, нам придется получить хотя бы несколько бит.

В символе, который известен как часть алфавита, содержится несколько большее количество информации. Здесь прибытие определенной буквы исключает не только одну-единственную другую возможность, а целых 25. Таким образом, когда мы получаем одну букву, мы получаем определенное количество бит — а точнее, 4 или 5.

На практике, конечно, все несколько сложнее. Язык отличается избыточностью — в нем есть лишние символы. Нам не нужно знать все буквы, чтобы мы могли угадать слово в «Колесе фортуны». Таким образом, на практике буквы обладают в среднем меньшей информативностью, чем пять бит. В датском содержание информации на одну букву составляет около 2 бит, а в более систематизированном языке, таком, как немецкий, значение одной буквы уменьшается до 1,3 бит. Более того, буквы используются неодинаково, следовательно, получив «А», мы получим не так много информации, как получив «Z». В среднем каждое микросостояние (буква) обладает вероятностью, которая пропорциональна числу различных микросостояний. Но вероятность каждой буквы пропорциональна и ее частоте использования, которая также связана с числом различных микросостояний в целом. Как знают участники «Колеса фортуны», информационная ценность буквы обратно пропорциональна частоте ее использования. Чем реже встречается буква, тем больше информации содержит ее присутствие.

Вооруженный этим точным определением информации, которая может быть измерена как количество бит, Шеннон смог получить несколько очень полезных уравнений, с помощью которых можно управлять телефонными линиями и размерами кабелей. Его основное заключение было таким: всегда можно передать сообщение без ошибок, если имеется достаточная полоса пропускания.

Полоса пропускания выражает способность коммуникационного канала передавать информацию, определяемую в количестве бит в секунду. Телефон, к примеру, может передавать 4000 бит в секунду, тогда как телевидение передает 4 миллиона — в тысячу раз больше. Хороший радиоприемник находится примерно посередине с его 16000 бит в секунду.

Шеннон знал, что если полоса пропускания будет больше, чем информационное содержание единицы сообщения, это сообщение можно будет передать без потерь.

Это очень полезно знать, если вы зарабатываете себе на жизнь, продавая людям телефонные линии.

Но это не слишком соотносится с информацией в повседневном понимании. Как мы все знаем, можно вести очень продолжительный разговор и при этом не передавать почти никакой информации — или написать огромное количество слов, которые не будут нести в себе никакого определенного значения.

Термин «информация» не слишком волновал Шеннона. На самом деле он вообще не слишком любил это слово и подчеркивал, что разработанная им теория — это теория коммуникации, теория о передаче информации, а не о значении информации. Данный объем информации может содержать глубокие откровения — или просто откровенный вздор. Это не играет роли — телефонный счет будет одинаковым и в том, и в другом случае.

Но это не делает аналитическую работу Шеннона откровенным вздором. То, что Шеннон называл «информацией», столь же реально, как и то, что Клаузиус называл энтропией. Телефонный звонок имеет свою цену. Чтобы ваша теща могла пощебетать, необходимо передать сигнал. Но все это может и не иметь ничего общего с содержанием информации.

Информация — это мера всего, что она могла бы сказать, а не того, ЧТО она сказала.

Информационное содержание в коммуникации — это выражение объема, который мог бы быть передан — а не того, который был передан на самом деле. Точно так же и энтропия при определенной температуре — это выражение того, сколькими разными способами могут расположиться молекулы, не приводя ни к каким изменениям, информация — это выражение того, сколькими способами могут расположиться буквы, чтобы не потребовался еще один кабель.

Термодинамика имеет дело с макросостояниями, которые интересуют людей: тепло. Теория информации имеет дело с макросостояниями, которые интересуют телефонные компании: символы.

Но в определении информации, данном Шенноном, есть кое-что странное. Оно устраняет саму идею значения и ограничивается только тем значением, которое могло бы присутствовать — но вовсе не обязательно присутствует. Если сравнить это с нашим повседневным пониманием информации, то данное определение может показаться очень скудным. С другой стороны, оно невероятно точное, и мы могли бы простить ему за эту точность определенное упущение.

Тем не менее термин «информация» не всегда может быть особо точным. Это в огромной степени субъективная концепция: речь идет о том, насколько неожиданным для нас может оказаться сообщение. Она говорит нам о том, что буква «А» содержит в себе определенную информационную ценность, так как мы знаем: вместо нее могла дойти любая другая из 25 букв алфавита — но не дошла: дошла буква «А».

Но что, если бы нам было неизвестно, что мы имеем дело с буквой из 26-буквенного алфавита? Сколько информации содержала бы «А» в этом случае? Определение информации Шеннона ничего нам об этом не говорит.

Информация имеет определение только тогда, когда мы определили, кто говорит, с кем говорит и в каком контексте. Мы не можем дать определение информации Шеннона, пока не будем знать, какие допущения по обоюдному согласию принимают передатчик и приемник. Таким образом Шеннон предпринимает странный маневр: сначала он выбрасывает любые разговоры о значениях — а затем дает определение информации как зависящей от столь фундаментальных связей, что мы о них даже не говорим.

Если мы не будем знать, сколько микросостояний соответствует каждому макросостоянию, мы вообще не можем вести речи об информации. Только когда мы определяем макро- и микросостояния, мы можем знать количество информации. Точно так же, как и в случае энтропии.