Глава 4. Глубина сложности
Глава 4. Глубина сложности
«Какое яблоко?» — Сет Ллойд был быстр. Очень быстр. На самом деле ему удалось выдать довольно хорошую практическую шутку.
Физик из Калифорнийского института технологии стоял спиной к затихшей аудитории. Он писал на доске формулы и одновременно объяснял, как ему удастся вывести сущность всех вещей из определения информации.
Был день пятницы 20 апреля 1990 года, и в начале недели Джон Вилер предсказал, что к этому моменту все собравшиеся получат объяснение того, как сложена Вселенная. Конечно, в Институте Санта Фе этого пока не произошло, но многие физики ощущали, что конференция по сложности, энтропии и информационной физике действительно приближалась к чему-то интересному. «Все от бита», — как объяснял это седеющий провидец Джон Вилер, имея в виду вывод теории вещей из теории информации.
Сет Ллойд начал свою лекцию «Логические разногласия» рассказом о яблоке и его самости. «Я хочу попытаться сделать то, что предложил Вилер — и вывести это из бита», — сказал Ллойд и откусил от яблока (игра слов: bit — бит и bite — кусать).
Но вскоре он переключился со своего материального яблока к более теоретическим материям, обернутым в очень длинную серию уравнений, которые Ллойд царапал на доске, а пара дюжин физиков в это время старались не уснуть в конце этого последнего дня недели.
Во время одного из длинных вычислений Ллойда физик Джон Денкер из знаменитой лаборатории AT&T Bell Laboratories смел яблоко с кафедры Ллойда. Оно исчезла. Другой его коллега из Bell Labs Йан Ле Кан ухватился за идею и прервал поток слов Сета Ллойда, все еще вычислявшего. «Как конкретно это понятие относится к самости яблока?» — его вопрос не демонстрировал особой проницательности, но все затаили дыхание, ожидая реакции Ллойда.
Сет Ллойд повернулся к аудитории, чтобы ответить, но он тут же заметил ловушку. «Какое яблоко?» — спросил он, повернулся обратно к доске и продолжил вычисления.
Когда в следующий раз его прервали, на этот раз более серьезным вопросом, он повернулся к аудитории и заметил: «Я отказываюсь отвечать на какие-либо вопросы, пока не получу назад свое яблоко!». Но к этому моменту яблоко снова было на кафедре, а аудитория старалась притвориться, что не имеет понятия, о чем он говорит.
Когда лекция закончилась, начался шум. Дойн Фармер, возглавлявший группу нелинейных исследований в лаборатории Лос Аламос возле Санта Фе, попытался завладеть яблоком Ллойда. «Я очень хочу это яблоко», — прокричал он, но Ллойд не собирался просто так сдаваться. Яблоко раздора завершило свой жизненный путь на полу лекционного зала Института Санта Фе, раздавленное на кусочки.
На этой неделе из бита ничего не было выведено. Но перспективы того, что это будет действительно так, насколько реальны, что ученые уже устроили соревнование: кто решит загадку сложности.
«Сложность занимает огромную территорию, которая простирается между порядком и хаосом», — написал в своей провидческой книге «Сны разума» (1988 г.) физик Хайнц Пагельс. Факт состоит в том, что спектр возможностей, которые предлагают нашей космологии порядок и беспорядок, очень невелик.
Полный беспорядок не представляет интереса. Бардак, не стоящий того, чтобы о нем говорили, так как мы не можем дать ему убедительного описания. Беспорядок говорит сам за себя — и добавить к этому нечего.
Аналогично и полный порядок не представляет большого интереса. Решетка атомов в кристалле, методично организованная схема повторений. Все, что можно сказать о таком порядке, может быть сказано очень быстро и сразу становится тривиальным.
Таким образом, должна существовать третья возможность, которая не будет ни полным порядком, ни полным беспорядком, чем-то, что определенно не будет тривиальным и будет при этом сложным, но не хаотичным: сложность.
Территория между порядком и хаосом охватывает практически все, о чем стоит говорить, все, о чем мы говорим и с чем сталкиваемся в своей повседневной жизни: живые существа, изменения погоды, прекрасные ландшафты, дружеские разговоры, вкусные салаты, веселье и игры.
Возьмите что-либо написанное. Если оно находится в полном порядке и предсказуемо, оно представляет мало интереса. В тексте, который состоит из повторения серий букв, к примеру, АААААААААА — масса порядка. Алгоритмическая информационная теория объясняет, почему это скучно. Не составит никакой сложности вывести краткое описание, которое позволит воспроизводить подобный текст: 10 раз А.
И наоборот, полностью беспорядочный текст тоже не представляет особого интереса: LIUQWEGAEIUJO. Согласно алгоритмической информационной теории, самая короткая программа, которая может воспроизвести эту цепь случайных букв — сама эта цепь. Потому что это случайная цепь букв.
Широкому распространению алгоритмической информационной теории всегда мешал тот факт, что в тексте, написанном обезьяной, всегда будет гораздо больше информации, чем в тексте, написанном знаменитым писателем. Но это естественно, так как в том, что пишет обезьяна, нет никакой системы (скорее всего, при любой системе оценки), так что написанное ею не получится выразить более кратко. В то же время авторский текст всегда содержит определенную избыточность — текст, в котором присутствует значение, всегда можно выразить несколько более кратко, так как язык содержит определенное количество избыточных символов. Вы мо-ете п-очит-ть, чт- здес- напе-атан-, даже — есмо-ря на — о, что к-ждая — ятая буква — дале-а, вер-о?
Полностью упорядоченный текст содержит очень мало информации и, следовательно, телефонному инженеру будет легко сжать и передать его, в то время как полностью беспорядочный текст потребует очень точного воспроизведения — но даже это не сделает его особо интересным.
Таким образом, смысл и информация не всегда идут рука об руку, если речь идет об отрывках текста. Аналогично и сложность, и информация не могут иметь много общего друг с другом, если иметь в виду физический мир. Конечно, прежде чем мы начнем говорить о смысле сложности, определенное количество информации должно быть представлено. Но количество — это не самое важное.
Информация — это интересная концепция, но она не является особо хорошей мерой сложности.
Научный взгляд на мир характеризуется той же проблемой: он включает в себя порядок и беспорядок, но не эту третью возможность, которая действительно представляет интерес.
Классическая физика Ньютона характеризуется величественным порядком, выраженным в уравнениях, которые могут быть обращены во времени: все описываемые ею процессы настолько точны и постоянны, что они с таким же успехом могут происходить и наоборот. Планеты вращаются вокруг Солнца с таким постоянством, что у нас была бы точно такая же картина, если бы мы могли обратить их движение, чтобы они двигались по своим орбитам в обратную сторону. Механика и другие классические дисциплины физики состоят из обратимых законов, в которых направление времени не имеет значения. Эти законы больше соответствуют тому, что происходит в небе, нежели на Земле, так как они работают только в том случае, если отсутствует трение — сопротивление воздуха и сцепление, которые постоянно присутствуют на Земле. Тем не менее это — единственная поправка, и мы можем ее допустить — во всяком случае, так нас учили в школе.
Но мы можем задать тот же вопрос, который задал американский физик Ричард Файнман: «Являются ли все физические законы обратимыми? Очевидно, что нет! Попытайтесь собрать обратно яичницу-болтунью! Начните крутить фильм в обратную сторону — и всего через несколько минут все начнут смеяться! Самая естественная характеристика всех явлений — это их очевидная необратимость!»
С другой стороны, область физики, которая действительно объясняет трение и другие бесповоротно необратимые процессы, заканчивается полным хаосом. Термодинамика говорит нам, что со временем возрастает энтропия, потому запечатленные в фильме яйца, которые разбиваются о пол, выглядят странными, если прокрутить его наоборот: термодинамика гораздо ближе к нашей повседневной жизни, чем уравнения Ньютона. Но термодинамика заканчивается тепловой смертью Вселенной: все движется к сумраку в сумраке и огромной массе энтропии. В сущности, мир изнашивается. Проходит время, и все постоянно меняется к худшему.
Термодинамика тоже не полностью соотносится с миром вокруг нас: каждую весну деревья вспыхивают целой гаммой красок, пауки выползают из щелей, начинает петь новое поколение птиц. Зимний холод создает дивные ледяные узоры на наших стеклах, осенние ветры приносят постоянно меняющиеся скопления облаков, а летние морские волны лепят непредсказуемые скульптурные формы из песка. В небесах мы видим звезды, которые сияют в темноте пустоты.
Мир не состоит из однородности. Возможно, именно так все и будет в конце, но большинство наших жизней вращаются вокруг факта, что существуют и другие вещи, достойные размышлений, нежели клочья пыли и мытье посуды. Жизнь развивается и — насколько мы можем судить со слов наших предков — становится все более и более сложной.
Так что чего-то не хватает, чего-то совершенно иного, нежели ньютоновский порядок или беспорядок термодинамики — того, что лежит посередине и связано со сложностью. Или со смыслом.
Жизнь всегда была сложной штукой, и сложность всегда была характерна для мира. Так почему же — может возникнуть вопрос — наука внезапно воспылала интересом к тому факту, что мир является явно более сложным, нежели простые круги, которые до сих пор изучали ученые?
Ответ заключается в появлении компьютеров во время и после Второй мировой войны. Компьютеры означали конец того высокомерия, которые ученые демонстрировали по отношению к повседневным явлениям.
Классическая наука, основанная Ньютоном, описывала простой и постижимый мир, состоящий их простых систем, которые можно было понять с помощью простых уравнений. Безусловно, это имело мало общего с тем миром, который обнаруживался за окнами физиков — но их это не особо тревожило: они бы его все равно не поняли.
Ученые всегда проявляли индифферентность к вопросам наподобие тех, которые задают дети: «Почему деревья выглядят так, а не иначе, почему облака похожи на уточек или ягнят, почему мир выглядит не так, как в наших книжках по геометрии?» Или точнее можно выразиться так: ученые не столько проявляли индифферентность, сколько осознавали, что не смогут ответить на подобные вопросы. Им были известны уравнения мира — но у них не было достаточно энергии, чтобы выполнить все подсчеты: если бы ее хватало, они бы их выполнили. Они бы, конечно, поняли, почему облака похожи на животных и вечерний туман придает облик эльфам и троллям…
Обычные вещи настолько сложны, что выполнять для них подсчеты не имеет смысла — во всяком случае, так говорят друг другу ученые. И предоставляют родителям и учителям попадаться в ловушки пытливых отроков.
Но компьютеры все изменили. Внезапно стало возможным выполнять полномасштабные вычисления — и стало очевидно, что даже самые простые уравнения поднимают на поверхность очень сложные решения. Хотя мир и описывается в простых формулах, которые выглядят такими же понятными, как примеры в наших учебниках, выяснилось, что эти формулы — и это при том, что мы еще не закончили вычисления — вдруг оказались исключительно сложными. Умные слова типа «хаос» и «фракталы» — не единственные рассказчики этой истории. Где бы в науке ни начали применяться компьютеры, выясняется, что мы можем генерировать очень сложные миры даже на основе самых простых формул.
Ох, ученые не могли и подумать, к каким моделям могут привести эти формулы — большинство систем оказались несокращаемыми с вычислительной точки зрения. Мы не имеем представления о структуре, пока не проведем вычисления по формуле. Этот феномен является вариацией теоремы Геделя — и очень глубокой. Мы можем рассматривать физические процессы как вычисления, которые превращают простые законы и несколько базовых условий в окончательный результат. Это значит, что многие сложности, которые возникли в теории вычислений, должны также появиться и в описании физического мира. Физические системы также являются несокращаемыми: мы не знаем, где они заканчиваются и заканчиваются ли вообще, пока не вычислим их в рамках самих этих систем. Нет ничего хорошего в грубых вычислениях, в которых мы, к примеру, игнорируем трение — в этом случае мы не узнаем, в каком направлении развивается система.
В 1985 году 24-летний американский физик Стивен Вольфрам написал: «Вычислительная несокращаемость часто наблюдается в системах, исследуемых в математической и вычислительной теории. Эта работа предполагает, что они встречаются также и в теоретической физике».
В течение сотен лет ученые верили, что у них в руках находятся формулы — и простые уравнения ведут к простому же поведению. Но оказалось, что эти формулы несокращаемы с вычислительной точки зрения. Никто не сможет знать их содержания, пока они не будут просчитаны — но никто не собирался высчитывать их в те дни, когда все вычисления выполнялись вручную.
Так что ученые решили ограничиться своими формулами — и закрыли глаза на мир, который находился у них за окном.
Но тем не менее однажды произошло кое-что серьезное. Из простоты вычислений, которая была дана нам компьютерами, появилась сложность. Простые вычисления выполнялись снова и снова в петле, которая известна как «итерация». Простые вычисления привели к огромной сложности, когда они были повторены достаточное количество раз, и когда на компьютерных мониторах по всему миру появилась сложность, ученые выглянули в окно и узрели знакомый вид.
Они поняли, что мир не делится на хорошо упорядоченные формулы и беспорядочный повседневный мир. Они тесно смыкаются! Беспорядок происходит из порядка — и это очень сложный и запутанный процесс.
Появилась новая область, и ученые ринулись в нее. Сложность стала уважаемым предметом даже для ученых. А инструментом для них стал компьютер. «Родилась новая парадигма», — написал Стивен Вольфрам.
Вольфрам установил повестку дня для ученых на ближайшие десятилетия. «Системы, поведение в которых является исключительно сложным, часто встречаются в природе — тем не менее их фундаментальные составляющие части по отдельности очень просты. Сложность создается совместным эффектом многочисленных идентичных компонентов. В физических и биологических системах уже было много открытий, касающихся природы их компонентов — но пока мало известно о механизмах, благодаря которым эти компоненты выступают вместе, создавая общую наблюдаемую сложность.»
Это территория между порядком и хаосом: огромный неоткрытый континент — континент сложности. Предпосылкой его открытия стало то, что мы хотим научиться лавировать между двумя полюсами нашего видения — порядок и случайность, контроль и сюрприз, карта и территория, наука и наша повседневная жизнь.
Нам необходимо проложить путь не просто между порядком и беспорядком в структуре вещей. Сложность возникает на полпути между предсказуемостью и непредсказуемостью, стабильностью и нестабильностью, периодичностью и случайностью, иерархическим и единообразным, открытым и закрытым. Между тем, что мы можем сосчитать и тем, что не можем.
Сложность — это то, что не тривиально. То, что не скучно. То, что мы можем интуитивно ощущать — но не в состоянии выразить.
Все это может казаться очевидным — но самое любопытное то, что прошло не так много лет с тех пор, как влиятельный в международном масштабе и исключительно информированный немецкий физик Петер Грассбергер из Университета Вупперталя вынужден был признать: не существует точного понимания того, что вообще представляет собой сложность.
На 16-ой Международной конференции по термодинамике и статистической механике в Бостоне в августе 1986 года он сказал: «Мы столкнулись с загадкой, что никакая признанная мера сложности не может, к примеру, подтвердить, что музыка Баха является более сложной, нежели случайная музыка, написанная обезьяной».
Единственная общепризнанная мера сложности, к которой в то время мог обратиться Грассбергер — это сложность Холмогорова. Это понятие, которое пришло от одного из трех джентльменов, представленных в предыдущей главе книги со своей алгоритмической информационной теорией.
В 60-е годы Андрей Холмогоров предположил, что сложность объекта может быть измерена путем оценки длины самого короткого описания этого объекта, то есть смой короткой из всех возможных последовательностей бинарных чисел, представляющих этот объект. Холмогоров предположил, что чем длиннее будет это самое короткое объяснение, тем большей степенью сложности обладает объект. Но, конечно, это значит всего лишь то, что случайная последовательность обладает наибольшей сложностью, так как случайность не может быть выражена в более краткой форме.
Холмогоров приравнял сложность к случайности, а, следовательно, и сложность к информации. Это не самая лучшая идея, так как благодаря ей обезьяна, с сумасшедшим усердием барабанящая по клавишам, порождает больше сложности, чем творения Иоганна Себастьяна Баха.
Таким образом, с сложностью Холмогорова что-то было явно не так.
Но в то же время эта мера является самой привычной. И потому в 1986 году возникла проблема. «Интуитивное представление о сложности структуры не совпадает с единственным объективным определением сложности любой специфической структуры, которое видится возможным (имеется в виду определение Холмогорова)», — объясняет Грассбергер. — Это загадка, известная уже в течение определенного времени, хотя создается впечатление, что в печатном виде она появилась только недавно».
Бернардо Хуберман и Тад Хорр, ученые в исследовательском центре Rank Xerox, Пало Альто, Калифорния, в 1985 году указали, что сложность должна лежать где-то между порядком и беспорядком, и, следовательно, ее невозможно измерить в качестве алгоритмической сложности информации. Они предложили другой способ измерения сложности, который предполагал, что она является наибольшей в системах, в которых не слишком много и не слишком мало порядка.
Грассбергер позже осознал, что подход Хубермана и Хогга был не нов: еще в 1962 году его выразил Херберт А. Саймон, один из основателей исследований искусственного интеллекта.
Тем не менее нам не придется возвращаться во времени дальше 1986 года за тем, что ведущий международный физик вроде Питера Грассберга признал полной новинкой предположение о том, что сложность лежит между порядком и хаосом и что она довольно существенно отличается от случайности, которая измеряется информацией Шеннона.
Тем не менее перед тем, как лекция 1986 года была напечатана, Грассбергер, один из самых благородных представителей физики, демонстрировавший вежливость и скромность, в доказательной части прибавил извинения: «В то время, когда я писал это, к сожалению, я не был знаком с понятием С.Х. Беннетта о «логической глубине».
А в предыдущем году произошел великий прорыв в изучении сложности.
«У меня есть критерий смысла», — робко высказался Чарльз Беннетт во время обеда в «Паскале» в Санта Фе в апреле 1990 года. Беннета и его близкого коллегу из IBM Рольфа Ландауэра попросили объяснить, что исследования вычислительной теории могли бы рассказать о нашей повседневной жизни.
«Серия подбрасываний монетки может иметь высокую информационную составляющую — но мало пользы. Эфемерида, дающая информацию о положении Луны и планет на каждый день в течение столетий, содержит не больше информации, чем уравнения движения и изначальные условия, на основе которых она была высчитана — но она позволяет владельцу не трудиться над тем, чтобы самому пересчитывать эти положения, — написал Чарльз Беннетт в 1985 году, когда представлял свои критерии смысла. — Ценность сообщения, таким образом, скорее всего, содержится не в его информации (его совершенно непредсказуемой части) и не в его очевидной избыточности (словесные повторения, неравная частота цифр), но скорее в том, что может быть названо его скрытой избыточностью — это части, которые можно считать предсказуемыми лишь с натяжкой. Другими словами, ценность сообщения представляет собой объем математической или другой работы, которая уже выполнена тем, кто его послал, который принимающей стороне не придется повторять».
Логическая глубина. Это название критерия Беннетта: логическая глубина сообщения — это мера его значения, его ценности. Чем больше сложностей у отправителя, тем больше логическая глубина сообщения. Чем больше «вычислительного времени» он потратил — с помощью своей головы или компьютера — тем большей будет ценность сообщения, так как в этом случае отправитель избавляет получателя от необходимости самому выполнять эту работу.
Больше или меньше времени придется в результате потратить — не столь важно (для любого, кроме телефонной компании). Важно то, сколько времени было потрачено на создание сообщения для передачи.
В 1985 году Беннет предположил, что сложность может быть измерена как логическая глубина. Она также может быть использована как критерий, с помощью которого мы сможем определить, сколько смысла содержится в сообщении. Сложность нужно измерять не продолжительностью сообщения, а той работой, которая предварительно была выполнена. Смысл не возникает из информации в сообщении — он возникает из информации, которая была отсеяна в процессе формулирования сообщения, которое имеет определенную информационную составляющую.
Важно не то, чтобы сказать, как можно больше. Смысл в объеме размышлений перед тем, чтобы что-то сказать.
«Если говорить неофициально, логическая глубина — это количество шагов дедукции, или причинная связь, которая соединяет вещь с ее вероятным источником», — пишет Беннет. Но можно дать и более точное определение.
Мы начинаем с алгоритмической информационной теории: сообщение можно сжать до самой возможной короткой формы, до самого короткого описания, которое позволит машине Тьюригна сформулировать сообщение. Самая короткая форма — это мера действительного количества информации, присутствующей в сообщении. Но машине Тьюринга потребуется определенное время, чтобы сформулировать само сообщение, базирующееся на самом коротком возможном описании. К примеру, когда законы, управляющие движением планет, нужно перевести в таблицу солнечных затмений. Сжатую информацию нужно распаковать. Это требует времени. Это время и будет измеряться как логическая глубина.
There is a bus every seven minutes. The buses depart from the bus station twelve minutes before they get to my bus stop. The first bus leaves at five. It is now half past six. When is the next bus? At 17:54.
Каждые 7 минут приходит автобус. Автобусы отъезжают со станции за 12 минут до того, как они доходят до моей остановки. Первый автобус отправляется в пять. Сейчас половина седьмого. Когда будет следующий автобус? В 17:34.
Информационная составляющая «17:34» не очень велика — сама по себе. Но время вычисления довольно значительно, особенно если я только выхожу из двери. Кто бы ни поработал уже над вычислением результата, может помочь, сообщив его другому человеку. Эта помощь сэкономит получателю определенное вычислительное время — она содержит смысл.
Логическая глубина — это мера процесса, который ведет к определенному количеству информации, а не к количеству информации, которая была произведена и может быть передана. Сложность, или смысл — это мера процесса производства, а не продукта, скорее рабочего времени, а не результата работы, информации, которая была отсеяна, а не оставшейся информации.
Понятие логической глубины, следовательно, будет перпендикулярно информационному содержанию. Все обладает номинальной стоимостью в отношении информационного содержания. Но номинальная стоимость не всегда может многое нам сообщить о глубине — насколько сложно было ее создавать.
За данным сообщением или продуктом может стоять огромное количество работы или мыслительных усилий. Тем не менее они могут оставаться незамеченными. Сложно заставить вещи выглядеть простыми. Ясность требует глубины.
С другой стороны, ерунда не отличается глубиной: вздор — это просто беспорядочная пустая болтовня, которая не может быть выражена более кратко, так как в ней нет порядка. Следовательно, не существует разницы между самой возможно короткой программой для его повторения и самим этим вздором. Так что не потребуется никакого вычислительного времени — только то время, которое потребуется, чтобы произнести этот вздор.
У обычного беспорядка тоже нет глубины, так как беспорядок нельзя описать короче, чем он сам себя описывает, просто будучи беспорядком.
Суть предложения Беннетта заключается в том, что любые осмысленные или сложные количества можно описать в более короткой форме, хотя это и необязательно: они могут быть сжаты в виде краткого рецепта.
Живой организм можно определить по нескольким генам — но, чтобы это сделать, потребуется время. Великую оперу можно написать, используя всего несколько нот — но, чтобы ее поставить, потребуется много работы. Годичную таблицу фаз луны можно высчитать по простому алгоритму. Но на это уйдет время.
Беспорядок, вздор и то, что просто срывается с языка, нельзя, однако, описать более кратко. Самая короткая программа будет равняться самой этой болтовне.
Понятие Беннетта указывает, что сложность — это нечто, для возникновения чего требуется время. Время, за которое создается порядок. Время, за которое отсеивается информация, чтобы пришлось меньше ее обрабатывать. Вычислительное время на компьютере или эволюционное время на Земле.
Термодинамика, к примеру, позволяет живым существам само организовываться. Им, безусловно, приходится перерабатывать большое количество пищи (тем самым экспортируя энтропию), но зато они могут развиваться и становиться настолько сложными, что обучаются читать книги. Но это происходит медленно: чтобы живые существа само организовались, требуется время. Биологическая эволюция была процессом, который занял много времени — и для того, чтобы человек вырос достаточно большим для того, чтобы читать книги, тоже нужно время. Беннетт сформулировал закон «медленного роста» для сложных систем. Для того, чтобы вещества организовались в живые существа, к примеру, требуется время. Много времени. Но это возможно. На земле это произошло в течение нескольких миллиардов лет.
С другой стороны, смерть и разрушение могут происходить мгновенно — и при этом почти без затрат времени возникают большие объемы информации. Мы можем создать огромное количество информации, подбрасывая монетки или разбивая на кухне тарелки. Чтобы описать результат, потребуется много информации. Но это не слишком интересно — в этом нет глубины.
Понятие логической глубины является весьма значительным. Оно подразумевает, что для понимания сложности главным будет не номинальная стоимость информации — а предыдущий процесс отсеивания информации. В информации важно то, что раньше присутствовало — а теперь отсутствует.
Большинство того, что мы считаем стоящим обсуждения, включает в себя очень запутанные вещи и мысли: много глубины, но, возможно, не так много будет видно на поверхности. В процессе мы отсеиваем большое количество информации, и остаться ее может не так много. Структура с богатым прошлым. Интересными вещами в жизни могут оказаться вовсе не те, которые приходится долго описывать и объяснять, а те, для постижения которых потребовался долгий опыт.
Но в понятии логической глубины есть и серьезная проблема. Она предполагает: то, о чем мы говорим, может быть приравнено к результату вычислений. Это может иметь смысл по отношению ко многим материальным величинам, как живым, так и неживым. Многие физические и биологические системы могут быть поняты как результат последовательности законов, которые действуют через процессы, описанные в этих законах. Другими словами, на компьютере мы можем симулировать эволюцию системы. Затем мы можем задать вопрос: сколько времени потребовалось на вычисления. Чем больше времени, тем больше глубина системы.
Биологическое существо является результатом очень длительных эволюционных вычислений. Изобретательные научные законы могут быть результатом очень длительных умственных усилий. «Да» или «нет» могут быть результатом огромного количества сложного опыта.
Но мир не состоит целиком из вычислений, не говоря уже о машинах Тьюринга. Самые интересные вычисления в мире происходят в «компьютере», который работает совершенно по-другому, нежели машина Тьюринга — в мозгу. Возможно, все математические и символические вычисления, которые производит мозг, могут быть воспроизведены машиной Тьюринга. Но эта машина не сможет вычислить все: как показал Гедель, человеку известна истинность утверждений, которые не могут быть доказаны математическими символами. В конечном итоге мы отсеиваем информацию способами, не известными машине Тьюринга. Способами, не известными нам самим.
Так что, если рассматривать все объекты как результат компьютерных вычислений, остается кое-что неудовлетворительное на интуитивном уровне. Знаменитым писателям и композиторам это совершенно не нравится (хотя идея логической глубины признает их превосходство над обезьянами и другими акробатами на клавиатуре).
Другую проблему представляет привязка понятия Беннетта к алгоритмической информационной теории и ее понятием кратчайшей возможной программы. Что такое кратчайшая возможная программа? Работа Чаитина, которая базируется на теореме Геделя, говорит, что мы можем никогда не узнать, действительно ли мы нашли самое короткое описание того, как сделать тот или иной объект. И вычислительное время может оказаться совершенно не таким, как ожидается, если в нашем распоряжении оказался неверный алгоритм. Необоснованно коротким, или необоснованно длинным.
Фольклор разных стран мира полон примерами того, как люди могут делать что-то очень простое очень сложным способом. Современное общество может похвастать огромным количеством профессионалов, которые являются экспертами по достижению простых решений исключительно сложными способами: бюрократы, академики и солдаты, к примеру. Математические задачи составляются учителями, у которых отлично получается сделать работу над интуитивно понятным арифметическим примером очень сложной.
Мы стремимся приписывать высшую степень сложности тем вопросам, которые считают сложными государственные служащие.
Фундаментальная проблема в опыте Геделя-Чаитина является очень глубокой. Формальными методами мы никогда не сможем решить, является ли глубина реальной или мнимой. Это фундаментальная проблема нашего описания мира — и та или иная идея не должна пугать нас только потому, что она приводит к подобной проблеме. Частично так происходит потому, что представление Беннетта требует объездного пути через компьютер, где и возникает эта проблема — хотя эта идея «объезда через компьютер» конечно же возникла для того, чтобы оформить это представление очень точно. Тем не менее это не так, раз уж теорема остановки Тьюринга показывает, что время вычисления для той или иной программы не может быть установлено иначе, чем посредством выполнения этого вычисления.
Но центральный момент понятия логической глубины Беннетта — это не способ, которым ее можно подсчитать. Центральный момент — это выяснить, сколько информации было отсеяно в процессе. Именно эта идея и стала революционной — а не определение понятия логической глубины.
В течение многих лет Ганс Кун, немецкий химик из Геттингена, разрабатывал родственную идею, применимую к биологическим системам. В попытке понять происхождение и эволюцию жизни он сфокусировался на том, как по пути эволюции отсеивается информация. Согласно Куну, биологическая эволюция состоит из серии выборов, связанных с отношениями организма и его окружения. Это окружение подвергает организм давлению, и его выбором становится действие — чтобы выжить. Его гены содержат опыт выживания — в противном случае не было бы ни организмов, ни генов.
Чем дольше выживает организм, тем большим будет его опыт — и тем более ценными становятся его гены. Поэтому важно не то, сколько у него генов — другими словами, насколько длинная у него ДНК. Самое интересное — это богатство опыта, которое умещается в этих генах.
Информация, содержащаяся в генах организма, имеет ценность, которая пропорциональна массе сжатого в них опыта. Нам интересна не номинальная ценность информации — то есть размер генов — а та информация, которая была отсеяна. «Это качество составляет знание, где «знание» измеряется общим количеством отсеянных бит информации», — писал Кун. Следовательно, биологическое знание можно просто определить так: это — отсеянная информация.
Это также позволяет решить проблему, которая волновала многих ученых, когда была открыта. У лилии намного больше ДНК, нежели у человека. Да, они красивее — но уж точно не умнее нас!
Предложенная Куном модель происхождения и эволюции жизни проблематична — но она тесно связана с более многообещающими моделями, которые развили Манфред Эйген и его ассистент Петер Шустер.
Идея биологической эволюции Куна очень глубока, причем глубина ее не зависит от предложенной им модели.
Коренная разница между точками зрения Беннетта и Куна заключается в теоретическом статусе. Идея Куна является исторической и фактической, в то время как идеи Беннетта являются логическими и теоретическими. Кун в основном говорит об информации, которая была отсеяна в реально существующих процессах, в то время как Беннетт говорит об информации, которая должна быть отсеяна в теоретической реконструкции процесса. И разница здесь вовсе не обязательно заключается в том факте, что Кун говорит о биологии, а Беннетт в основном о физике. Подход Куна позволяет избежать сложностей, которые свойственны моделями, связанными с компьютерами. Следовательно, это будет применимо к более физическому подходу — и это как раз то, что лежит за понятием термодинамической глубины.
«Этот тезис был опубликован слишком рано, но, к сожалению, так сложились обстоятельства», — говорит Сет Ллойд об одном из самых многообещающих трактатов, опубликованных за многие года. «Сложность как глубина термодинамики» появилась в «Анналах физики» в 1988 году.
Работа была написана Ллойдом и его научным руководителем в Университете Рокфеллера Хайнцем Пагельсом — автором «Сны разума», книги, которая в 1988 году объяснила суть необходимости теории сложности, книги, которая соединила в себе огромные научные знания физических проблем с философской точкой зрения на предмет — редкое среди представителей естественных наук качество. Более того, она исключительно интересно написана и ее легко понятные научные отчеты приправлены весьма информативными автобиографическими анекдотами. Эта прекрасно написанная книга гармонично следует в русле предыдущих успешных работ ученого, которому удалось представить физику широкому кругу читателей — книг «Космический код» и «Идеальная симметрия». Она стала отличным завершением великолепной писательской карьеры.
Хайнц Пагельс погиб летом 1988 года, когда они вместе с Сетом Ллойдом занимались альпинизмом в горах Колорадо.
Вот почему тезисы Ллойда о сложности, которые он разрабатывал в своей диссертации под руководством Пагельса, появились в печати слишком рано и под давлением. Этот факт может оказать влияние на всю историю науки, так как мир физики не слишком одобрительно относится к идеям, которые еще не дозрели до того, чтобы стать физическими. Физиков интересует не то, что имеет значение в мире, а то, что может стать объектом их физических теорий. Наука — это искусство возможностей. Поэтому не принято запускать в обращение теории, прежде чем не станет окончательно ясно, что они действительно являются плодотворными и могут быть развиты в виде формальных описаний, которые далее могут развивать другие люди. В свете этого идея термодинамической глубины была опубликована слишком рано.
Ясно, что понятие термодинамической глубины выглядит просто как понятие для описания сложности. Но также ясно и то, что трактат из «Анналов физики» не включает в себя удовлетворительного объяснения того, как можно теоретически сформулировать это понятие.
Термодинамическая глубина — это просто идея об определении сложности как количества информации, исключаемой в процессе, который приводит к существованию физического объекта. Это понятие носит скорее исторический, нежели логический характер.
Теперь проблема заключается в определении этой глубины. Как узнать, сколько информации было отсеяно во время подобного процесса? Для любых объектов, за исключением самых тривиальных, это будет непростым делом. История вещи нам не известна. Мы не присутствовали при том, как она появилась в мире.
Ллойд и Пагельс пытались решить эту проблему, указывая на наиболее вероятную историю. Вместо того, чтобы искать самую короткую программу, способную воспроизвести объект (понимаемую как описание в битах), нам стоит поискать наиболее вероятный способ, благодаря которому возник этот объект. Эта история будет базироваться на существующих научных теориях о процессах, которые могут привести к возникновению подобных объектов. Объем информации, которая отсеивается в ходе такого процесса, измеряется не количеством вычислительного времени, а теми термодинамическими и информационными ресурсами, которые, возможно, были при этом использованы.
Этим немедленно обеспечивается решение важной проблемы в определении сложности: естественное требование любого описания сложных систем — это то, что присутствие двух образцов не подразумевает двойной глубины по сравнению с присутствием одного образца. Ллойд и Пагельс писали: «Сложность должна быть функцией процесса — обычной сборкой, которая привела к существованию объекта. Если физическая сложность является мерой процесса или набора процессов, в ходе которых набор начальных состояний развивается до финального состояния, то 7 быков будут не более сложными, чем один бык. Чтобы эволюционировал один бык, Земле потребовались миллиарды лет — но один бык и несколько покладистых коров произведут семь быков достаточно быстро».
Проблема заключается в том, чтобы превратить эти интуитивно убедительные идеи в понятные и измеримые величины. Эта проблема так и не была решена.
В своей статье 1988 года Ллойд и Пагельс попытались установить термодинамическую глубину как разницу между двумя версиями энтропии объекта: энтропии, измеренной приблизительно, и энтропии, измеренной более точно. Приблизительная энтропия — это обычная термодинамическая энтропия, которая говорит нам: есть многое, чего мы не знаем, когда просто описываем макросостояния, к примеру, температуру. Более точная энтропия — это энтропия, которой обладает демон Максвелла: демону о молекулах газа известно больше, чем нам — нам известны всего лишь такие термодинамические состояния, как температура и давление. Демон знает — и может менять — целый ряд микросостояний, а, следовательно, он выводит газ из состояния баланса, которое исчерпывающе описывает приблизительная энтропия.
Так как термодинамическая глубина является функцией разницы между точной и приблизительной энтропией, она говорит нам, насколько далека система от баланса. Если система находится в равновесии со своим окружением, она должна быть «такой же теплой», как и окружение. Позволив системе охладиться, мы не сможем выполнить никакой работы. И наоборот — в систему не нужно добавлять никакой энергии, чтобы поддерживать ее в настоящем состоянии. Мертвая материя находится в равновесии со своим окружением, в то время как живые существа далеки от равновесия: им всем нужно что-то есть, чтобы жить.
По мнению Ллойда и Пагельса в этом случае система является сложной только в том случае, если она не находится в равновесии, так как когда она в равновесии, приблизительные величины скажут нам все, что мы хотим узнать о системе: когда движение представляет собой случайное тепловое движение, нам будет неинтересно знать больше о движении молекул, нежели может рассказать температура. Точная энтропия настолько же великолепна, как и приблизительная энтропия. Это полностью соответствует нашим интуитивным ожиданиям насчет того, что беспорядок не является сложным.
Аналогично, высокоорганизованные системы тоже не обладают большой глубиной. Характерной чертой порядка является то, что при его описании в более высоких терминах не происходит большой потери информации. Организованную систему можно основательно описать в широких терминах. В конце концов порядок означает, что каждое макросостояние соответствует всего нескольким микросостояниям. Тотальный порядок означает: для каждого макросостояния — одно микросостояние. В кристаллической решетке атомы находятся именно там, где должны находиться. И если описывать их в соответствии с макросостоянием, не будет никакой энтропии. И опять-таки это означает, что полностью упорядоченные состояния не обладают глубиной.
Это очень важная идея. Расстояние от равновесия — вот что важно. Нечто полностью упорядоченное или полностью беспорядочное является стабильным по определению. Кристаллы соли изменяются только в растворе. Единственные изменения, которые происходят с газом при постоянной температуре, происходят через движение на микроскопическом уровне — но это не представляет для нас никакого интереса: на макроуровне ничего не меняется.
Термодинамическая глубина объекта говорит нам о том, что у этого объекта есть история. С ним произошло что-то, что вывело его из самоподдерживающегося состояния, было ли это состояние обычным порядком без движения или тотальным хаосом, о котором нельзя ничего сказать, кроме температуры, которая его характеризовала.
Изящные идеи — но, к сожалению, никому не известно, как измерить разницу между точной и грубой энтропией.
Обсуждения того, каким образом можно описать термодинамическую глубину, всегда заканчиваются разговорами о количестве вычислительных циклов компьютера: это именно та мысль, которая лежит в понимании логической глубины Беннетта. Следовательно, исчезает сам смысл термодинамической глубины — что это понятие определяется скорее действительной физической историей, нежели логическими реконструкциями. Более того, снова проявляется вся скорбь Геделя: мы никогда не сможем узнать, получили ли мы самое короткое из всех возможных описаний.
Сила и слабость понятия термодинамической глубины заключается в том, что она является исторической. Это значит, что мы избегаем проблемы невозможности узнать самую короткую программу. Если нам нужно выдать не самую короткую из всех возможных программ, а просто описание процесса, действительно имевшего места быть, проблема Геделя-Тьюринга-Чаитина исчезает в принципе. Теперь остается только одна проблема — выяснить, каким образом вещи действительно появились на свет. И тогда мы будем знать, насколько они глубоки.
(Под этим имеется в виду, что процессы, которые «происходят по кругу», будут иметь большую глубину, даже несмотря на то, что огромное количество отсеянной информации на самом деле не будет оказывать никакого эффекта на конечный результат. Процессы, в ходе которых происходит поверхностное отсеивание информации, могут на самом деле обретать большую глубину — а процессы, в которые вовлекаются другие, глубокие процессы, могут внезапно обретать большую глубину — и при этом на самом деле ничего не значить. Рольф Ландауэр описал это так: «При таком подходе обломки камня, которые несут на себе следы человеческой деятельности, обременены всей историей человеческой эволюции и будут обладать гораздо более высоким уровнем сложности, нежели аналогичные фрагменты, являющиеся результатом естественной геологической вентиляции». В 1989 году Войцех Зурек попытался определить «минимальную термодинамическую глубину», в которой для определения глубины объекта применяется не его реальная история, а самая короткая история из всех возможных. Как только мы применим этот метод, мы переходим с исторического на логический уровень, но польза очевидна: термодинамическая глубина становится идентичной разнице алгоритмической сложности между начальной точкой и результатом. Мы теряем историко-фактическую перспективу — но получаем ясность, которая, возможно, в конечном итоге обещает перспективу оттачивания понятия термодинамической глубины. Результаты Зурека важны, так как неточность является ахиллесовой пятой этого понятия).
Публикация теории сложности как термодинамической глубины в незавершенной форме в 1988 году имела свою цену. В теоретической физике незамедлительно следуют жесткие санкции, если ты не представил все в лучшем виде. Проблема квантификации этих понятий заставила многих физиков просто пожать плечами — несмотря на их интуитивную ясность. Сегодня у нас нет количественного понятия сложности — понятия, которое позволило бы нам измерять сложность. Таким образом, это пока не та сфера, с которой физики стали бы считаться.
Сет Ллойд и его коллеги откусили от яблока только первый кусочек.
«Существует определенная опасность в том, что озабоченность формулировкой определения будет стоить нам самой ясности вопросов», — написал Рольф Ландауэр в 1988 году, комментируя развитие понятия глубины и сложности Беннетта, Куна и Ллойда-Пагельса: базовая идея глубины как меры объема отсеянной информации является весьма многообещающей. Может появиться и более ясная формулировка, если несколько глупых вопросов укажут на новые удивительные аспекты понятия глубины и сложности.