Но из другого источника, от людей, настроенных совсем иначе, поступили новые вопросы. Лучше всего они отражены в беседе, состоявшейся между Шенноном и фон Нейманом в Принстоне в 1940 году, когда Клод только начинал собирать свою теорию воедино и еще переживал по поводу своего распавшегося брака. Шеннон поделился с этим великим человеком своей идеей «информации как средства устранения неопределенности», легшей в основу его работы, и задал простой вопрос. Как бы он назвал это? Фон Нейман ответил сразу же: скажем, информация уменьшает «энтропию». Во-первых, это хорошее, емкое слово. «И еще более важно, – продолжал он, – что никто не знает, что такое энтропия на самом деле, поэтому в споре вы всегда будете иметь преимущество».
Скорее всего, этого разговора никогда не было. Но великая наука, как правило, рождает свои собственные легенды, и эта история практически совпадает по времени с появлением научной статьи Шеннона. Ее пересказывали на семинарах, лекциях и в книгах, а сам Шеннон вынужден был отмахиваться от нее на конференциях и во время интервью, отшучиваясь в свойственной ему манере. Эта история так долго была на устах – и сейчас мы снова пересказываем ее, – потому что связь между информацией и энтропией наводила на размышления[10]. Одни жаждали того, чтобы теория Шеннона работала, другие высказывали предположения о том, что в этой работе скрываются истины гораздо более глубокие, чем мог признать сам автор.
Никто не знает, что же такое энтропия на самом деле. Определение звучало масштабно, но понятие энтропии включало множество вещей – почти столько же, сколько само понятие информации, – причем какие-то были научно обоснованными, а какие-то нет. Это была неспособность парового двигателя работать; рассеивание тепла и энергии; неизменная тенденция каждой части закрытой системы деградировать, превращаясь в отработанную породу; это также была, если говорить грубо, но емко, тенденция в сторону беспорядка, хаоса. Это всегда зарождающийся разброд, против которого мы боремся, чтобы выжить. Джеймс Глейк выразился более лаконично: «Организмы организуются». И продолжал:
В погоне за этим порядком мы делаем нашим мир менее информативным, потому что сокращаем количество доступной для нас неопределенности. Предсказуемость нашей связи, в этом свете, – это символ еще большей предсказуемости. Все мы, люди, предсказуемые машины. Мы воспринимаем себя как неустанных созидателей и потребителей информации. Но, по логике Шеннона, все ровно наоборот: мы высасываем информацию из мира.
Но здесь мы терпим неудачу. Тепло рассеивается; беспорядок со временем увеличивается; энтропия, как говорят нам физики, всегда движется по восходящей. В состоянии максимальной энтропии любая предсказуемость отпала бы сама собой: каждая частица была бы сюрпризом. И весь мир в целом читался бы как самое информативное сообщение из всех существующих.
Возникает один нерешенный вопрос: была ли идея об информации как энтропии неуместной и бесплодной аналогией, или это был более менее подходящий язык, на котором можно было говорить о мире? Или же сама информация была настолько фундаментальным понятием, что даже физики могли оценить ее? Когда частицы перемещаются из одного состояния в другое, является ли их похожесть на переключатели, на логические схемы, на символы 0 и 1 чем-то большим, чем просто причуда нашего воображения? Или сформулируем это иначе: было ли свойство информации чем-то, что мы навязывали миру, как побочный продукт наших сообщений и машин, или это что-то, что мы узнали о мире, что-то, что постоянно присутствовало в нем всегда?
Тепло рассеивается; беспорядок со временем увеличивается; энтропия, как говорят нам физики, всегда движется по восходящей.