Знаменитый австрийский физик Людвиг Больцман, один из создателей термодинамики, первым нашел способ описать это понятие на количественном уровне, создав статистическую формулу для энтропии природных веществ, таких как газы. Его формула выглядит так:
где
Как следует из первой формулировки второго закона термодинамики, предложенной Уильямом Томпсоном в 1852 году, общая энтропия замкнутой изолированной системы со временем увеличивается. Этот закон применим ко всей вселенной, однако он не учитывает возникновения «локальных очагов сопротивления» со стороны живых организмов, которые оттягивают момент окончательного распада и рассредоточения. Эта партизанская война живых организмов хорошо отражена в работе другого знаменитого австрийца — лауреата Нобелевской премии физика Эрвина Шрёдингера, одного из титанов квантовой физики, который в книге «Что такое жизнь?» высказал предположение, что жизнь — это бесконечная борьба за создание и сохранение островков с пониженной энтропией, которые мы называем организмами. Как он писал, «существенно в метаболизме то, что организму удается освобождать себя от всей той энтропии, которую он вынужден производить, пока он жив»[8].
В книге «Вопрос жизни» британский биохимик из Университетского колледжа Лондона Ник Лейн дополнительно проясняет связь между энтропией и жизнью: «А главное вот что: чтобы обеспечивать рост и размножение, некоторые реакции должны непрерывно выделять тепло в окружающую среду, разупорядочивая ее»[9]. И далее продолжает: «Мы и сами платим за свое непрерывное существование теплом, которое высвобождается в результате непрерывно протекающей реакции дыхания. Мы постоянно окисляем пищу кислородом, нагревая окружающее пространство. Потеря тепла — не побочный эффект, а совершенно необходимый для поддержания жизни процесс. Чем больше потеря тепла, тем выше доступный уровень сложности».
Используя терминологию Пригожина, можно сказать, что чем больше энергии рассеивает организм, тем большей сложности он может достигнуть!
В конце 1940-х годов концепции энтропии и информации оказались навечно тесно связаны благодаря работе американского математика и электромеханика Клода Шеннона, который в 1948 году в возрасте тридцати двух лет, будучи сотрудником лаборатории Белла, опубликовал в техническом журнале компании знаменитую работу длиной в 79 страниц. В своей «Математической теории коммуникаций» Шеннон впервые представил количественную теорию информации. Помимо прочего, эта статья навсегда вошла в анналы истории в качестве теоретической колыбели, из которой позднее появилась одна из самых важных математических единиц измерения, созданных человеком в XX веке, единица информации — бит.
За несколько лет до выхода этой революционной статьи, в 1937 году, Шеннон, тогда еще студент Массачусетского технологического института, показал, что для описания каких-либо логических или численных связей в электрических цепях достаточно лишь двух чисел (0 и 1) и соответствующей логики, называемой Булевой логикой в честь ее создателя Джорджа Буля. Эта потрясающая теория положила начало эпохе цифровых сетей — изобретение транзистора в той же лаборатории Белла и первая теория Алана Тьюринга для построения идеальной вычислительной машины сделали возможным создание цифровых компьютеров, кардинально изменивших жизнь человечества за последние восемьдесят лет.
В своей статье 1948 года Шеннон предложил статистическое описание информации, как его предшественники в предыдущем столетии предлагали количественное описание энергии, энтропии и других термодинамических параметров. Более всего Шеннона интересовало то, что он называл «фундаментальной проблемой коммуникации»: «точное или приблизительное воспроизведение в определенной точке сообщения, выбранного в другой точке». В шенноновском подходе к информации не отводилось никакой роли контексту, семантике или даже смыслу; все это были лишь ненужные усложнения узкой проблемы передачи информации, которую он хотел разрешить.
В своей книге «Информация: История, теория, поток» Джеймс Глик отлично суммирует основные выводы Шеннона из его поразившей мир вероятностной теории информации. Три из них имеют непосредственное отношение к нашему рассказу. Вот они: