Проблема энтропии — пожалуй, одна из самых «горячих» точек современной науки. Гносеологический интерес к ней стимулируется нарастающим давлением практики, новыми научными и техническими достижениями. Немалое значение имеют возобновившиеся дискуссии относительно возможности понижения энтропии вследствие самоорганизации и предполагаемых ограничений в действии второго начала термодинамики. В последнее время эти дискуссии приобретают порой драматический характер, хотя ведутся не столько на страницах научных изданий, сколько в популярных журналах и брошюрах, нередко на безответственном уровне и в запальчивой форме.
Поэтому объективное, научное и вместе с тем доступное широкому кругу читателей изложение современного состояния проблемы заслуживает безусловного одобрения.
Понятие энтропии введено в науку Клаузиусом в 1865 году как логическое развитие термодинамики Карно, сформулированной еще до открытия закона сохранения энергии и основанной на теплородной гипотезе. Энтропия характеризовала свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым (идеальным) процессам.
Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях (свойственных макросистемам) энтропия возрастает.
Дальнейшее развитие физики обусловило появление статистической термодинамики, в основу которой легла формула Больцмана, связывающая энтропию с логарифмом вероятности состояний системы (энтропия Планка). Здесь проявляется на макроуровне необратимость времени: со временем энтропия растет, хотя на микроуровне все процессы обратимы и направления времени «вперед» и «назад» симметричны.
Шеннон ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно сообщение, переданное по каналу, связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии. Энтропия Шеннона есть сумма произведений вероятности состояния системы на двоичный логарифм этой вероятности, взятая с обратным знаком. Для вычисления энтропии, следовательно, требуется знать распределение вероятностей. Концепция Шеннона позволила ему построить фундаментальную теорию, которая получила широкое признание, большое практическое применение и продолжает интенсивно развиваться.
Аналогия между термодинамической энтропией (энтропией Клаузиуса), энтропией вероятности состояний (энтропией Планка) и информационной энтропией (энтропией Шеннона) сыграла определенную положительную роль в формировании концепции организации, упорядочения и случайности.
И. Пригожин показал, что нелинейные неравновесные процессы способны порождать макроорганизацию, для которой можно сформулировать условия устойчивости. Если эти условия не выполняются, могут возникнуть новые упорядоченные структуры, и т. д. Современные математические методы позволяют описывать такие процессы, но не позволяют определять, по какому из возможных путей пойдет развитие от неустойчивых точек. Система как бы «выбирает» свое дальнейшее поведение, и то, что аппарат описания процесса допускает возможность такого выбора, свидетельствует о несовершенстве наших физических знаний, в частности знаний об энтропии как «меры организации».
Представление об энтропии эволюционировало вместе с представлением об энергии — основной категории естествознания.
Под энергией понимается общая мера различных процессов и видов взаимодействия. Энергия позволяет измерять различные физические формы движения и взаимодействия единой мерой. Энергия есть первичная категория, количественно характеризующая фундаментальные свойства материального мира. Отсюда — по аналогии — возникло определение энтропии как меры «беспорядка», «дезорганизации» физической системы, а негэнтропии как меры организации.
Категории движения и покоя вполне обоснованы физически, но понятие организации физического обоснования и объяснения не имеет. Когда говорят о мере, прежде всего предполагается возможность измерения («физика — это отклонение стрелок»). Энтропия — единственная физическая величина, которая не измеряется, а вычисляется.
И все же благодаря энтропии мы нащупываем путь к сущности организации материи.
Определенную роль в этом смысле сыграла теория информации. Словарное определение термина «информация» многозначно:
1) совокупность каких-либо сведений, знаний о чем-либо;
2) сведения, являющиеся объектом хранения, передачи и переработки;
3) совокупность количественных данных, выражаемых при помощи цифр или кривых, графиков и используемых при сборе и обработке каких-либо сведений;
4) сведения, сигналы об окружающем мире, которые воспринимают организмы в процессе жизнедеятельности;
5) в генетике — совокупность химически закодированных сигналов, передающихся от одного живого объекта другому (от родителей потомкам) или от одних клеток, тканей, органов другим в процессе развития особи;