Читаем Lost structure полностью

обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и О

соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.

III.2.

Характерно, что в новейших лингвистиических исследованиях обсуждаются возможности

применения метода бинарных оппозиций при изучении вопроса о возникновении информации в

таких сложных системах, как, например, естественный язык . Знаки (слова) языка состоят из

фонем и их сочетаний, а фонемы—это минимальные единицы звучания, обладающие

www.koob.ru

дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или

не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, ни одна из них не может подменять собой другую, а когда такое случается, слово

меняет свое значение. Например, по-итальянски я могу по-разному произносить "e" в словах

"bene" и "cena", но разница в произношении не изменит значения слов. Напротив, если, говоря по-

английски, я произношу "i" в словах

"ship" и "sheep" (транскрибированных в словаре соответственно "∫ip"

и "∫i:p") по-разному, налицо оппозиция двух фонем, и действительно, первое слово означает "корабль", второе — "овца". Стало быть, и в этом случае можно говорить об

информации, возникающей за счет бинарных оппозиций.

III.3.

Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы

установили, что когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта "информация "имеет косвен-

10 См библиографию в Lepschy, cit, и у Якобсона (Якобсон P. Избранные работы М , 1985) 41

ное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для

теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лотерейных билетах или графических знаках. В теории информации зна-

чимо число выборов для однозначного определения события. И важны также альтернативы, которые — на уровне источника — представляются как со-возможные. Информация это не

столько то, что говорится, сколько то, что может быть сказано. Информация — это мера

возможности выбора. Сообщение, содержащее один бит информации (выбор из двух

равновероятных возможностей), отличается от сообщения, содержащего три бита информации

(выбор из восьми равновероятных возможностей), только тем, что во втором случае

просчитывается большее число вариантов. Во втором случае информации больше, потому что

исходная ситуация менее определенна. Приведем простой пример: детективный роман тем более

держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в

убийстве. Информация — это свобода выбора при построении сообщения, и, следовательно, она

представляет собой статистическую характеристику источника сообщения. Иными словами, информация — это число равновероятных возможностей, ее тем больше, чем шире круг, в

котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или

шестьдесят четыре варианта, a n миллиардов равновероятных событий, то выражение

I = Lg2l09n

составит неизмеримо большую величину. И тот, кто, имея дело с таким источником, при

получении сообщения осуществляет выбор одной из n миллиардов возможностей, получает

огромное множество битов информации. Ясно, однако, что полученная информация представляет

собой известное обеднение того несметного количества возможностей выбора, которым

характеризовался источник до того, как выбор осуществился и сформировалось сообщение.

В теории информации, стало быть, берется в расчет равновероятность на уровне источника, и эту

статистическую величину назывют заимствованным из термодинамики термином энтропия 11 . И

действительно, энтропия некоторой системы — это состояние равновероятности, к которому

стремятся ее элементы. Иначе говоря, энтропия

11 См Норберт Винер. Кибернетика С. E. Shannon, W. Weaver, The Mathematical Theory of information, Urbana, 1949, Colin Cherry, On Human Communication, cit, A. G. Smith, ed , Communication and Culture (часть I), N Y.

1966; а также работы, указанные к прим. 2 и 4.

42

Перейти на страницу:

Похожие книги

Агония и возрождение романтизма
Агония и возрождение романтизма

Романтизм в русской литературе, вопреки тезисам школьной программы, – явление, которое вовсе не исчерпывается художественными опытами начала XIX века. Михаил Вайскопф – израильский славист и автор исследования «Влюбленный демиург», послужившего итоговым стимулом для этой книги, – видит в романтике непреходящую основу русской культуры, ее гибельный и вместе с тем живительный метафизический опыт. Его новая книга охватывает столетний период с конца романтического золотого века в 1840-х до 1940-х годов, когда катастрофы XX века оборвали жизни и литературные судьбы последних русских романтиков в широком диапазоне от Булгакова до Мандельштама. Первая часть работы сфокусирована на анализе литературной ситуации первой половины XIX столетия, вторая посвящена творчеству Афанасия Фета, третья изучает различные модификации романтизма в предсоветские и советские годы, а четвертая предлагает по-новому посмотреть на довоенное творчество Владимира Набокова. Приложением к книге служит «Пропащая грамота» – семь небольших рассказов и стилизаций, написанных автором.

Михаил Яковлевич Вайскопф

Языкознание, иностранные языки