print multisub(repl_dict, "One, two, three")
Будет выведено
One, 2, 3
В качестве упражнения предлагается сделать версию, которая бы не учитывала регистр букв.
В приведенной программе вспомогательная функция _multisub()
по полученному объекту с результатом сравнения возвращает значение из словаря с описаниями замен subs_dict
.
Работа с несколькими файлами
Для упрощения работы с несколькими файлами можно использовать модуль fileinput
. Он позволяет обработать в одном цикле строки всех указанных в командной строке файлов:
import fileinput
for line in fileinput.input():
process(line)
В случае, когда файлов не задано, обрабатывается стандартный ввод.
Работа с Unicode
До появления Unicode символы в компьютере кодировались одним байтом (а то и только семью битами). Один байт охватывает диапазон кодов от 0 до 255 включительно, а это значит, что больше двух алфавитов, цифр, знаков пунктуации и некоторого набора специальных символов в одном байте не помещается. Каждый производитель использовал свою кодировку для одного и того же алфавита. Например, до настоящего времени дожили целых пять кодировок букв кириллицы, и каждый пользователь не раз видел в своем браузере или электронном письме пример несоответствия кодировок.
Стандарт Unicode — единая кодировка для символов всех языков мира. Это большое облегчение и некоторое неудобство одновременно. Плюс состоит в том, что в одной Unicode–строке помещаются символы совершенно различных языков. Минус же в том, что пользователи привыкли применять однобайтовые кодировки, большинство приложений ориентировано на них, во многих системах поддержка Unicode осуществляется лишь частично, так как требует огромной работы по разработке шрифтов. Правда, символы одной кодировки можно перевести в Unicode и обратно.
Здесь же следует заметить, что файлы по–прежнему принято считать последовательностью байтов, поэтому для хранения текста в файле в Unicode требуется использовать одну из транспортных кодировок Unicode (utf–7, utf–8, utf–16, …). В некоторых их этих кодировок имеет значение принятый на данной платформе порядок байтов (big–endian, старшие разряды в конце или little–endian, младшие в конце). Узнать порядок байтов можно, прочитав атрибут из модуля sys. На платформе Intel это выглядит так:
>>> sys.byteorder
'little'
Для исключения неоднозначности документ в Unicode может быть в самом начале снабжен BOM (byte–order mark — метка порядка байтов) — Unicode–символом с кодом 0xfeff. Для данной платформы строка байтов для BOM будет такой:
>>> codecs.BOM_LE
'\xff\xfe'
Для преобразования строки в Unicode необходимо знать, в какой кодировке закодирован текст. Предположим, что это cp1251. Тогда преобразовать текст в Unicode можно следующим способом:
>>> s = "Строка в cp1251"
>>> s.decode("cp1251")
u'\u0421\u0442\u0440\u043e\u043a\u0430 \u0432 cp1251'
То же самое с помощью встроенной функции unicode()
:
>>> unicode(s, 'cp1251')
u'\u0421\u0442\u0440\u043e\u043a\u0430 \u0432 cp1251'
Одной из полезных функций этого модуля является функция codecs.open()
, позволяющая открыть файл в другой кодировке:
codecs.open(filename, mode[, enc[, errors[, buffer]]])
Здесь:
filename
Имя файла.
mode
Режим открытия файла
enc
Кодировка.
errors
Режим реагирования на ошибки кодировки ('strict'
— возбуждать исключение, 'replace'
— заменять отсутствующие символы, 'ignore'
— игнорировать ошибки).
buffer
Режим буферизации (0 — без буферизации, 1 — построчно, n — байт буфера).
Заключение
В этой лекции были рассмотрены основные типы для манипулирования текстом: строки и Unicode–строки. Достаточно подробно описаны регулярные выражения — один из наиболее эффективных механизмов для анализа текста. В конце приведены некоторые функции для работы с Unicode.
Ссылки
NLTK
http://nltk.sourceforge.net
Лекция #7: Работа с данными в различных форматах.