Очень хороша и проста в использовании программа Gnubiff (веб-сайт, которая предназначена для среды GNOME и интегрируется в панель. Умеет проверять наличие новых сообщений с нескольких почтовых ящиков по протоколам pop3, apop, imap4, mh, qmail и mailfile, с поддержкой обычной аутентификации и SSL, в том числе с указанием сертификата. Среди необычных возможностей – фильтрация спама. При получении нового сообщения пользователю выводится его заголовок. В репозитарии Ubuntu gnubiff есть, для установки вводите sudo apt-get install gnubiff. После запуска в левом верхнем углу экрана появится небольшое изображение пингвина. Для настройки следует обратиться к контекстному меню, выбрав в нем пункт Preferences (Установки) (рис. 4.11).
Рис. 4.11. Настройки Gnubiff
Несколько сбивает с толку то, что кнопки для создания нового ящика здесь нет, но все решается просто. По умолчанию есть одна учетная запись, выбираете ее и нажимаете кнопку Properties (Свойства). В появившемся окне вводите имя (Name), в раскрывающемся списке выбираете тип почтового ящика, затем вводите адрес сервера, имя пользователя и пароль. Нажав кнопку Details (Детали), можно указать отличный от умолчания порт, введя его номер в поле other (другой). Метод аутентификации установлен в Autodetect (Автоопределение), в большинстве случаев gnubiff самостоятельно справляется с определением метода. В Delay (Отложить) указывается время, через которое будет проверяться почтовый ящик. Для создания второй записи выделяете первую и нажимаете кнопку Copy (Копировать), затем редактируете параметры, как было описано выше. В Applet or Biff (Апплет или действие) настраиваются расположение и внешний вид значка, текст, выводимый при отсутствии писем и приходе нового сообщения, а в Popup (Всплывающее) – поведение всплывающего окна и вывод заголовков писем.
Это далеко не все программы, о которых можно рассказать. Cтоит обратить внимание и на KBiff , asMail для пользователей среды AfterStep, bbmail для Blackbox и многие другие.
До обзора специализированных решений хотелось бы напомнить, что такие браузеры, как Opera и Firefox, имеют неплохие менеджеры закачек. К Firefox также есть плагин FlashGot , по популярности занимающий первое место среди плагинов для этого браузера и умеющий автоматически определять установленные в системе менеджеры закачек, перехватывать ссылки с файлами определенных в настройках расширений и передавать их выбранному менеджеру закачек. Применительно к Linux FlashGot умеет совместно работать с такими менеджерами, как Aria, cURL, Gnome Gwget, KDE Kget и Downloader 4 X.
Самым популярным инструментом для закачки файлов и целых сайтов является утилита GNU Wget, которая, как правило, устанавливается по умолчанию во многих дистрибутивах Linux. Эта утилита поддерживает все популярные протоколы HTTP/HTTPS и FTP, умеет работать через HTTP-прокси-сервер. Wget удобна, так как является неинтерактивной программой: указав на сайт, можно вообще о ней забыть. Повлиять на ее работу можно, только уничтожив процесс (например, нажав Ctrl+D в той консоли, где запущена программа). При использовании веб-браузера пользователь должен постоянно отвечать на какие-то вопросы, а скачивание больших объемов информации может быть утомительно. Здесь же для копирования сайта целиком достаточно ввести команду:
$ wget http://server.org/
Через некоторое время в текущем каталоге появится полная копия сайта; чтобы при обрыве соединения закачка возобновлялась, добавляете параметр -с. Так можно скачать отдельный файл.
$ wget -c http://server.org/file.rar
Параметр -r указывает на рекурсивный обход, а –l – на его глубину. Обойдите рекурсивно все каталоги сайта на глубину не более 10:
$ wget -r -l10 http://server.org/
Наиболее часто используемые параметры можно указать в конфигурационном файле .wgetrc, который создается в домашнем каталоге пользователя. Удобно скачивать файлы по расписанию. Например, создайте задачу для закачки файла в 02.00 (необходимо, чтобы в системе был запущен демон atd):
$ at 0200
at wget -c http://server.org/file.rar
at Нажимаете Ctrl+D
Wget – удобная и популярная программа, но, к сожалению, развивающаяся очень медленно, поэтому стоит обратить внимание на cURL , которая поддерживает на порядок большее количество протоколов: FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, FILE и LDAP. Она знает о сертификатах SSL, прокси, cookies, возможна аутентификация пользователей по имени и паролю. Например, чтобы скачать заглавную страницу сайта, вводите
$ curl-o linux.html
Параметров у нее довольно много, остановимся на самом интересном – -r/–range.
С его помощью можно указать только на часть файла. Что это дает? Находите несколько зеркал и загружаете файл частями с каждого зеркала, а затем собираете.