Читаем Продвижение сайтов с использованием искусственного интеллекта полностью

Теперь в деталях рассмотрим все этапы функционирования поисковых систем – от первоначального сканирования и сбора адресов до финального формирования поисковой выдачи с учетом сотен различных факторов.

Сбор адресов страниц в интернете

Для начала поисковый робот составляет список адресов веб-страниц, по которым впоследствии будет производиться индексация. Изначально разработчики загружают в систему небольшой набор начальных URL, взятых, к примеру, из какого-либо каталога сайтов. Далее робот анализирует содержимое каждой страницы в этом списке, извлекает все гиперссылки и пополняет первоначальный пул адресов. Таким образом, за счет переходов по ссылкам список адресов быстро разрастается до миллиардов.

Однако страницы, на которые нет ни одной внешней ссылки, не могут самостоятельно оказаться в индексе поисковика. Хотя со временем робот может и добраться до них, это произойдет не скоро. Владелец сайта при желании может вручную добавить новые URL в базу поисковой системы.

Выкачивание страниц

Для дальнейшей работы с текстом веб-страниц необходимо получить их содержимое. Этим занимается специальный поисковый робот, называемый пауком (crawler) или сканером. Он обращается по очереди к каждому адресу, сформированному на предыдущем этапе, выкачивает контент страниц и передает на последующую обработку. Так накапливаются огромные объемы текстовых данных.

Индексация

Далее приступает к работе индексный робот, который строит поисковый индекс на основе выкачанных данных. Он извлекает из текстов все слова, располагает их в алфавитном порядке вместе с номерами страниц и служебной информацией. Для этого система последовательно разбирает каждый документ, нумерует страницы, очищает текст от ненужных элементов вроде HTML-разметки, вычленяет отдельные слова и помещает их в индекс с указанием исходных страниц. Так формируется огромная база данных, позволяющая в дальнейшем мгновенно находить нужную информацию по запросу пользователя.

Поиск

Когда пользователь вводит запрос, поисковик обращается к индексу, находит в нем указанные ключевые слова и извлекает списки страниц, где они встречаются. Если в запросе несколько слов, система сравнивает списки для каждого из них и оставляет лишь URL, присутствующие во всех этих списках – то есть те страницы, где встречаются сразу все слова. В результатах поиска отображаются название страницы, дата ее создания, адрес и цитата из текста с подсвеченными искомыми словами.

Для более детального понимания рассмотрим систему фильтрации, через которую проходят обрабатываемые страницы.

Начальная фильтрация

На входной стадии в распоряжении поисковика находятся триллионы адресов веб-страниц. Разумеется, реального полезного контента там значительно меньше – основную долю составляют дубли, неработающие или устаревшие ссылки и прочий «информационный мусор». Из этого пула отсеиваются сотни миллиардов более или менее адекватных адресов для последующего анализа их содержимого. Среди них есть как популярные и востребованные страницы, так и практически неизвестные широкой аудитории.

Далее эти отобранные сотни миллиардов документов выкачиваются и фильтруются еще раз – удаляются дубли, служебные файлы, поисковый спам. Остаются десятки миллиардов URL, которые затем индексируются: разбираются на слова и заносятся в базу данных поисковой системы.

Фильтрация при поиске

Следующие этапы фильтрации происходят уже после получения конкретного поискового запроса от пользователя. Суть этого этапа – найти подходящие документы-кандидаты и упорядочить их по степени релевантности запросу, то есть выполнить ранжирование. Оно происходит в два приема:

1. Черновое ранжирование: система получает из индекса списки документов со словами запроса. Это сотни тысяч или миллионы URL.

2. Чистовое ранжирование: извлекаются дополнительные характеристики каждой страницы, и специальный алгоритм вычисляет их итоговые позиции в поисковой выдаче.

В итоге остается лишь несколько тысяч наиболее подходящих документов, готовых к выводу в виде результатов поиска. Однако на этом процесс не заканчивается. Далее происходит финальное формирование выдачи: дополнительная сортировка, добавление данных из узкоспециализированных вертикальных поисковиков, подбор цитат со словами запроса.

Итак, мы подробно разобрали, как именно функционирует поисковая машина, из каких этапов складывается сложный процесс обработки огромного количества данных и формирования максимально релевантной пользовательскому запросу выдачи.

Искусственный интеллект – основа современного поиска

Функционирование современных поисковых систем почти полностью зависит от технологий искусственного интеллекта. Понимание принципов работы искусственного интеллекта в поисковиках позволит оптимизировать ваш сайт для лучшего ранжирования в выдаче.

Перейти на страницу:

Похожие книги

1С: Управление небольшой фирмой 8.2 с нуля. 100 уроков для начинающих
1С: Управление небольшой фирмой 8.2 с нуля. 100 уроков для начинающих

Книга предоставляет полное описание приемов и методов работы с программой "1С:Управление небольшой фирмой 8.2". Показано, как автоматизировать управленческий учет всех основных операций, а также автоматизировать процессы организационного характера (маркетинг, построение кадровой политики и др.). Описано, как вводить исходные данные, заполнять справочники и каталоги, работать с первичными документами, формировать разнообразные отчеты, выводить данные на печать. Материал подан в виде тематических уроков, в которых рассмотрены все основные аспекты деятельности современного предприятия. Каждый урок содержит подробное описание рассматриваемой темы с детальным разбором и иллюстрированием всех этапов. Все приведенные в книге примеры и рекомендации основаны на реальных фактах и имеют практическое подтверждение.

Алексей Анатольевич Гладкий

Экономика / Программное обеспечение / Прочая компьютерная литература / Прочая справочная литература / Книги по IT / Словари и Энциклопедии

Все жанры