Читаем Веб-аналитика: анализ информации о посетителях веб-сайтов полностью

В мире, где глобальное аналитическое представление жестко ограничивалось использованием лишь инструмента веб-аналитики и данными анализа посещаемости сайта, среда Trinity сделала доступными данные, которые помогают правильно понять клиентов, а также позволяют отсечь и кристаллизовать информацию, чтобы получить целостное понимание. Результатом будет скорое удовлетворение запросов клиентов и повышение доходов компании. (Аналитики тоже будут счастливы, поскольку они наконец получат средства решения проблем анализа качественных и количественных данных сеансов — как прекрасно!)

Среда Trinity применима к любому виду веб-бизнеса: электронной торговле, поддержке, безопасности, некоммерческой деятельности, мелкому бизнесу и т.д. Более подробная информация о применении Trinity в бизнесе приведена в главе 6, “Месяц 1. Подробнее об основных концепциях веб-аналитики”.

<p><strong>Глава 2. Сбор данных — важность и возможности</strong></p>

GIGO (Garbage In, Garbage Out - “мусор на входе -мусор на выходе”[5]) был одним из самых ранних акронимов, появившихся в области PC. Качество на выходе было неразрывно связано с качеством на входе. С тех пор компьютеры стали намного интеллектуальней и иногда способны сделать нечто умное даже с мусором на входе, но чтобы получить нечто полезное, лучше на входе мусора не иметь.

С точки зрения вебаналитики эра GIGO все еще продолжается. Это связано с тем, что данная область деятельности очень молода, ее механизмы сбора данных все еще в состоянии становления, поскольку пытаются угнаться за темпами изменения самого веб и постоянно совершенствующимся опытом сетевого клиента.

В этой главе рассматриваются различные способы сбора данных, необходимых практику веб-аналитики, и различных параметров, подлежащих учету. Существует четыре основные группы данных, которые предстоит обсудить: анализ посещаемости сайта, результаты деятельности, исследование (качественное) и конкурентные данные.

Концепция ландшафта данных

В веб-аналитике, возможно, как ни в какой другой области деятельности сбор данных имеет первостепенное значение. Реализуя их эффективную стратегию, необходимо учитывать несколько важных элементов.

• Существует множество способов получения информации о взаимодействии клиента с веб-сайтами. Есть файлы веб-журнала, веб-маяки (web beacon), дескрипторы JavaScript и анализаторы пакета (packet sniffer). Некоторое передовое программное обеспечение электронной торговли, например от компании ATG, может также задействовать для сбора данных о важных деловых событиях встроенные механизмы, такие как регистрация событий.

• Ряд механизмов сбора данных используют принцип “откажись, и пожалеешь” (пропусти дескриптор JavaScript на странице, и данные пропали).

• Большинство средств от ведущих производителей требуют предварительного, обдуманного, явного выбора показателей, данные о которых необходимо собрать. Если не получить данных заранее, сделать анализ будет невозможно. Предположим, например, что запущен инструмент аналитики. После просмотра первых отчетов оказывается, что необходим иной сектор или представление всех данных страницы в другой иерархии, иначе ничего не получится. Лишь пара производителей обеспечивают реальный анализ (сегментация уже после сбора данных, даже если не все ее переменные были определены заранее), а большинство такой возможности не предоставляет.

• Иногда требуется несколько методов сбора данных. Например, для сбора данных о поведении веб-сайта можно использовать дескрипторы JavaScript, что ныне уже практически стандартизировано. Но при необходимости проанализировать поведение роботов на веб-сайте понадобится доступ к веб-журналам, поскольку роботы поисковых систем не запускают сценарии JavaScript, а следовательно, не оставляют следов в обычном источнике данных.

Перейти на страницу:

Похожие книги