В своих предыдущих статьях я уже рассказывала о том, как определить проблемы с ранжированием, имея доступы к статистике, и даже без них.
Большинство официально признанных санкций Яндекса определяются по простой методике или официально подтверждаются Платоном. Фильтры в Google легко определить по дате просадке трафика.
Возникает вопрос: можно ли стопроцентно констатировать, что сайт не ограничен в выдаче, если все, перечисленное ниже – правда:
– проверка на известные фильтры Яндека показала отсутствие пессимизации,
– Платоны пишут, что с сайтом все в порядке,
– резких просадок трафика никогда не было,
– в Google Webmaster Tools нет сообщений о ручных санкциях?
Хотелось бы ответить, что да, но на практике все не так однозначно.
Сайт может быть не под санкциями, но при этом ограничиваться в поиске на алгоритмическом уровне – например, за низкое качество контента или несоответствие ожиданиям пользователей (с точки зрения алгоритмов, конечно). Мы называем такие ограничения алгоритмическими фильтрами и часто сталкиваемся с ними при анализе проблем продвижения в Яндексе.
Вероятность алгоритмических ограничений в выдаче можно оценить, имея доступы к Я.Метрике/Google Analytics, таким способом:
1) Вычисляем процентное соотношение органического трафика с Яндекса и Google для анализируемого сайта за последние три месяца.
Подразумевается, что сайт не пессимизирован “официальными” санкциями, то есть посещаемость с обоих поисковиков должна выглядеть нормальной.
2) Определяем “эталон” – среднее соотношение органики Яндекса и Google для ресурсов из региона и тематики, к которым относится сайт.
Узнать этот показатель можно, пользуясь общедоступными данными LiveInternet – “Рейтинг сайтов”.
3) Оцениваем, насколько показатели анализируемого пациента отклоняются от “эталона”. Если, например, у вашего пациента трафик с Яндекса превышает Google на 10%, а эталон показывает 12%, это нормально. Но если ваш показатель – 5%, а у эталона – 25%, это уже тревожный сигнал.
Пример: сайт бухгалтерской службы, ориентирован на Москву
Согласно данным Я.Метрики, трафик с Яндекса и Google у пациента примерно одинаковый:
Явных симптомов каких-либо проблем с ранжированием нет, но давайте посмотрим, как распределяются доли органики для бухгалтерской тематики по Москве.
Заходим в “Рейтинг сайтов”, выбираем соответствующий регион “Москва” и тематику “Бухгалтерия”. Переходим в статистику группы:
Кликаем по ссылке “Поисковый трафик”, и получаем средние показатели по соотношению органики из выдачи:
Очевидно, что в среднем по нише соотношение между органикой Яндекса и Google примерно 4:1 в пользу Яндекса, у нашего же сайта – 1:1. То есть трафик с Яндекса в 4 раза меньше, чем средний по больнице и, судя по динамике последних недель, продолжает снижаться.
На вопрос о фильтрах по этому сайту Платоны ответили, что сайт ранжируется в соответствии с алгоритмами, и каких-либо ограничений в поиске со стороны Яндекса нет. Но статистика – упрямая штука, и она показывает обратное. Мы уже догадались, в чем проблема, но это уже совсем другая история.
Пример 2. Треккер-портал, ориентированный на всю Россию
Посещаемость с Яндекса у этого пациента в 1.24 раза больше, чем с Google:
Согласно данным Рейтинга сайтов, соотношение поисковиков по России в тематике “Интернет”, к которой относится наш пациент, выглядит так:
Согласно “эталону”, трафик из Яндекса превышает Google всего в 1,19 раз. Это очень близко к показателям нашего пациента, значит он вполне здоров.
Несоответствие показателей трафика пациента эталону может быть вызвано не только фильтрами, хотя чаще всего причина именно в этом. Возможно, имеется техническая проблема в структуре сайта, на которую разные поисковики реагируют по-разному, или что-то не так с настройками сервера. В любом случае сайт недополучает посетителей из поиска, и проблему нужно искать и исправлять.