29.11.2016 | Рубрика:SEO-продвижение |
Мы настаиваем на том, чтобы все начинали свой путь с оценки общей работы и функциональности сайта. Если поисковые системы или ваши посетители не получают доступ на ресурс или в какие-то его части, то это тревожный сигнал к тому, что что-то пошло не так.
Вот, что мы проверяем в первую очередь, чтобы избежать таких стоп-моментов.
Любимый всеми нами файл robots.txt используется для ограничения поисковых роботов в доступе к разделам вашего сайта.
Его довольно просто можно проверить и вручную, убедившись, что ограничения стоят правильно, не запрещая доступ всем и каждому к важным разделам сайта. Помочь с проверкой robots.txt вам сможет сервис Яндекса — Вебмастер.
Для этого нужно:
зайти в свой аккаунт
пройти путь «tools» - «robotstxt»
ввести в открывшееся окно исходный код файла
получить данные проверки и внести исправления
Это следующий шаг проверки вашей доступности. И важен он потому, что хуже некуда для посетителя или поискового робота не попасть на страницу со злосчастными ошибками диапазона 4хх и 5хх (например, знаменитая программная ошибка 404).
Поэтому в ходе первичного аудита доступности сайта важно определить и исправить все URL-адреса страниц, которые выдают данные ошибки.
Если в ходе исправления вы настроили редирект, то не забывайте вот о чём. Дважды проверьте также код состояния 301 протокола HTTP, отвечающий за перемещение URL в новые места. Адрес нового месторасположения ресурса указывается в поле Location (в заголовке получаемого пакета протокола HTTP). И если вы указали его верно (и везде, где необходимо), поисковый робот найдёт перемещённые изменённые URL без каких-либо проблем.
XML Карта вашего сайта обеспечивает поисковым роботам логичное и быстрое передвижение по вашему ресурсу. Это важно, так как в случае заминки оценка состояния вашего сайта будет происходить значительно медленнее, и это обязательно повлияет на его ранжирование.
Вот несколько важных вопросов, на которые стоит ответить, чтобы понять, в каком состоянии сейчас карта вашего сайта:
Представлена ли она в виде хорошо сформированного XML-документа?
Следует ли она Sitemap-протоколу?
Найдёте ли вы самостоятельно, без карты сайта страницы, которые в ней по какой-то причине не отображаются?
Есть ли в вашей карте сайта страницы, не принадлежащие к конкретному дочернему разделу или подразделу?
Почему мы спросили именно об этом? Всё просто.
Поисковые роботы, проверяя ваш сайт и его структуру, подразумевают определённую модель карты сайта, не найдя которую, могут заблудиться и не совершить проверку надлежащим привычным и главное, полноценным, путём, осмотрев все закоулки.
Если в вашей карте есть страницы, у которых нет дочерних разделов — это осиротевшие ссылки, требующие заботы. Стоит найти для них место в архитектуре сайта и убедиться, что каждая обрела хотя бы одну внутреннюю ссылку.
Архитектура сайта определяет его будущую структуру вдоль и поперёк: вертикальную глубину (количество уровней) и горизонтальное строение ресурса.
Главный критерий оценки качества архитектуры — подсчёт кликов, требующихся, чтобы добраться от главной страницы до остальных важных разделов.
Второй момент — это оценка иерархии сайта. Так как самые важные страницы обязательно должны иметь приоритет в архитектуре всего сайта.
В идеале нужно стремиться к более плоской архитектуре сайта, использующей одновременно вертикальные и горизонтальные элементы построения.
Но даже лучшие по структуре ресурсы могут быть негативно оценены поисковыми роботами, если их доверие подрывают навигационные элементы, блокирующие доступность сайта. Мы говорим сейчас о Flash и Jvascript.
Чтобы оценить, насколько пагубно эти навигации влияют на ваш ресурс, можно провести довольно простой тест: проанализировать сайт с включенной JavaScript и выключенной. Затем сравнить графы показателей, оценив, что при включении навигации перестаёт работать. И что влияет на производительность сайта, о которой мы поговорим ниже.
Этот блок работ пропускать никак нельзя. Он должен финализировать проверку доступности вашего сайта, подсказав вам, какие показатели требуют улучшения.
Все пользователи ограничены в объёме внимания, которое они готовы уделить одному ресурсу. И если ваш сайт плохо подгружается, то риск потери клиентов становится максимальным. Хоть поисковые роботы не наделены человеческим понятием «терпение», они также имеют ограниченное количество времени на изучение одного ресурса в Интернете. Что значит — если ваш ресурс тормозит, это риск и посетителей потерять, и проверку от поисковых систем проходить реже.
Оценить производительность сайта можно с помощью десятков инструментов, более подробно мы писали об этом в нашем последнем материале о самостоятельном анализе сайтов. Вы можете обратиться, скажем, к ресурсу Sitespeed или его аналогам, но самое важное для вас будет после проверки - оценить ситуацию и степень её запущенности. Ну и, конечно, исправить то, о чём вам говорят показатели
Большинство поисковых систем используют данную команду для поиска контента на конкретном ресурсе.
Вы можете использовать её, чтобы получить приблизительную оценку количества страниц, которые были проиндексированы в данной поисковой системе. Например, если мы ищем в Google оценку ресурсу seomoz.org, то мы видим, что поисковая машина проиндексировала примерно 60,900 страниц:
Разумеется, эта цифра приблизительная. Но даже приблизительная оценка порой бывает очень ценной. Ведь она даст вам понимание дальнейшего сценария, который может быть одним из трёх:
1. Индекс и фактические показатели примерно равнозначны — это идеальный сценарий, показывающий, что поисковики успешно индексируют все страницы вашего сайта.
2. Подсчёт индекса значительно меньше, чем фактическое количество страниц — этот сценарий свидетельствует нам о том, что поисковые системы по какой-то причине не проиндексировали целую кипу ваших страниц. В этом случае вам важно понять, опредилили ли вы проблему в ходе аудита доступности сайта — и если да, то исправлять её через полученные данные об ошибках. Если же нет — то придётся провести комплексный аудит сайта, определяя проблему и стоп-моменты в индексации. И начать с того, чтобы узнать, не попадает ли ряд страниц в бан или под наказание поисковых машин по какой-либо причине.
3. Подсчёт индекса значительно превышает фактическое число страниц — в этом случае, как правило, речь идёт о том, что ваш контент продублирован (например, одна страница доступна через несколько точек входа, либо две страницы имеют очень сходый контент).
Когда на вашем сайте появляется дублированный контент, поисковые роботы пытаются определить, какая из страниц является первоначальным источником, а какая — её дублем. И, увы, не может сделать это со 100% точностью, поэтому зачастую в поисковую выдачу попадает не та страница, которая потенциально важна для вас. К тому же, если на вашем сайте будет слишком много дублей, то поисковый робот может вскоре вообще прекратить посещать ваш сайт, не оценивая его контент как уникальный.
И конечно ещё одной проблемой появления дублей может стать кража вашего контента (надеемся, что не наоборот). И если у потенциального вора будет успешный, с точки зрения поисковых машин, ресурс, то увы и ах, но именно он может стать номером один, что повлияет в дальнейшем на ваши позиции в выдаче.
Во-первых, вы всегда можете обратиться к Яндекс.Вебмастер или его аналогу в Google, пройдя простой путь: «Оптимизация» – «Оптимизация HTML».
Либо воспользуйтесь строкой поиска и командой «site:»
site: вашсайт.ru — покажет страницы сайта «вашегосайта.ru», находящиеся в индексе поисковой системе (общий индекс).
site: вашсвйт.ru/& — покажет страницы сайта «вашегосайта.ru», участвующие в поиске (основной индекс).
Таким образом, вы сможете увидеть и определить малоинформативные страницы и частичные дубли, которые не участвуют в поиске и могут мешать страницам из основного индекса ранжироваться выше.
Когда вы определите все дубли страниц, то сможете избавиться от них, откорректировав движок сайта или добавив тег «rel=canonical» в заголовки страниц, например: http://www.example.com/product.php?item=swedish-fish" />
Так поисковый робот сможет понять, что поймет, что все дубликаты ссылаются на канонический адрес, указанный в теге.
Мы очень надеемся, что данная участь вас минует и что вы вовремя успеете провести базовый самостоятельный аудит своего ресурса, либо обратиться за помощью к специалистам, например, к нашей команде аналитиков и SEO-специалистов.
Но если вдруг вы столкнулись с тем, что ваш ресурс всё-таки каким-то образом заработал предупреждение или даже штраф, то следуйте советам ниже.
В большинстве случаев ваше наказание и штраф будут очевидны. Ваши страницы будут находиться в открытом доступе, но при этом являться непроиндексированными (deindexed). И в ваш кабинет Яндекса или Google Вебмастер придёт оповещение о полученном наказании.
Ещё один способ уловить наказание — вовремя заметить значительную потерю трафика на сайт.
Как только вы будете уверены, что сайт был наказан, вы должны установить причину для штрафа. Если вы получите официальное уведомление из поисковых систем, этот этап можно считать пройденным.
Но, к сожалению, если ваш сайт стал жертвой алгоритмического обновления поискового робота, то вам придётся поиграть в детектива. Так как в момент смены алгоритма поисковых систем многие сайты рискуют попасть под наказания, не ведая, что именно они сделали не так.
Конечно, проще сказать, чем сделать. Этот шаг довольно сложный, но не терпит промедлений.
После того как вы определили, почему ваш сайт был наказан, вы должны методично исправить нежелательное поведение и ошибки, за которые вас заблокировали. Причин может быть великое множество, к сожалению, мы не можем описать их все здесь и сейчас, так как сколько сайтов и ошибок — столько вытекающих ситуаций.
Но мы всегда готовы предложить свою помощь в консультации или исправлении нарушений, если вы осознаете, что не готовы пройти через это в одиночку.
После того как вы исправили все проблемы, нужно требовать пересмотра от поисковых систем с целью снятия наказания. И делать это максимально оперативно, чтобы не потерять ещё больше очков в ранжировании.
Однако будьте внимательны: если ваш сайт по факту ничего не нарушил, а как мы предположили, стал жертвой обновления алгоритмов поисковых систем, то просьба о пересмотре решения будет неэфективной, так как вам в любом случае придётся ждать конца обновления.Каждый пункт является важным звеном общей цепи SEO аудита. Вы можете ещё раз пройтись по ним от и до в Азбуке SEO или в Инструкции по самостоятельной оптимизации сайта, чтобы проанализировать комплексно все стороны оптимизации.
Мы не призываем вас быть радикальными: бросать все виды деятельности и с головой нырять в исследование сайта, либо наоборот тут же оставлять заявки на аудит. Постарайтесь осознать, какие последствия влечёт за собой закрытие глаз на процесс аудита сайта. Оцените риски, потери клиентов и доходов, ухудшение отношения к вам поисковых машин, продвижения в поиске и Интернете в целом, затем оцените свои силы, инвестиции и время. И только после этого принимайте самое верное решение конкретно для вашей ситуации.