12 сайтов для проверки сайта на соответствие правилам Google

Смотрим на страницу глазами Googelbot и проверяем синтаксис robots.txt. И поднимаемся в результатах поиска!

Этот материал — продолжение статьи 20 фишек, как узнать все про любой сайт. Сегодня речь пойдет о веб-сервисах, проверяющих особенности сайтов/страниц, которые влияют на их ранг в поисковой выдаче.

Зачем мне это нужно?

Если у вас есть сайт, но вы не интересуетесь поисковое оптимизацией, и у вас нет специалиста, который занимается его продвижением, то иногда могут возникать вопросы наподобие:

Почему мой сайт ниже в поисковых выдаче, чем аналоги, хотя качество контента выше?

Скорее всего, на сайте есть какие-то технические проблемы, важные для поисковиков (битые ссылки, ошибки в html-коде). Найти такие проблемы поможет статья ниже.

В интернете есть множество блогов с советами по SEO, многие из которых давно устарели или изначально являлись фантазией автора. Занимаясь оптимизацией сайта, лучше ориентироваться на официальные гайдлайны для вебмастеров Search Engine Optimisation Starter Guide. Там четко прописано, какие технические особенности имеют реальное влияние на поисковую выдачу.

google_bot_rule

Если сайт содержит качественную и полезную информацию, а также соответсвует требованиям, прописанных в этих гайдлайнах, то с ростом поискового трафика должно быть все ОК. А вот подборка инструментов, которые помогут быстро найти на сайте (своем или чужом) незаметные на первый взгляд нюансы, негативно влияющие на отношение к нему поисковиков.

1. Есть ли «битые» ссылки?

dead_link_checker

Битые ссылки негативно воспринимаются пользователями, поэтому Google применяет санкции к страницам с их большим количеством. На deadlinkchecker.com можно получить полный список URL-адресов на странице и статусы их доступности.

Адрес сервиса: deadlinkchecker.com

2. Достаточно ли оптимизированы картинки?

image_compression_test

На wepagetest.org можно получить список картинок с указанием их размера и примененных способов сжатия для каждой картинки. Там же можно почитать советы по оптимизации изображений для сайтов.

Адрес сервиса: webpagetest.org

3. Корректно ли составлен файл robots.txt?

robot_txt_syntax_checker

Robots.txt — это файл, в котором владелец сайта указывает, какие разделы сайта индексировать поисковому роботу. Очень важно, чтобы в нем не было ошибок, так в случае их наличия Google может проиндексировать лишние страницы.

alterlinks.com/robots-txt-validator/

4. Валиден ли HTML-код?

w3_validation_service

Если html-код не содержит ошибок, то страница будет быстро загружаться и одинаково отображаться во всех браузерах. С помощью валидатора от консорциума w3 (организации, которая регулирует технологические стандарты в интернете) можно найти ошибки и получить рекомендации по их исправлению.

Адрес сервиса: validator.w3.org

5. Нет ли перебора с ключевыми словами?

site_content

Избыточная плотность ключевых слов иногда может влиять на ранг в поисковой выдаче хуже, чем их отсутствие/недостаток. На pr-cy.ru можно проверить число вхождения слов на страницу.

Адрес сервиса: pr-cy.ru/analysis_content/

6. Есть ли ссылки без анкоров и с атрибутом «nofollow»?

bad_link

Анкор — это текст ссылки между тегами и. Google плохо относится к сайтам, которые делают ссылки картинками, с пустыми анкорами или анкорами без смысловой нагрузки («читайте тут», «смотреть здесь»). Также Google против указания в ссылках атрибута rel=«nofollow» (запрет роботы переходить на страницу), так как он мешает поисковику воплотить идею об индексации всего интернета. Подробнее об этом можно почитать в гайдлайнах, упомянутых в начале статьи. А pr-cy.ru можно проверить все ссылки на сайте на наличие анкоров и запретов на индексацию.

Адрес сервиса: pr-cy.ru/analysis_content/

7. Нет ли на сайте вирусов?

google_site_safe

Обнаружив на сайте вредоносное ПО Google начинает ставить рядом с заголовком страницы надпись «Этот сайт может нанести вред вашему компьютеру», отбивая желание посетителей заходить на него. Если поисковый трафик внезапно снизился на порядок, то одной из самых вероятных причин может быть появление на сайте вредоносного контента.
Адрес сервиса: google.ru/transparencyreport/safebrowsing

8. Правильно ли настроен редирект?

check_redirect

Иногда, из-за такой мелочи, как неправильно настроенное перенаправление с одной страницы (которая уже есть в базе Google) на новую (которая пока неизвестна поисковому роботу), сайт может ощутимо потерять в трафике. Всегда стоит проверять этот момент.

Адрес сервиса: webconfs.com/redirect-check

9. Все ли в порядке с метатегами?

meta_tagc_check_report

Здесь можно проверить указаны ли на странице заголовок и описание, а также оценить соответствие ключевых слов ее содержимому.

Адрес сервиса: metatagscheck.com

10. Как видит текст страницы поисковый робот?

spider_simulator

Google не индексирует текст, созданные с помощью Flash, JavaScript и изображенный на картинках. Этот сервис поможет понять какой текст на странице учитывается поисковиком при ранжировании результатов, а какой нет.

Адрес сервиса: smallseotools.com/spider-simulator/

11. В каком состоянии была страница когда на нее последний раз приходил Googlebot?

google_cache_checker

Здесь можно узнать когда на странице последний раз был Googlebot и в каком виде она сохранена в кеше Google.

Адрес сервиса: smallseotools.com/google-cache-checker/

12. Какой уровень доверия Google к домену?

domain_authority_checker

Чем выше уровень доверия к домену, тем выше ранг страниц, которые на нем находятся. Trust Rank зависит от возраста домена, его истории и т.д. На smallseotoolz.com можно проверить этот показатель для любого ресура.

Адрес сервиса: smallseotoolz.com/domain-authority-checker-tool

Все эти инструменты можно попробовать не имея доступа к файлам сайта. Если этот доступ у вас есть, то для проверки этих же параметров лучше использовать Яндекс.Вебмастер или Google Search Console.

Оптимизируя страницы для поисковых систем, следуем помнить о том, что главным критерием ранжирования являются поведенческие факторы: время проведенной пользователем на странице, его активность и т.д. Каким бы идеальным не был html-код и авторитетным домен, если посетители убегают с сайта через 10 секунд, то и поисковики не будут ценить ее высоко.

Помимо повышения качества контента, для улучшения поведенческих факторов полезно наблюдать за тем, как ведут себя пользователи на сайте. Делать это позволяет технология «Вебвизор», встроенная в счетчики Яндекс.Метрики. «Вебвизор» записывает все действия пользователей (движения мыши, нажатия клавиш) и генерирует видео имитирующие их поведение во время визита. Наблюдение за посетителями и забота об их удобстве, на порядок важнее всех технических моментов, упомянутых в статье.

©  iphones.ru