5 серьёзных SEO-ошибок и как их избежать

5 серьёзных SEO-ошибок и как их избежать

27.03.2020
1 ошибка. Не склеены сайты-копии.

Их ещё называют зеркала сайта. Это сайты-двойники, тождественные копии, отличающиеся друг от друга лишь URL-адресом. Зеркала сайта появляются в нескольких случаях:

  • Сайт доступен по URL с префиксом www и без него.
  • Сайт доступен по протоколам http и https.
  • На разных URL-адресах совпадение контента составляет более 80%.
  • Существуют копии сайта в различных доменных зонах.
Зеркал сайта в сети часто бывает много, но индексируется и участвует в поиске только одно из них. Поэтому для успешной SEO-оптимизации нужно будет выбрать один основной домен. При наличии либо отсутствии префикса www, поисковые системы не отдают приоритета какому-либо из этих вариантов.

При склейке копий некоторые показатели, такие как внешние ссылки и уникальность контента, будут присвоены основному зеркалу. И это непременно отразится положительным образом на SEO-продвижении.

Как избежать?

Проведите анализ поисковой выдачи вашего сайта. Если он выдаётся с разными URL, поисковые роботы воспринимают ваши копии как отдельные сайты. Чтобы боты не воспринимали их как самостоятельные ресурсы, и они не забирали на себя долю трафика с основного сайта, нужно выбрать основной домен и приклеить к нему все остальные зеркала.

Для склеивания сайтов пропишите 301 редирект со второстепенных копий на основное зеркало в файле .htaccess согласно инструкции.

Укажите в Яндекс.Вебмастере основной домен. Система Google по настройкам 301 редиректа или ресурсной записи CNAME автоматически определит главное зеркало.

После этого поисковые алгоритмы проведут новую индексацию и склеят с сайтом его копии.

2 ошибка. Служебные страницы открыты для индексирования.

Страницы на сайте бывают разного типа – служебные и пользовательские. В рамках одного сайта страницы различного типа могут ничем не отличаться внешне. У них одинаковая шапка, сайдбар, подвал и прочие элементы структуры, всё это сквозные блоки, и они не определяют тип страницы. Главное –  основная, уникальная часть, то есть контент. На служебных страницах размещается контент технического плана, без смысловой нагрузки для пользователя и поисковых систем, а также персональные данные. Но случается, что служебные страницы открыты для просмотра, если были проиндексированы и попали в поисковую выдачу.

Проиндексированные служебные страницы понижают защищённость ресурса и его позицию в выдаче поисковика.

Как избежать?

Надо указать через файл robots.txt в корне сайт, какие страницы не должны попасть в индексацию. Именно к robots.txt поисковые боты адресуют запрос при обходе сайтов.

Веб-страницы, которые следует указать в robots.txt:

  • Страницы с параметрами фильтрации, сортировки, поиска, сравнения товаров.
  • Страницы с персональными данными (личный кабинет, регистрация, авторизация, оформление заказа).
  • Системные каталоги и файлы.
  • Дублирующие страницы.
  • Логи.
  • Страницы конфиденциальных данных.
  • Страницы результатов поиска по сайту.
  • Статистика посещений.
  • Страницы баз данных.
  • Неоригинальный контент.
Составьте подбор URL служебных страниц и добавьте в файл robots.txt строки:

User-agent: * #название поисковой системы
Disallow: /catalog/ #URL скрываемой страницы

В завершение убедитесь при помощи средств аналитики Яндекс и Google, что вы верно настроили robots.txt.

3 ошибка. Сайт работает на незащищённом протоколе.

По умолчанию любой сайт функционирует по незащищенному протоколу HTTP - URL вида http://site.ru/. Это сильно воздействует на репутацию ресурса и ухудшает ранжирование.

Как избежать?

Надо перенести сайт на защищенный протокол HTTPS - URL вида https://company.ru/. Чтобы переход не ухудшил сортировку сайтов, соблюдайте инструкции поисковых систем Яндекс и Google.

Для перевода сайта на защищённый протокол, запросите выпуск SSL-сертификата для домена. Следом установите SSL на сайт, настройте автоматическое перенаправление всех страниц с протокола HTTP на HTTPS. Подробнее мы рассказали об этом в статье про SSL-сертификаты.

4 ошибка. Не настроены ЧПУ (человекопонятные урлы)

ЧПУ, они же человекопонятные урлы — это адреса страниц, понятные для восприятия. Верно настроенные ЧПУ положительно влияют на продвижение сайта в поиске и помогают достичь хороших позиций.

Для сравнения:

https://www.company.ru/index.php?cID=&4sjdbhfkkefdc%kdlsoDflkeKKjd (это не ЧПУ, а малопонятный набор символов).

https://www.company.ru/catalog/fruits (вот это ЧПУ, пользователю сразу понятно, что он увидит на странице различные фрукты).

Как избежать?

В написании ЧПУ пользуйтесь транслитом или латиницей. Кириллица для русскоязычного пользователя кажется более понятной, но при копировании такой URL будет закодирован в виде случайного набора символьных знаков. Для большей читаемости советуем отделять слова при помощи дефисов или нижним подчёркиванием – лучше написать catalog-fruits-exotic вместо catalogfruitsexotic.

Метод исправления URL-адресов зависит от того, как изначально был разработан сайт. Если веб-ресурс работает на CMS, воспользуйтесь плагином для автоматической конвертации ссылки. Если сайт написан вручную, вам придётся вносить правки в файл .htaccess через модуль mod_rewrite.

5 ошибка. Не прописаны метатеги.

Важную роль в поисковом продвижении сайта играют метатеги Title, Description, Keywords и H1. Они содержат важные данные о страницах сайта и нужны именно для поисковых систем.

Атрибуты, то есть значения, метатегов у каждой страницы должны быть уникальными и точно определять контент. Если не указать их на этапе создания сайта, ресурс будет проиндексирован с тестовыми значениями. Как результат, сайта не получит высокой позиции в поисковой выдаче.

Как избежать?

Задавайте правильные теги в HTML-коде страницы.

Title — один из важнейших тегов, выполняет функцию названия. По нему поисковые системы определяют, какой это сайт, поэтому все работы по оптимизации следует начинать именно с него. Тег Title прописывают в начале кода HTML-страницы, он отображается в заголовке. Содержание тега должно уместиться в 70 символов с пробелами. Слишком длинные заголовки поисковики всё равно обрежут в описании.

Description - подсказывает боту тематику конкретной страницы, отображая её описание (сниппет) в выдаче. Длина текста в теге должна быть не более 150 символов с пробелами.

Самую важную информацию указывайте в ключевых словах в начале тега. Ключевой запрос должен следовать в начальной форме (например, «купить фрукты» вместо «купите фрукты»).

H1 — это основной заголовок страницы. Но именно его допустимо использовать на странице лишь один раз. В противном случае поисковые боты снижают позицию сайта в выдаче. H1 должен точно описывать основной контент на конкретной странице, например, заголовок статьи.

Теги H2-H6 - это заголовки со второго по шестой уровень. Они помогают создавать аккуратную и понятную структуру содержимого страницы. Для большей благосклонности поисковых роботов будет нелишним использовать и эти метатеги.

Мы обозначили основные ошибки, мешающие сайту подняться на хорошие позиции в SEO. Но даже идеально прописанные теги и самый надёжный SSL-сертификат не могут гарантировать вам место в топ-3. Чтобы достичь высоких позиций, необходимо регулярно отслеживать новости в сфере поискового продвижения и быстро вносить необходимые изменения в алгоритмы продвижения.

Вернуться в блог

Мы на связи

Позвоните

8 (347) 211-91-10

Напишите

mail@expresslab.ru

или Заполните форму

Безопасность персональных данных

На сайте используются куки сетевых служб Яндекс и Google. Продолжая просмотр сайта Вы выражаете своё согласие с Политикой безопасности хранения и обработки персональных данных, разработанной в соответствии с требованиями 152-ФЗ РФ и Политикой использования файлов куки нашего сайта.

Соглашаюсь