Поисковые системы Яндекс и Google, а точнее поисковые роботы этих систем, регулярно обходят все сайты в Интернете и проверяют их по заданным алгоритмам. Существует более сотни факторов (точное количество знают только разработчики алгоритмов), которые проверяются роботами. На основе обхода сайту присваивается индекс качества и определяется его позиция в поиске.
Условно SEO-оптимизацию можно разделить на два этапа: базовый и основной.
- Базовый этап оптимизации обычно выполняется один раз в самом начале продвижения. Без базового этапа невозможно эффективное продвижение в дальнейшем. На этом этапе специалист подготавливает сайт к основному продвижению и выполняет технические работы по оптимизации. Также обычно делается аудит сайта, составляется семантическое ядро и план оптимизации сайта. Об этих работах расскажем подробнее далее.
- Основным этапом оптимизации можно назвать период после базового этапа. Чтобы сайт вышел в топ и там оставался, нужно проводить работы по наращиванию ссылочной массы, улучшению старого контента и написанию нового. Контент – важнейшая часть SEO, от него зависит 80% успеха основного этапа оптимизации. Также на этом этапе специалист анализирует маршруты посетителей сайта и на основе этих данных корректирует ресурс в угоду удобства пользователей. Это называется улучшением поведенческих факторов.
- Поведенческие факторы – это характеристики сайта, с помощью которых можно описать поведение пользователей. Сколько времени человек провел на сайте, сколько посмотрел страниц, заказал ли товар, прошел ли регистрацию, взаимодействовал ли посетитель с формами обратной связи. Поведенческие пользователи – очень важный фактор ранжирования сайтов для поисковых систем.
3 важных шага по технической настройке сайта
1. Карта сайта sitemap.xml
Роботы поисковых систем Яндекс и Google, регулярно обходят доступные сайты. Чтобы им было удобнее оценивать наш ресурс, мы можем показать им все страницы на нем в правильном иерархическом порядке, то есть составить карту. Это выглядит как генеалогическое древо. Карта сайта представляет собой файл sitemap.xml.
Sitemap.xml хранит адреса всех страниц сайта. При наличии этого файла, поисковым роботам будет проще обойти сайт, а страницы будут быстрее появятся в поисковой выдаче.
У CMS 1С-Битрикс есть автоматическая настройка файла sitemap.xml, нужно всего лишь нажать пару кнопок. Для других систем управления сайтами есть сторонние сервисы для генерации карты, например, XML-Sitemaps. В бесплатной версии можно создавать карты до 500 страниц.
2. Параметры индексирования Robots.txt
В текстовом файле robots.txt мы можем запретить или разрешить поисковым роботам просматривать определенные страницы сайта. В этом файле обычно закрывают для роботов административные страницы сайта, личные кабинеты, страницы регистрации, а также еще не готовые для публикации разделы. Никто не хочет, чтобы личные данные пользователей сайта попали в открытый доступ.
В CMS 1С-Битрикс файл создается автоматически, туда сразу вносятся технические разделы на сайте. Все дополнительные страницы вносятся в файл вручную.
3. Заполнение мета-тегов и заголовков
Мета-теги – это текстовое описание, которое помогает поисковым роботам распознать тематику страницы. Уникальные мета-теги заполняются для каждой страницы сайта.
Основные мета-теги:
- title – имя страницы на вкладке браузера и в поисковой выдаче;
- description – описание страницы, которое также показывается в поисковой выдаче
- keywords – ключевые слова, по которым мы хотим показывать страницу. С 2019 года keywords не учитываются поисковыми системами, поэтому их можно не заполнять. Поисковые роботы могут самостоятельно определить ключевые слова по контенту страницы.