SEO пагинация: как сделать правильно и выявить основные ошибки.

Польский писатель Януш Вишневский однажды заметил: «Интернет – это джунгли, и иногда он напоминает свалку информации». Худшее из возможных решений веб-мастера – перегрузить страницы данными, завалить роботов и посетителей грудой контента, который еще и загружаться будет сотню световых лет.

По канонам SEO ресурс должен быть структурированным, легким, быстрым, понятным. Пагинация – возможность разбить огромный пласт данных на блоки, которые будут отображаться дозированно либо сегментироваться постранично. С помощью пагинатора – навигационного блока – удается сделать понятный «путеводитель» или «поисковик» по частям одного большого целого. Пагинацию можно наблюдать на главных страницах сайтов и разделов.

Нумерация страниц
Классический вариант пагинации через нумерацию

Возможны разные форматы исполнения: алфавитный, календарный. Пагинация необходима ресурсам с большим объемам данных (интернет-магазинам, крупным информационным порталам). Грамотно оформленное «деление» массива – удобство работы с сайтом, оптимальная скорость загрузки страниц. На языке SEO это значит повышение юзабилити и поведенческих факторов, улучшение ранжирования. Осталось понять, как сделать пагинацию правильно и избежать ошибок.

SEO-составляющая пагинации

Само деление массива не выглядит сверхсложной задачей, но рабочая пагинация – одно, а оптимизированная – другое. Разбитый на блоки контент остается важным элементом сайта, поэтому нужно считаться с возможными проблемами при раскрутке. SEO-тонкости пагинации, которые могут огорчить веб-мастера:

  1. Дубли. Страницы пагинации – что братья-близнецы: очень похожий контент, повторяющиеся title. Если при индексации роботы посчитают страницы дублями, релевантность и уникальность упадут. Санкции тоже не исключены.
  2. Некорректные сканирование и индексация. Краулинговый бюджет роботов ограничен. При изучении страниц в рамках апдейта краулер может потратить все «очки» на скан десятых, двадцатых и т. д. страниц пагинации. На основании анализа проводится индексация и формируется поисковая выдача. Цель оптимизатора – добиться в первую очередь индексации полезных и релевантных страниц.

Есть польза от ранжирования тринадцатой страницы каталога товаров вместо главной? Нет. Релевантна ли такая страница запросам пользователей на 100%? Частично. Повысится ли bounce rate? Вполне вероятно! Если бюджета на главные страницы не хватит, в выдачу роботы их не отправят. Жирный минус для раскрутки ресурса.

В итоге пользователи могут и не узнать обо всем спектре товаров и услуг сайта. Никто не будет пробиваться через дебри каталогов интернет-магазина, если в выдаче не будет ссылок на ключевые страницы.

  1. Повышение нагрузки на сайт. Справка Google Search Console предупреждает: сканирование огромного массива страниц пагинации ведет к увеличению нагрузки. Это может вызвать нестабильную работу ресурса и снижение скорости.

Анализ проблем с пагинацией

Совершенству нет предела, но в случае c SEO догадки лучше подтверждать фактами. В контексте работы с пагинацией выявить критические ошибки несложно. Если в проиндексированном роботами массиве появятся дубли метаданных (страниц) – сигнал тревожный.

Понять, что дело в неправильной настройке пагинации, можно через поиск дубликатов.  Рабочие способы для Google и Яндекс:

  1. Воспользоваться командой site:. В поисковой строке Google нужно прописать site:example.ru, где example.ru – домен вашего сайта. Поисковик отразит в выдаче все индексируемые страницы. Дубли не останутся незамеченными. Способ прост и актуален для небольших ресурсов.

поисковая выдача

  1. Проверить ресурс специализированными программами-краулерами – Xenu, Screaming Fog Seo Spider, Netpeak Spider. Работа проходит автоматически по понятным алгоритмам. Пошаговый мануал на примере Xenu:
    • Открыть вкладку Check URL.
    • Вписать доменное имя проверяемого сайта.
    • Отсортировать результаты по
  1. Обратиться к панелям поисковых систем для веб-мастеров. Путь к разделу в Яндекс.Вебмастере: Индексирование – Страницы в поиске – Исключенные страницы – Статус «Дубль». Для Google Search Console: Покрытие – Исключено.
  2. Проанализировать ключевые URL на дубликаты в онлайн-сервисах. Полезный ресурс: https://apollon.guru/duplicates/.

Косвенно на наличие дублей указывают санкции поисковых систем. Вкупе с другими грубыми ошибками дубликаты приводят к наложению на сайт фильтров. Опытные SEO-специалисты помнят легендарный Google Supplemental – «дополнительные результаты поиска», куда многочисленные дубли отправлялись в ссылку. 

Стратегии пагинации

В контексте SEO-оптимизации пагинация (деление массива) должна:

  • упрощать взаимодействие пользователей с сайтом;
  • повышать поведенческие факторы и ранжирование ресурса;
  • способствовать корректной поисковой индексации.

Все методики SEO-пагинации базируются на одной из идей:

  1. Закрыть страницы пагинации от индекса.
  2. Оставить пагинацию открытой для индексации.

Сторонников в обоих лагерях много. Рассмотрим техническую реализацию и инструменты разных подходов.

Основы «открытых» стратегий:

  1. Уникальные title для страниц пагинации.
  2. Исключение дублей текстового контента.
  3. 301 редирект, чтобы исключить дубли главных страниц.
Через robots.txt Через meta name robots С помощью rel=»canonical»
 

 

 

 

 

 

Закрытые системы

 

Использование директив Disallow: */page/.

 

 

 

Роботы не попадут на страницы, товарные позиции почти не будут индексироваться

 

<meta name=»robots» content=»noindex» />

 

 

Глубокое скрытие без шансов увидеть ссылки на страницы пагинации даже в «закрытой выдаче»

 

Указать каноничные страницы разделов.

 

 

Скрывает от индексирования все страницы пагинации, кроме главных.

Максимально близкий к рекомендациям Google вариант

 

Немного теории. При пагинации подразумевается, что должна быть главная (каноническая) страница. Долгие годы веб-мастеры свято верили, что для Google актуален «классический набор» – атрибуты rel=»canonical», rel=next и rel=prev.  Next и prev давали роботам понять, где главная страница, а где страницы пагинации (дубли). В марте 2019 Google объявил, что  rel=next и rel=prev не поддерживаются уже много лет.

Главная страница

Правильная стратегия пагинации в 2020

Google обновил корневые алгоритмы ранжирования, Яндекс не отстает в инновациях. Современные технологии меняются, но ключевой посыл поисковых систем остается прежним: нужно понимать, чего желают пользователи, и подстраиваться под них.

Человек за компьютером

Google еще в 2019 году посоветовал… отказаться от пагинации. «Старый» многостраничный формат не является нарушением, но исследование показало: людям нравится модель single-page content.

Суть: весь контент размещается на одной странице, внедряется функционал динамической (ленивой) загрузки с помощью AJAX (Asynchronous Javascript and XML). Информация не генерируется и не загружается, пока она не станет нужна. На первом этапе посетитель видит часть контента. Остальное подгружается:

  1. При скроллинге. Поэтапная загрузка. Встречается на сайтах СМИ, в интернет-магазинах, социальных сетях.
  2. После нажатия на активную кнопку («Показать еще», «Другие товары» и так далее) или элемент медиа. Под кнопками легко спрятать незначительную информацию. Если же контент важен для роботов и людей, вместо AJAX удобно применять обычный JS – с функцией отображения контента по требованию и предварительной загрузкой.
  3. В фоне. Неспешная подгрузка больших файлов во время изучения страницы. Может помочь ускорению сайта при вдумчивой реализации и постоянном анализе поведения посетителей.

Наглядные примеры реализации системы single-page content: https://meduza.io/ (на React.js), https://f.ua/, https://www.digitalagencylondon.co.uk/.

При стратегии single-page content краулеру отдается на откуп часть товаров и оптимизированный текст выделенного блока. Есть возможность «открыть» полную версию сайта (статические страницы) из кеша оперативной памяти сервера. Проверить, что из содержимого доступно роботам, можно в панелях веб-мастеров Google и Яндекса.

Краткие выводы:

  • single-page content при правильной реализации повышает юзабилити (по данным Google);
  • улучшение поведенческих факторов ведет к лучшему ранжированию в выдаче;
  • для поисковой оптимизации SPC – главная модель и эффективная замена каноничной пагинации.

Реализация SPC требует участия программистов и серьезных финансовых трат. Для молодых (нераскрученных) проектов привычная пагинация остается безальтернативной. Придется вернуться к атрибутам и обратить пристальное внимание на рекомендации Яндекса и Google.

Общая позиция Google: краулеры должны сканировать страницы с дублированным контентом, но во избежание «нежелательных последствий» стоит помочь роботам с определением канонического URL.  Если этого не сделать, роботы выберут страницу самостоятельно (необязательно правильно!).

Первая рабочая модель от Google – пагинация на страницу «Смотреть Все». Необходимо пометить все страницы пагинации (кроме главной) тегом <link> с атрибутом rel=»canonical».

При данном способе на канонической странице должен быть маркер «Смотреть все» / «View all». Пример тега: <link rel=»canonical»  href=»http://site.ru/canonical-page»/>

Пример тега

Второй (альтеративный) способ настроить пагинацию под Google был показан на Google Webmaster Conference в Тель-Авиве в 2019 году:

сео конференция

Это метод пагинации с тегом rel=«canonical» (со всех страниц – на первую) и тегом noindex (для всех страниц). Уместно для интернет-магазинов: роботы не будут индексировать «части» пагинации, но будут сканировать товары каталога.

Общие рекомендации для обеих стратегий:

  • не блокировать роботам доступ в robots.txt или другими путями (разрешить сканирование URL);
  • задействовать внутреннюю перелинковку!
  • проверять изменения сторонними краулерами.

Яндекс наравне с Goggle не поддерживает устаревшие теги rel=prev/next. Однако атрибут rel=»canonical» остался рабочим.

Устаревшие теги

В июле 2019 года Платон дал развернутый комментарий относительно пагинации:

Цитата яндекса

Стоит учитывать, что для Яндекса rel=»canonical» не инструкция к исполнению, а рекомендация! Робот волен проигнорировать атрибут из-за ошибки в указании или иных причин.

Заключение

Единой волшебной таблетки для всех ресурсов не существует. SPC финансово и технически реализовать сложно, пагинация с тегом rel=canonical на страницу «Смотреть все» может ухудшить производительность, модель с noindex формально идет вразрез со справочными материалами.

Яндекс и Google дают веб-мастерам выбор, но не готовые решения. Правильная стратегия – стратегия, которая не противоречит здравому смыслу. Стратегия, которая работает. Остальное – частные случаи.

Страница обновлена:
Поделиться: 0 0 0
Добавить комментарий
Ваш E-mail не будет опубликован.
Обязательные поля помечены *

Рубрики
Подписка на рассылку
Авторизация
 
Восстановление пароля
Загрузка ...