Комментарии
- 10 янв 2024 14:04ОК для бизнеса
- Shariif AhmadКомментарий удалён.
- 14 янв 2024 17:26Александр 💾На кого рассчитана эта статья?
- 15 янв 2024 12:09ОК для бизнеса
ответила Александру 💾
Здравствуйте, Александр! Статья рассчитана на всех, кто хочет узнать больше о нюансах ведения бизнеса в интернете и оптимизации процессов
Для того чтобы оставить комментарий, войдите или зарегистрируйтесь
ОК для бизнеса
Как понять, что JavaScript мешает SEO, если вы не программист
Если вы занимаетесь SEO, то знаете, что программный код сайта влияет на его позиции в поиске. Когда поисковые боты не могут что-то правильно прочитать, они не могут это правильно проиндексировать.Сильнее всего запутать ботов способен JavaScript – язык, который делает веб-страницы интерактивными, изменяя их в реальном времени. А учитывая, что JavaScript – еще и самый популярный язык программирования в мире, от него никуда не деться.
Как понять, что он мешает вашему сайту выйти в топ «Яндекса» и Google, читайте ниже.
Почему JavaScript мешает индексации
Когда на странице есть JavaScript, ей требуется время, чтобы полностью отрисовать содержимое. Поисковые боты могут не дождаться отрисовки или пропустить ее часть – просто потому, что у них очень большая нагрузка.Хотя Google утверждает, что его боты умеют индексировать окончательно отрисованный контент, нельзя полагаться на случай. Ведь при этом боты также сами определяют «важный» контент и пропускают «неважный». Не стоит доверять им принятие таких решений.
Использование JavaScript может приводить к:
• задержкам в индексации страниц,
• неполной индексации контента,
• отсутствию части страниц в поиске.
Учитывая, что большинство современных веб-разработчиков стремятся решить любую задачу с помощью JavaScript, лучше держать руку на пульсе.
Как выявить проблемы
Если в Google Search Console или «Яндекс Вебмастере» вы видите, что страница обнаружена, но не проиндексирована, скорее всего, дело в JavaScript.Чтобы убедиться в этом, понадобятся следующие инструменты:
1. Webbee (или аналогичный сервис обхода сайтов),
2. Google Search Console или «Яндекс Вебмастер».
Итак, приступим.
Шаг 1. Проверьте, как боты обходят страницы
Взглянуть на сайт глазами поисковых ботов можно через сервис обхода сайтов (краулер), например Webbee. Этот сервис доступен под Windows и Mac OS и распространяется бесплатно.
Каким бы сервисом вы ни пользовались, отключите в настройках все, что связано с JavaScript. Вы можете использовать опцию Text Only, если она имеется.
Сиротами называют страницы, на которые не ведет ни одна внутренняя ссылка. На них нельзя попасть с сайта, не зная прямого URL. Они возвращают код 200 Ok, но число внутренних ссылок на них остается нулевым.
Шаг 2. Сравните исходный и сгенерированный HTML
Отсутствие важных страниц-сирот – уже хороший знак. Однако стоит пойти дальше и проверить, сколько контента боты теряют из-за JavaScript.
Если краулер позволяет, сравните количество слов HTML-кода с включенным и отключенным JavaScript. В Webbee нет счетчика слов, но он есть, например, в Screaming Frog. Также рендеринг страниц с JavaScript есть в «Яндекс Вебмастере».
Чем меньше разница между получившимися результатами, тем лучше. Это будет означать, что боты видят большую часть важного контента. При проведении такого сравнения лучше запускать обход только основных страниц, поскольку отрисовка контента с JavaScript занимает время.
Шаг 3. Проведите тесты в реальных условиях
Теперь проверьте, как страницы вашего сайта уже попали в индекс поисковиков. Это можно сделать, например, в сервисе Google Search Console.
Выберите интересующую страницу и нажмите «Изучить URL». Загрузится следующий экран, где нужно выбрать «Изучить просканированную страницу»:
Возможные решения
Существует три основных решения проблем с JavaScript. Все они носят технический характер, и для их применения требуется помощь специалиста.Решение 1. Поместить важный контент в исходный HTML
Если все важные ссылки, меню, заголовки и тексты страниц доступны в исходном HTML (без генерации через JavaScript), у ботов не будет проблем. Обратите внимание разработчиков на этот момент – какую-то часть, возможно, удастся перенести уже сейчас.
Решение 2. Применять рендеринг на стороне сервера
Рендеринг на стороне сервера (Server-Side Rendering, SSR) – это способ отрисовки страницы прямо на сервере еще до того, как она будет отправлена в браузер.
Этот способ позволяет ботам сразу получать «чистый» HTML, который они так любят. Однако при каждом обновлении на странице ее приходится полностью перезагружать, и число запросов на сервер возрастает.
Для интернет-магазинов, корпоративных сайтов и лендингов SSR подойдет, но для приложений с частыми обновлениями контента (мессенджеры, соцсети и т. п.) – вряд ли.
Решение 3. Применить динамический рендеринг
Это смешанный подход: для пользователей страница отрисовывается браузером, как обычно, а ботам отдается заранее сгенерированный код на «чистом» HTML.
Решение не лучшее, поскольку его сложнее реализовать. Кроме того, документация Google признает его лишь «обходным путем». Применять стоит только тогда, когда два предыдущих способа не получается внедрить технически.
Вывод
Без JavaScript сайты были бы скучными и простыми, поэтому не стоит полностью отказываться от использования этого языка. В то же время о возможных сложностях с SEO лучше подумать уже на этапе проектирования страниц – и регулярно общаться с командой разработчиков на эту тему.Успехов!
#Бизнес_c_ОК #Разные_ниши #Общие_вопросы