Тем

Индексация сайта в поисковых системах: Индексация сайта в поисковых системах, добавление в индекс и проверка

15.02.1984

Содержание

Как проверить индексацию сайта в поисковых системах

Как подготовиться к проверке индексации сайта Как проверить индексацию в Яндекс Вебмастере Как проверить индексацию в Google Search Console Как проверить индексацию без доступа к сайту Как проверить индексацию отдельных страниц Как контролировать процесс индексации

Мы в Telegram

В канале «Маркетинговые щи» только самое полезное: подборки, инструкции, кейсы.
Не всегда на серьёзных щах — шуточки тоже шутим =)

Подписаться

Станьте email-рокером 🤘

Пройдите бесплатный курс и запустите свою первую рассылку

Подробнее

Индексация — добавление информации о сайте и его страницах в поисковые системы — один из первых шагов в SEO. Не всегда можно полностью довериться Яндексу и Google в этом вопросе — за процессом индексирования нужно следить, иначе можно упустить время и потерять ценный трафик из поиска.

Есть несколько способов отследить то, как индексируется сайт: свой или чужой. Проверять можно сразу все страницы или каждую по отдельности.

Владелец сайта может добавить его в инструменты для вебмастеров от Яндекса и Google. Там можно получить самую полную и достоверную информацию об индексировании, а также узнать об ошибках.

Если доступа к управлению сайтом нет, вы можете проверить индексацию вручную в поисковой выдаче или автоматически — с помощью специальных сервисов и программ.

Теперь давайте обо всем по порядку.

Как подготовиться к проверке индексации сайта

Чтобы оценить, как хорошо индексируется сайт, нужно узнать, сколько на нем страниц.

Для этого пригодится карта сайта — главный помощник поискового робота. В ней указаны все страницы, которые должны быть проиндексированы. Файл находится в корневой папке сайта и называется sitemap.xml (например, site.ru/sitemap.xml).

Если вы используете WordPress с установленным SEO-плагином (например, Yoast), то карта сайта, как правило, генерируется автоматически.

Также можно использовать бесплатную программу Xenu, которая сканирует все страницы сайта. Но чтобы в список не попадало все подряд, ее нужно предварительно настроить.

Как проверить индексацию в Яндекс Вебмастере

Общие сведения об индексации отображаются на главной странице панели — в краткой сводке по сайту в правом столбике.

Плюс Яндекс предлагает целый список отчетов и инструментов в разделе «Индексирование».

В «Статистике обхода» можно узнать, как робот Яндекса исследует сайт, и не столкнулся ли он с проблемами во время сканирования. Здесь два отчета: по последним событиям и по страницам. Если вас интересует, какие изменения произошли недавно, откройте первый отчет.

В следующем подразделе «Все страницы» перечислены все просканированные URL сайта, начиная с последних.

Напротив каждого URL указан код ответа сервера, который получил робот. В идеале это 200. Ответов с кодом 500 на правильно работающем сайте быть не должно. 404-е ошибки встречаются, когда страница была удалена. Если она переехала в другое место, нужно настроить переадресацию.

Страницы, которые находятся в индексе, можно посмотреть в разделе «Страницы в поиске». Во вкладке «Последние изменения» — самая актуальная информация об URL, участвующих в поисковой выдаче Яндекса.

Здесь же можно посмотреть исключенные из поиска страницы.

В подразделе «Все страницы» можно скачать таблицу с информацией об индексации страниц сайта, которые присутствуют в файле sitemap. Напротив каждого URL также будет показан код ответа сервера и статус. Таблица в виде отдельного файла — не самый удобный способ представления данных. Но если напротив страницы указано слово searchable, это означает, что она находится в поиске.

Еще одна полезная опция для проверки индексации — «Мониторинг важных страниц». Чтобы не искать нужные страницы в списке проиндексированных, составьте список (до 100 URL) и добавьте его в специальное поле.

После настройки уведомлений поисковая система будет оповещать вас об изменениях, связанными с выбранными страницами.

Если необходимо, чтобы Яндекс быстрее находил новые страницы и чаще мониторил сайт, не забудьте включить обход по счетчикам. Для этого, конечно же, к сайту должен быть привязан счетчик Метрики.

Как проверить индексацию в Google Search Console

Узнать подробную информацию об индексации в Google Search Console можно в разделе «Покрытие».

Общая информация об индексировании представлена на графике. Все страницы поделены на четыре категории:

  1. Без ошибок (нужно стремиться, чтобы важные страницы сайта были именно в этом списке).
  2. С ошибками.
  3. Без ошибок, но с предупреждениями (как правило, предупреждения можно игнорировать).
  4. Исключенные.

Если количество страниц сайта совпадает с количеством страниц в зеленой и желтой зоне, все хорошо. В желтую зону часто попадают страницы, которые проиндексированы, несмотря на запреты в robots.txt.

Под графиком можно получить подробную информацию о страницах — по какой причине Google отнес их к той или иной категории.

Как проверить индексацию без доступа к сайту

Если вы не являетесь владельцем сайта, — и не имеете доступа к инструментам Google и Яндекса для вебмастеров, — индексацию можно проверить прямо в поисковике и с помощью специальных сервисов. У таких способов есть свои преимущества и недостатки.

Поисковые операторы

Самый быстрый и простой способ узнать количество проиндексированных страниц — заглянуть в поисковую выдачу. Чтобы проверить, есть ли в поиске страницы с конкретного сайта, есть специальный оператор — site. Он работает как в Яндексе, так и в Google.

В инструментах поиска можно отфильтровать результаты: например, отобразить только недавно проиндексированные страницы.

В Яндексе все работает аналогично, только количество проиндексированных страниц отображается справа. Так как Google и Яндекс — поисковики для разных стран, каждый со своим алгоритмом, то количество проиндексированных страниц в разных поисковых системах может отличаться.

В Яндексе тоже есть фильтры, которые можно применить к результатам поиска. Посмотреть недавно добавленные страницы здесь также очень просто. Только вариантов фильтрации всего три: за сутки, за 2 недели и за месяц.

Перемещаясь по страницам поиска, вы сможете посмотреть, какие URL вашего сайта есть в поиске, начиная с самых важных.

Минус такого способа проверки не только в том, что он отнимает больше времени — данные выдачи могут не совпадать с реальностью. Особенно часто этим грешит Яндекс. 

Например, при проверке моего сайта с помощью оператора site выяснилось, что в поиске всего 164 страницы. А в панели Яндекс Вебмастера (раздел «Страницы в поиске») отображаются все 330 страниц. Вебмастер дает более точную информацию, поэтому верить все же стоит ему, а не данным в выдаче.

SEO-сервисы и утилиты

Проверять по отдельности индексацию в каждом из поисковиков не всегда удобно. Иногда хочется получить информацию быстро, без погружения в подробности. Для этого существуют специальные онлайн-сервисы и программы, которые позволяют за несколько секунд проверить индексацию в обеих поисковых системах.

Существуют SEO-комбайны, предлагающие целый набор инструментов для поисковой оптимизации (например, «Топвизор», Netpeak и др.). Но эти сервисы и программы я рассматривать не буду, так как они обычно платные и предназначены для тех, кто вплотную занимается SEO.

Остановимся на бесплатных помощниках оптимизатора, которые способны проверять индексацию отдельных страниц и всего сайта.

Серпхант. Онлайн-сервис с возможностью бесплатной проверки индексации 50 страниц в Яндексе и Google.

Через какое-то время (в зависимости от количества страниц) сервис выдаст результат в виде таблицы. Данные можно скачать отдельным файлом.

SEO Magic. Это браузерное расширение для быстрой проверки основной информации о сайте, в том числе количества проиндексированных страниц. Перейдите на интересующий вас сайт, кликните на значок расширения, и через пару секунд появится краткий отчет.

Если вы делаете сразу много проверок, Яндекс может принять вас за робота, поэтому в результатах проверки появится undefined. Но если кликнуть по ссылке (все показатели кликабельны) — откроется выдача поисковика с уже введенным оператором site и данными о количестве проиндексированных страниц. Правда, сперва придется пройти проверку на ботов.

RDS Bar. Еще одно полезное расширение для SEO-специалистов. В разных браузерах работает по-разному. Лучше всего — в Firefox. В Chrome и Opera некоторые данные могут не отображаться, но их можно посмотреть, перейдя по ссылкам.

Данные об индексировании довольно подробные, но не всегда правдивые. Например, в данном примере расширение показывает, что страница не проиндексирована в Google. Но если нажать «Нет», откроется выдача, в которой эта страница присутствует.

Расширение в целом удобное, но данные лучше перепроверять — для этого достаточно перейти по ссылкам.

И не забывайте, что данные в поиске тоже неточные (особенно в Яндексе). Если вы мониторите собственный сайт, лучше пользуйтесь отчетами Google Search Console и Яндекс Вебмастера.

Как проверить индексацию отдельных страниц

Иногда нужно узнать, проиндексирована ли конкретная страница в Google или Яндексе. Это тоже можно сделать прямо в поиске или в инструментах вебмастера.

Google Search Console. Строка ввода URL для проверки отображается в самом верху панели. Этим инструментом можно воспользоваться в любой момент — независимо от того, в каком отчете вы находитесь.

Если страница проиндексирована, вы получите ответ с зеленой галочкой. Чтобы отправить робота на страницу для сканирования (первичного или повторного), нажмите «Запросить сканирование».

Яндекс Вебмастер. Аналогичный инструмент называется «Проверить статус URL» и находится в том же разделе «Индексирование».

Также наличие страницы в индексе можно проверить в поисковой выдаче с помощью того же оператора site. Только теперь после двоеточия вместо домена нужно указать URL страницы (без пробелов).

Как контролировать процесс индексации

Это нужно, чтобы страницы быстро попадали в поиск и приносили трафик. Мало проверить индексацию, важно облегчить поисковым роботам их работу. 

Вот краткий список рекомендаций:

Добавьте сайт в Яндекс Вебмастер и Google Search Console. Так вы будете получать информацию об индексировании, посещаемости и техническом состоянии сайта из первых рук и сразу узнавать об ошибках, которые поисковые роботы могут выявить на вашем ресурсе.

Составьте карту сайта в формате xml. Если вы пользуетесь WordPress, ее можно создать автоматически с помощью плагина и его базовых настроек. Также карту можно сгенерировать в специальных онлайн-сервисах. Лучше, чтобы она была динамической и отображала дату последнего изменения страниц и файлов сайта (Last-Modified). Также полезно добавить карту в панели вебмастера (оба поисковика предлагают такую возможность).

Создайте файл robots.txt. Он необходим для того, чтобы разрешать или запрещать обход определенных страниц сайта. Если у вас большой сайт с огромным количеством служебных страниц, их индексацию нужно запретить — так роботы Яндекса и Google не будут тратить краулинговый бюджет на ненужные страницы и быстрее проиндексируют то, что действительно важно.

Если важные страницы долго не индексируются, запросите их сканирование вручную. Это не всегда помогает, но не так сложно сделать запрос в Вебмастере или GSC, чтобы поисковый робот быстрее посетил новый URL.

Следите за актуальностью контента и регулярно обновляйте ресурс. Чем чаще на сайте публикуется что-то новое, тем активнее его исследуют поисковики. Если тематика сайта позволяет, заведите блог или придумайте другой способ публикации контента. Не забывайте запрашивать переобход измененных страниц у роботов Яндекса и Google.

Не оставляйте «страниц-сирот». На каждую страницу должна вести хотя бы одна ссылка, иначе поисковый робот никогда не найдет ее самостоятельно. В блоге я уже подробно разбирала, как сделать перелинковку на сайте.

Это самые базовые рекомендации, но их выполнение поможет избежать ошибок в индексировании и быстро «загнать» страницы в поиск.

Поделиться

СВЕЖИЕ СТАТЬИ

Другие материалы из этой рубрики

Не пропускайте новые статьи

Подписывайтесь на соцсети

Делимся новостями и свежими статьями, рассказываем о новинках сервиса

«Честно» — авторская рассылка от редакции Unisender

Искренние письма о работе и жизни. Свежие статьи из блога. Эксклюзивные кейсы и интервью с экспертами диджитала.

Оставляя свой email, я принимаю Политику конфиденциальности

Наш юрист будет ругаться, если вы не примете 🙁

Как запустить email-маркетинг с нуля?

В бесплатном курсе «Rock-email» мы за 15 писем расскажем, как настроить email-маркетинг в компании. В конце каждого письма даем отбитые татуировки об email ⚡️

*Вместе с курсом вы будете получать рассылку блога Unisender

Оставляя свой email, я принимаю Политику конфиденциальности

Наш юрист будет ругаться, если вы не примете 🙁

Как переиндексировать сайт в поисковиках

Индексация сайта позволяет отобразить его страницы в поисковой системе. За такую работу отвечают специальные алгоритмы – роботы. Они сканируют всю информацию на сайте: картинки, фотографии, видео и так далее. Если все прошло успешно, то веб-страницы добавляются в базу и начинают появляться в поисковике при релевантных запросах пользователей.

Как сказать роботу, чтобы он просканировал сайт и отправил его в поисковую систему? Об этом и многом другом поговорим в сегодняшней статье.

Как работает индексирование

Поисковый робот сканирует страницу, и она попадает в Google, Яндекс или другую систему. Но между этими процессами протекают еще и внутренние. После обхода страницы вся полученная информация отправляется в базу данных – индекс, которая хранится в поисковике. Следующим этапом данные распределяются по двум путям: для выстраивания ранжирования (сортировки сайта в поисковой выдаче) и для служебных целей.

При сканировании работы исследуют не только видимую для пользователей текстовую информацию, но и другие параметры: атрибуты документа, информацию из тегов alt, title и description, скрипты. 

И даже если робот обошел весь сайт, не факт, что он окажется в топе. На это влияет уникальность страницы и полезность контента. Если робот посчитает, что информация не соответствует действительности либо недостаточно уникальна, он может не добавить ее в индекс.

Процесс индексации в Google и Яндекс происходит немного по-разному. 

Как оно работает в Google

Первым делом стоит сказать, что точные алгоритмы индексирования страниц засекречены. Как работают Google и Яндекс, знают только сотрудники компаний, но поговорить о базовых принципах можно.

В Google используется технология Mobile-first, которая в первую очередь сканирует мобильную версию сайта. Таким образом, если десктопная версия отлично проработана и заслуживает внимания, а про мобильную версию забыли, то вероятность индексирования будет крайне мала.

Другая особенность Гугла – проверка краулингового бюджета – регулярности и объема посещения сайта роботом. Чем выше этот показатель, тем быстрее будут проходить индексацию новые страницы. Как именно он рассчитывается, неизвестно, но многие специалисты предполагают, что это связано с возрастом сайта и частотой его обновлений.

Как оно работает в Яндекс

В отличие от Гугла, Яндекс не берется в первую очередь за мобильную версию – он изучает, как устроена десктопная версия сайта. С краулинговым бюджетом все наоборот – по крайне мере, официально. Индексирование происходит вне зависимости от траста и других показателей ресурса.

На попадание в поисковик может влиять количество страниц в сети, которые выкладываете вы и другие пользователи. А чтобы добиться высоких результатов в выдаче, сайт должен быть популярным. Чем больше пользователей его посещают, тем лучше.

И еще одна особенность – поисковик не сканирует на сайте файлы размером больше 10 Мб. Это следует учитывать, если вы собираетесь покорять Яндекс.

Комьюнити теперь в Телеграм

Подпишитесь и будьте в курсе последних IT-новостей

Подписаться

Как настроить индексацию сайта

Чаще всего индексация сайта происходит автоматически. Для настройки индексации сайта нам потребуется файл robots.txt. Обычно он генерируется CMS и выглядит примерно так:

Может показаться, что в файле написано что-то сложное и непонятное, но не переживайте – сейчас во всем разберемся. Вот на что стоит обратить внимание:

  • user-agent – показывает, для какого поисковика настраивается индексирование;
  • disallow – показывает, какие страницы не должны попасть в индекс.

Теперь поговорим о другом файле под названием sitemap. xml. Уже из названия понятно, что это карта сайта. Она показывает некую иерархию – как устроена структура ресурса. Это необходимо для упрощения считывания данных поисковыми роботами. В файл вносятся все страницы, которые должны быть проиндексированы.

Такой файл, как правило, создается всего в несколько кликов с помощью плагинов CMS. Например, на WordPress можно воспользоваться AIOSEO. В настройках плагина достаточно перевести ползунок в режим «Включено».

Чтобы сайт максимально быстро индексировался, следует обеспечить внутреннюю перелинковку. Тогда поисковый робот без проблем будет переходить по страницам и быстро найдет новый документ.

После этого вам останется пройти базовую настройку в Google Search Console и Яндекс.Вебмастере. Там нет ничего сложного – интерфейс сам подскажет, что нужно делать.

Можно ли ускорить индексирование

Как таковой заветной кнопки для ускорения индексирования не существует, но можно «поторопить» робота. Это будет полезно, если индексация страницы идет слишком долго, например, из-за какого-то сбоя.

Сделать это можно через личный кабинет Яндекс.Вебмастера. Первым делом необходимо перейти в раздел «Переобход страниц».

После этого вводим адрес той страницы, которую нужно проиндексировать, и нажимаем «Отправить».

Так можно поступать не только с новыми страницами, но и при редактировании старых. Важное замечание – количество отправок в сутки ограничено, причем все зависит от возраста и траста сайта.

У Google ускорение индексации состоит из двух этапов – сначала переходим в Search Console и в верхней части вводим необходимый адрес. Затем нажимаем на клавишу «Enter».

На отразившейся странице будет доступна информация по данной странице. Чтобы ее проиндексировать, достаточно нажать на кнопку:

Как удалить страницу из результатов поисковой системы

Существует три способа удаления страницы: использование тега robots, добавление запрещающей директивы в системный файл robots.txt и использование специальных инструментов Google или Яндекс.

Первый способ подразумевает добавление тега в <head> страницы:


<meta name="robots" content="noindex, follow"/>

Чтобы добавить запрещенную директиву, необходимо прописать «пожелания» для робота. Они могут быть не выполнены, но чаще всего срабатывают. Для этого в файле robots.txt прописываем:


User-agent: Google или Yandex

Disallow: /указывается ссылка на желаемую страницу, которую нужно удалить из выдачи

И последний, пожалуй, самый простой способ – воспользоваться Google Search Console или Яндекс.Вебмастером. В настройках сервисов есть отдельная вкладка, позволяющая удалить любую страницу сайта. Вот так это выглядит в Вебмастере:

Чтобы попасть на эту страницу, необходимо в личном кабинете перейти в «Инструменты» и выбрать «Удаление страниц из поиска».

Как понять, что страница есть в поисковике

Один из самых простых способов понять, проиндексировалась ли страница – это ввести запрос в поисковую систему. Выглядит он как ссылка на страницу, например: https://timeweb.com/ru/community/articles/luchshie-rossiyskie-servisy-email.

Если мы введем такой запрос в гугле, то увидим эту страницу в выдаче:

Соответственно, если бы страница не проиндексировалась, то по данному запросу мы ее не увидели.

Также мы можем посмотреть все страницы, которые были добавлены в поисковик. Для этого необязательно сотню раз вводить адреса страниц. Достаточно воспользоваться простой формулой:


site:адрес сайта

При таком запросе будет отображен список всех страниц, которые есть в данном поисковике. Вот, например, как это выглядит в Гугле:

Также вы можете посмотреть индексацию страниц через Яндекс.Вебмастер в разделе «Индексирование» -> «Страницы в поиске».

Почему проиндексированная страница пропала из выдачи?

Этому может способствовать множество различных причин. Вот одни из самых распространенных:

  • запрашиваемая страница выдает 301 код ошибки;
  • запрашиваемая страница выдает 400 и 500 коды ошибок;
  • в файле robots. txt стоит запрет на индексирование;
  • на странице есть дублирующий контент;
  • наложены санкции за покупные ссылки, некачественный или устаревший контент.

При любых сложностях с индексированием в первую очередь следует смотреть рассмотренные выше файлы – robots.txt и sitemap.xml. Если там все в порядке, то необходимо проверить, нет ли каких-либо ограничивающих фильтров. Если и с ними все хорошо, то лучше всего обратиться к администратору хостинга.

Выводы

Индексация страниц в поисковиках – это один из важнейших этапов успешного SEO-продвижения. Если вы хотите, чтобы ваши страницы посещали другие пользователи, то необходимо регулярно контролировать синхронизацию с популярными поисковыми системами.

Главное правило – это качественный контент, который ценится людьми и ботами. Старайтесь, чтобы сайт был хорошим для пользователей не только в плане контента, но и удобства использования. Все это может повлиять на индексацию как с позитивной, так и с негативной стороны.

Проверка индекса сайта. Как найти мусорные или недостающие страницы

#Оптимизация сайта #Индексация

#94

Декабрь’18

28

Декабрь’18

28

Как проверить индексацию для неподтвержденного сайта мы рассказали ранее. В данной статье расскажем о проверке с помощью данных, которые предоставляет Яндекс Вебмастер и Google Search Console.

Список проиндексированных страниц

Для того чтобы получить полный список проиндексированных страниц в Яндексе, необходимо зайти в раздел Индексация > Страницы в поиске > вкладка «Все страницы».

Ниже представлен список всех страниц, находящихся в поиске, и возможность выгрузить таблицу в XLS и CSV.

В новой версии Google Search Console также появилась возможность увидеть список всех проиндексированных страниц. Для этого нужно зайти в отчет «Покрытие» (в разделе «Индекс»).

В списке ниже представлена информация о страницах, о которых известно поисковой системе и дополнительная информация по ним.

Детальный список проиндексированных страниц можно получить из списка со статусом «Страница без ошибок».

Проверка индексации

Чтобы обнаружить «мусорные страницы», нужно следовать следующему алгоритму:

  • Получаем полный список страниц, которые должны быть проиндексированы. Для этого мы используем программу Screaming Frog SEO Spider. При правильной настройке файла robots.txt спарсится список всех доступных для индексации страниц.
  • Выгружаем индексируемые страницы сайта из Вебмастеров.
  • Сравниваем попарно получившиеся списки с помощью инструмента «Условное форматирование» в Excel, подсветив все уникальные значения.

В ходе сравнения могут возникнуть следующие ситуации:

  • подсветка страниц, которые есть только в списке парсера. В таком случае нужно диагностировать причину, почему страница не находится в индексе. Если она должна индексироваться, то отправляем ее на переобход. Как это делать, описано в статье.
  • подсветка страниц, которые есть только в индексе. В данном случае пытаемся понять, почему ее нет в списке всех страниц сайта. Возможно, это страница с кодом 404, которая так и не была удалена поисковым роботом или деактивированный элемент, у которого неверно настроен код ответа.

Для удаления страниц в Вебмастере существует инструмент «Удаление страниц из поиска», позволяющий единовременно удалить до 500 отдельных страниц или группу страниц по префиксу в url. Главное, чтобы страницы были закрыты от индексации.

Инструмента для принудительного удаления страниц у Google нет, но можно временно удалить свои URL из результатов поиска.

Для этого необходимо зайти в старую версию Search Console и в левом меню выбрать «Индекс Google» > «Удалить URL-адреса».

Далее указываем URL страницы, которую вы хотите скрыть. Выбираем из списка необходимое действие и отправляем запрос.

[TypeError] 
array_merge(): Argument #1 must be of type array, null given (0)
/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/seo-blitz.list/class.php:109
#0: array_merge
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/seo-blitz.list/class.php:109
#1: SeoBlitzList->getResult
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/seo-blitz.list/class.php:61
#2: SeoBlitzList->executeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:660
#3: CBitrixComponent->includeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/main.php:1062
#4: CAllMain->IncludeComponent
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/article.detail/templates/seo_detail/template.php:102
#5: include(string)
	/home/bitrix/www/bitrix/modules/main/classes/general/component_template.php:790
#6: CBitrixComponentTemplate->__IncludePHPTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component_template. php:885
#7: CBitrixComponentTemplate->IncludeTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:776
#8: CBitrixComponent->showComponentTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:716
#9: CBitrixComponent->includeComponentTemplate
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/article.detail/class.php:102
#10: ArticleDetailComponent->executeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:660
#11: CBitrixComponent->includeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/main.php:1062
#12: CAllMain->IncludeComponent
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/blog/templates/.default/seo-detail.php:9
#13: include(string)
	/home/bitrix/www/bitrix/modules/main/classes/general/component_template.php:790
#14: CBitrixComponentTemplate->__IncludePHPTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component_template.php:885
#15: CBitrixComponentTemplate->IncludeTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component. php:776
#16: CBitrixComponent->showComponentTemplate
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:716
#17: CBitrixComponent->includeComponentTemplate
	/home/bitrix/ext_www/blog.arealidea.ru/local/components/areal/blog/class.php:47
#18: BLog->executeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/component.php:660
#19: CBitrixComponent->includeComponent
	/home/bitrix/www/bitrix/modules/main/classes/general/main.php:1062
#20: CAllMain->IncludeComponent
	/home/bitrix/ext_www/blog.arealidea.ru/index.php:38
#21: include_once(string)
	/home/bitrix/www/bitrix/modules/main/include/urlrewrite.php:184
#22: include_once(string)
	/home/bitrix/www/bitrix/urlrewrite.php:2
----------

Как поисковые системы индексируют сайт

Перед показом страницы в выдаче её основательно обрабатывают роботы поисковых систем. Вначале роботы сканируют страницу, затем вносят контент в индекс и предоставляют результаты в выдаче. Мы уже детально раскрыли процесс сканирования страниц, а сегодня поговорим об индексировании.

Индексирование — объединение и систематизация всей собранной на этапе сканирования информации о страницах с помощью создания специальной базы, индекса.

Не все просканированные страницы попадают в индекс. При сканировании робот вносит в свою базу все страницы, которые может обнаружить, но в индекс войдут только те, которые робот сочтет полезными для пользователя.

Также не стоит путать индексирование с ранжированием. На данном этапе ранг документу не присваивается, так как база постоянно пополняется новыми страницами и определить релевантность документа однозначно нельзя — через секунду может появится более релевантная страница. Поэтому ранг странице присваивается непосредственно в момент поиска.

Как формируется индекс?

Индекс содержит данные о словах на странице, о их местоположении, данные из основных тегов и атрибутов, например, тегов title и атрибутов alt. Построив индекс, роботы поисковых систем легко проводят поиск нужных документов.

Большинство роботов используют «инвертированный индекс» — для каждого термина создается список документов, которые содержат этот запрос.

Например:

Термин

Документ

Термин 1

Документ 1, Документ 3, Документ 5, Документ 7

Термин 1

Документ 3, Документ 5, Документ 4

Термин 1

Документ 3, Документ 6

Если посмотреть на создание инвертированного индекса глазами робота, то выглядит это примерно так:

  1. Конверсия в чистый текст — робот удаляет нетекстовые элементы (разметка, графика).
  2. Токенизация — робот создает выборку слов для выделения лексем (семантических единиц для обработки).
  3. Лингвистическая обработка лексем. Собранные лексемы всех слов со всех текстов упорядочиваются по алфавиту и для каждой из них добавляется номер вхождения и информация о номере страницы, откуда лексема была взята.
  4. Собственно составление индекса.

Сама запись в индексе выглядит примерно так, но для экономии места роботы могут усложнять ее структуру:

Лексема / номер страницы + номер вхождения / номер страницы + номер вхождения / номер страницы + номер вхождения /

Как управлять индексированием?

Как стимулировать роботов внести страницы в индекс:

1. Открыть закрытые для индексирования страницы.

2. Проследить, чтобы страницы просканировались, добавляя ссылки для сканирования в очередь с помощью вебмастера. Также можно использовать «ловцов ботов» — программы, основная задача которых предоставлять поисковым роботам ссылки на важные страницы сайта.

3. Размещать релевантный контент, метатеги, оптимизировать изображения, следить, чтобы рекламные блоки занимали максимум 30% первого экрана сайта.

Как ограничить доступ роботов к индексированию контента:

1. Добавить специальный метатег в верхней части HTML-страниц: <meta name=»robots» content=»noindex» />.

2. Добавить специальный HTTP-заголовок: X-Robots-Tag: noindex.

Как проверить, попала ли страница в индекс?

1. Вручную, через строку поиска.

1.2. С помощью оператора поиска site:domen.com проверить индексацию всего сайта:

1.3. С помощью оператора site:domen.com/page1, где domen.com/page1 — url проверяемой страницы:

1. 4. С помощью оператора поиска cache:domen.com/page1, где domen.com/page1 — url проверяемой страницы :

2. С помощью вебмастера Google:

3. С помощью плагина RDS Bar:

Больше интересных фишек для проверки наличия страницы в индексе, включая специальную таблицу для массовой проверки url-адресов.

Почему страница выпадает из индекса?

1. Установлен запрет на сканирование в robots.txt, есть метатег <meta name=»robots» content=»noindex» />. Если страницы уже попали в индекс, при повторном сканировании робот увидит запрет и страницы выйдут из базы индексируемых.

2. На странице существует атрибут rel=»canonical» для другой страницы сайта.

3. Ответ сервера содержит HTTP-статус 4XX или 5XX, это препятствует обработке страницы роботом.

4. Сайт находится под фильтрами поисковых систем (из-за неуникального контента, манипулирования ссылочными факторами и так далее).

5. На странице присутствуют дубли контента.

6. Страница перенаправляет робота — отображается 301 код ответа сервера.

Выводы

  1. Во время индексирования роботы поисковых систем систематизируют собранные в процессе сканирования данные о страницах сайта.
  2. SEO-специалист может влиять на индексирование контента сайта (но нет стопроцентной гарантии, что роботы поисковых систем к нему прислушаются).
  3. Сканирование страницы не гарантирует того, что контент будет проиндексирован, а индексация контента не означает, что он будет ранжироваться.

Остались вопросы? Пишите в комментариях, или ищите ответы в других выпусках рубрики «Азбука SEO».

Индексирование и сканирование сайта | SEO-портал

Что такое индексирование сайта?

Индексация (индексирование) сайта — процесс добавления информации о страницах <div class="seog-tooltip-more-link"><a href="/terminy/sajt">Подробнее</a></div> »>сайта в индексную базу данных поисковых систем. Решение об индексировании той или иной страницы принимается при её обходе (сканировании) поисковым роботом. Также следует понимать, что индексация веб-страницы предшествует её попаданию в поисковую выдачу.

Что такое сканирование сайта?

Сканирование сайта — процесс обхода страниц сайта поисковыми роботами на соответствие SEO-факторам.

Зачем поисковые системы индексируют веб-страницы?

Все результаты поиска по тому или иному запросу формируются из индексной базы данных поисковой системы, которая содержит копии предварительно просканированных страниц. Таким образом, индексация нужна для того, чтобы ускорить формирование поисковой выдачи на основании имеющихся в ней данных.

Зачем настраивать индексацию и сканирование?

Настраивать и контролировать процессы индексирования и сканирования следует для того, чтобы:

  • ускорить попадание в выдачу нужных страниц,
  • улучшить ранжирование обновлённых страниц,
  • исключить попадание в выдачу ненужных страниц,
  • снизить создаваемую роботами нагрузку на сервер,
  • экономить ресурсы поисковых систем (краулинговый бюджет).

Управление индексацией позволит ускорить попадание и продвижение важных страниц сайта в результатах поиска, в то же время при попадании в индекс неактуальных страниц, дублей, страниц со спамным контентом возможна пессимизация сайта в поисковой выдаче.

Как проверить индексацию сайта?

Есть ряд способов узнать о том, какие страницы сайта проиндексированы, а какие — нет:

Сервисы для веб-мастеров поисковых систем
Поисковые системы предоставляют веб-мастерам не только информацию об общем количестве проиндексированных и непроиндексированных страниц, но также сообщают о причинах исключения или непопадания страниц в индекс. Яндекс.Вебмастер → Страницы в поискеGoogle Search Console → Покрытие
Поисковый оператор site:
Для проверки в поисковой строке Google или Яндекс введите site:[доменное имя сайта], в результатах поиска будут присутствовать только страницы указанного сайта. Обратите внимание на общее число результатов — это и есть количество проиндексированных страниц. Количество страниц сайта в ЯндексКоличество страниц сайта в Google
Специальные плагины для браузера
Например, плагин для браузера RDS Bar будет отображать число, которое выводится в результатах поиска при применении оператора site:. Количество проиндексированных страниц в RDS Bar
Специальные программы и сервисы
Чтобы проверить индексацию сайта по ключевым словам, можно воспользоваться специальными сервисами (allpositions.ru, topvisor.ru) или программами (Key Collector), а также сервисами поисковых систем. Проверка индексирования по запросу в ТопвизорПроверка индексирования по запросу в Key Collector

Сколько времени занимает индексация сайта?

На основании информации из баз данных формируются результаты поисковой выдачи.<div class="seog-tooltip-more-link"><a href="/baza/indeksatsiya">Подробнее</a></div> »>Индексирование веб-страницы в Google может занимать от нескольких минут до одной недели, в Яндекс — от недели до четырех недель. Скорость зависит от ряда факторов и может отличаться.

Как часто происходит сканирование сайта?

Поисковые боты постоянно равномерно сканируют страницы сайта, обновляя их в индексе: Google обновляет индекс в постоянном режиме, Яндекс — во время апдейтов поисковой базы, примерно раз в три дня. Googlebot чаще остальных сканирует важные страницы, чтобы учитывать важные изменения на них при ранжировании. К важным в глазах поисковых систем страницам относятся главная и страницы высокого уровня в зависимости от их содержания. Такие страницы сканируются чаще остальных – каждые несколько дней или даже чаще, в зависимости от масштабов и частоты обновления сайта.

Что затрудняет индексацию сайта?

Мешать поисковым роботам быстро и правильно индексировать сайт могут следующие факторы:

  • Большое количество страниц на сайте.
  • Большое количество «битых» (ведущих на несуществующие страницы) ссылок.
  • Дубликаты страниц (пример: seoportal.net и www.seoportal.net).
  • Некорректная обработка несуществующих страниц.
  • Некорректные ответы сервера (HTTP-статусы).
  • Ошибки в файле robots.txt или его отсутствие.
  • Ошибки в файле Sitemap или его отсутствие.
  • Неправильное применение мета-тега Robots.
  • Санкции поисковых систем.

Как ускорить индексирование веб-страниц?

Быстрому и корректному индексированию способствуют:

  • установленные счетчики веб-аналитики Яндекс.Метрика и Google Аналитика,
  • полноценный динамический файл Sitemap в формате XML, о котором знают поисковые системы,
  • грамотно настроенный файл robots. txt,
  • склейка дублей веб-страниц,
  • грамотная внешняя и внутренняя перелинковка.

Кроме этого ускорить индексирование новых или обновлённых страниц сайта можно с помощью соответствующих возможностей в сервисах поисковых систем:

Яндекс.Вебмастер → Переобход страницGoogle Search Console → Проверка URL

Как запретить индексирование веб-страниц?

Запретить индексацию можно посредством:

  • запрещающих сканирование директив в файле robots.txt,
  • мета-тега robots со значением noindex,
  • склейки дубликатов страниц посредством редиректов,
  • тега <link> с атрибутом rel="canonical" и ссылкой на канонический URL в атрибуте href.

Как удалить страницу из индекса?

Чтобы поисковая система самостоятельно удалила страницу из индексной базы можно использовать следующие способы:

  • Физически удалить страницу, чтобы при её запросе сервер возвращал статус 404 Not Found.
  • Использовать на странице мета-тег Robots с директивой noindex.

Ускорить удаление страницы из индекса можно в сервисах поисковых систем:

Google Search Console → УдаленияЯндекс.Вебмастер → Удаление страниц из поиска

Индексация сайта в поисковых системах

Индексация в поисковых системах — что это?

Если говорить простым языком, то индексирование сайта представляет собой внесение его страниц в базу поисковых систем. В ходе этого процесса система собирает информацию о содержании ресурса. Поисковые роботы (их еще называют пауками) сканируют и обрабатывают веб-страницы, видео, изображения и т. д. После того как анализ завершен, страницы сохраняются в поисковый индекс — то есть базу данных. И именно в ней в дальнейшем система ищет результаты, которые соответствуют запросам пользователей.

Как происходит индексация сайта поисковыми системами

Один запрос — это тысячи адресов, потенциально содержащих ответ. По сути, Google знает его до того, как пользователь ввел запрос в поисковую строку. Индексация — непрерывный процесс, так как веб-роботы регулярно сканируют новые и обновленные сайты, добавляя полученную информацию в индекс (базу данных). Получается, когда пользователь что-то ищет в интернете, на самом деле он ищет индекс.

Подстраницы сайта, то есть, дочерние, идущие после основной, индексируются по одной. После ввода запроса робот выполняет поиск по индексу и находит все соответствующие ему страницы. Таким образом, мы получаем действительно огромное количество результатов.

Чтобы дать пользователю наиболее точный ответ, Google использует алгоритмы, которые выбирают сайты в индексе на основе нескольких сотен различных факторов. Они учитывают не только количество и размещение ключевых слов, релевантных словосочетаний, но и качество, юзабилити сайта, насколько хорошо он защищает конфиденциальные данные. Факторов ранжирования множество, и соответствовать нужно каждому. При этом сам процесс определения позиции сайта и отображения результатов поиска занимает у Google примерно полсекунды.

Сколько www-адресов в индексе? Сотни миллиардов. Они занимают более 100 000 000 гигабайт. Google назначает сайт для индекса в соответствии со словами, которые он содержит.

Загрузка, индексация и работа алгоритмов

Чтобы определить сайт, который лучше всего отвечает на запросы пользователя, должны сработать поисковые алгоритмы. Именно благодаря им результаты в индексе выбираются и упорядочиваются в определенном порядке. Google постоянно работает над улучшением своих алгоритмов, поэтому он может распознавать ключевые слова, контекст и даже опечатки, которые могут появляться при вводе запроса. При этом алгоритмы оценивают не только текст, но и другие аспекты, например, доверие к сайту, достоверность и информативность контента, качество ссылок и даже намерения пользователя.

Провести анализ индексации сайта в поисковых системах

Адрес сайта

Индексирование и сканирование

Что такое индексация страниц, мы рассмотрели. Однако в контексте поисковых систем вы также можете найти термин «сканирование». Сканирование еще не индексирует страницы, а только перемещает робота между ними.

Crawling — это отправка бота на анализируемый сайт, тогда как индексирование — это загрузка, обработка и сбор данных для включения его в индекс поисковой системы. Сканирование не означает, что адрес был проиндексирован и появится в результатах поиска.

Размещение веб-адреса в индексе — это следующий этап после сканирования. Не каждая просканированная страница индексируется, но каждая проиндексированная была просканирована ранее.

Краулинговый бюджет сканирования

Краулинговый бюджет — это максимальный объем данных, которые поисковая система может получить с домена за одно посещение роботом. Чтобы извлечь максимальную пользу из обхода роботом, необходимо рассмотреть два аспекта:

  • ограничение скорости сканирования;
  • ускорение индексирования сайта.

Во время одного посещения сайта роботы хотят просканировать максимально возможное количество URL-адресов. Ограничение скорости сканирования заключается в том, чтобы они делали обход без перегруза сервера. Если краулер будет загружать слишком большое количество страниц, сайт начнет грузиться медленнее, а это, в свою очередь, разочарует его посетителя.

Ранее для этого ограничения нужно было указывать директиву crawl-delay в файле robots.txt. Сегодня она считается устаревшей, так как поисковые системы сами управляют скоростью. Если нагрузка на сервер слишком большая, сканирование прекращается автоматически, поэтому «тяжелые» странички необходимо оптимизировать, чтобы их вес уменьшился, и на их обработку роботы тратили меньше времени.

Чтобы ускорить индексирование, бота принудительно возвращают на сайт. Для этого новые или обновленные страницы отправляются на повторное сканирование через панель вебмастера. Стоит отметить, что популярные и часто обновляемые сайты обрабатываются чаще, так как изменения на них привлекают внимание поисковых роботов. Именно поэтому прекращение работ по оптимизации становится причиной снижения позиций в выдаче.

Если кратко, бюджет индексации сайта — количество URL-адресов, которые поисковая система может и хочет проиндексировать. Выражается в мегабайтах (Мб).

На каждый домен выделен ежедневный бюджет. Боты просматривают страницы до предела и прекращают индексирование после его израсходования. Затем они возвращаются, чтобы проверить обновления на уже загруженных адресах. Если архитектура сайта плохо проработана, страницы, расположенные слишком глубоко, могут вообще не индексироваться. Чтобы этого избежать, нужно делать упор не столько на красивом дизайне, сколько на юзабилити с учетом дальнейшей оптимизации. Важные подстраницы должны находиться в числе первых в иерархии структуры сайта, остальные упорядочиваются по мере снижения приоритетности.

Когда поисковый робот возвращается на сайт, никто не знает. По идее, сканирование осуществляется каждый день, но нигде не указано, когда именно бот его прекращает и в какое время возобновляет.

Циклическая индексация

Индексирование носит циклический характер, поэтому нужно постоянно заботиться о качестве сайта и вносимых обновлениях, чтобы занимать высокие позиции в результатах выдачи. После первого посещения роботы время от времени возвращаются, чтобы проверить и проиндексировать любые изменения. Чем чаще они встречают новый, ценный контент, тем больше вероятность, что вернутся вновь. И как итог: чем раньше он будет проиндексирован, тем быстрее появится в результатах поиска.

Часто возникающие вопросы в процессе индексации сайтов.

1. Почему я не могу найти свою страницу в Google?

1.1. Время индексации.

Сколько времени занимает индексация страницы в Google? На этот вопрос нет однозначного ответа. Однако практика веб-мастеров показывает — загрузка нового сайта в индекс поисковой системы может занять от пары дней до нескольких месяцев. В этой статье мы рассмотрим факторы, которые ускоряют и замедляют этот процесс, и попытаемся ответить на вопрос, можно ли оценить реальное время индексации страницы в Google.

Как проверить, была ли страница сохранена в поисковой системе?

Способ 1: введите сайт в окно поисковой системы ссылку Вашего сайта. Если вы получаете результаты, сайт был проиндексирован. Отсутствие ссылок на сайт означает, что он, вероятно, еще не обработан роботом Google.

Способ 2: проверить статистический отчет в консоли Google для веб-мастеров. Он содержит информацию о действиях на сайте, выполненных поисковым роботом за последние 90 дней.

1.2. Когда Google не сохраняет адрес в индексе?

Google не сохраняет url сайта по разным причинам. Несколько примеров, почему это может произойти:

  • неправильно настроенный robots.txt. При этом поисковая система по-прежнему может просматривать страницу, заблокированную в файле robots.txt, но не будет видеть ее содержимое. В этом случае рядом с результатом появится сообщение: «Описание этого результата недоступно из-за robots.txt»,
    ограничено выбранными каталогами,

например:
User-agent: *
Disallow: / images /
Disallow: / private /

Здесь мы не блокируем индексацию всей страницы, а только элементы, хранящиеся в двух каталогах, то есть, images и Private.

Или

User-agent: *
Disallow: /

Здесь блокируем доступ ко всему сайту.

  • неправильно настроенный файл .htaccess, который позволяет, среди прочего, блокировать пользователей, например, по IP-адресам. Если администратор случайно заблокировал IP-адреса Google, страница не проиндексируется;
  • устаревшая карта сайта;
  • низкокачественный сайт.

1.3. Когда стоит переиндексировать сайт?

Отправка запросов в панели веб-мастера на сканирование страниц не является обязательной, но может помочь ускорить посещение сайта роботом Google. Помните, что бот автоматически возвращается, чтобы получить актуальную информацию о его содержимом. Таким образом, запрос на индексирование можно повторить, но на практике это необязательно, потому что толком неизвестно, действительно ли это ускорит процесс. В общих рекомендациях, доступных в Справке Google, есть информация о том, что индексация занимает от пары дней до нескольких недель (в некоторых случаях даже месяцев), и отправка большого количества запросов на повторное сохранение одного и того же URL-адреса никак не ускорит ее.

2. Как ускорить индексацию страницы в Google?

2.1. Изменения на сайте и индексация.

Систематическое обновление сайта новым и полезным контентом может привести к тому, что роботы поисковых систем будут чаще его посещать, тем самым ускоряя индексацию. Это, конечно, только один метод, но очень важный с точки зрения поискового продвижения. Прежде чем мы узнаем, почему некоторые адреса сканируются быстрее, а другие замедляются, стоит изучить способы ускорения всего процесса.

2.2. Способы ускорения индексации страницы.

Вот несколько SEO-методов, которые помогут ускорить индексацию сайта:

  • добавление ссылок на страницы с большим трафиком.

Чем больше ссылок связано с сайтом, тем выше вероятность того, что он будет проиндексирован. Также контент, который нужно быстро проиндексировать, должен быть связан с главной. Кроме того, чем ближе к ней находится важная страница, тем лучше. Теоретически, поисковая система должна сканировать ее быстрее. Вот почему стоит учитывать это при планировании структуры сайта. Чтобы ускорить этот процесс, стоит также разместить важные ссылки в своем блоге, социальных сетях, тематическом форуме или написать статью, содержащую ссылку;

  • использование карт XML и HTML.

Карта сайта поможет ускорить процесс индексации сайта, хотя в целом отсутствие файлов XML и HTML не помешает роботу сделать это и без них. Карта сайта — это перечень имеющихся подстраниц. Она минимизирует количество переходов бота по страницам, благодаря чему уменьшается время на их поиски;

  • отправка запроса на индексацию страниц с помощью Google Search Console.

Внимание! Ускорение индексации — это не то же самое, что увеличение позиции сайта в результатах поиска. Индексация напрямую не влияет на нее, но сильно сказывается на самом продвижении. Непроиндексированный контент не будет включен в результаты поиска, но в то же время индексирование не означает, что позиции страницы будут высокими.

3. Быстрая индексация страниц в Google: сколько времени это займет?

3.1. Почему один адрес сканируется быстрее, чем другой?

Как обычно бывает с Google, когда дело доходит до индексации, эксперты компании ничего не объясняют напрямую. В 2018 году Джон Мюллер из Google подтвердил, что URL-адреса сохраняются в соответствии с различными факторами, и что поисковая система не сканирует URL-адреса с одинаковой частотой все время. Поэтому неудивительно, что некоторые сайты роботы будут посещать ежедневно, другие – каждую неделю, третьи — раз в несколько месяцев или даже через полгода.

Стоит подчеркнуть, что редкое сканирование сайта не означает, что с ним что-то не так с технической стороны. Период обработки в несколько месяцев вполне нормальный и естественный. В качестве примера следует добавить, что внесение значительных изменений на сайте приведет к тому, что часть страниц проиндексируется быстро. Остальным же придется какое-то время подождать. Почему так происходит? На это влияют многие факторы: перелинковка, структура страницы, частота изменений. Например, если сайт давно не обновлялся, поисковая система может не отправить к нему бота. Тем не менее, когда происходит обновление, это может занять какое-то время, но в конечном итоге робот Google обязательно посетит изменившуюся страницу.

3.2. Как быстро поисковая система может проиндексировать страницу?

В большинстве случаев на это требуется несколько дней. Это может занять до 24 часов, хотя нельзя сказать, что это происходит на постоянной основе. Веб-мастера признают, что бывает и иначе: страница может появиться в индексе в тот же день, через неделю или даже месяц.

3.3. Сколько времени занимает индексация изменений на страницах?

На этот вопрос нет однозначного ответа. Google работает в определенном темпе, но известно, что, помимо частоты обновлений, он также учитывает и другие факторы. Чтобы поисковый робот посещал сайт чаще, его нужно регулярно обновлять. После внесенных изменений, например, удаление или добавление страниц, отправьте запрос на переобход через панель вебмастера. Можно также оставлять ссылки на новый контент в социальных сетях, блогах, тематических форумах.

3.4. От индексации к ранжированию.

Без индексации вы не сможете получить высоких позиций в результатах поиска, потому что это необходимый шаг для включения сайта в индекс Google. Само индексирование иногда занимает несколько месяцев. После сохранения сайта в кеше Google нужно время, чтобы оценить изменения. На данный момент страница уже находится на каком-то уровне в рейтинге. Вы вносите изменения, чтобы улучшить рейтинг, и цикл начинается снова.

4. Медленная индексация страниц в Google.

4.1. Ожидание индексации: сколько времени это занимает, в чем причина?

4.1.1. Долгое ожидание индексации: последствия для сайта.

Время, необходимое для индексации, влияет на время продвижения в целом. Поднятие позиций или изменений в ранжировании можно наблюдать только после индексации страницы.

4.2. Медленная индексация новых страниц.

Для появления новой страницы в результатах поиска может потребоваться от 24 часов до нескольких месяцев. Это из-за того, что сайт новый, он не имеет входящих ссылок.

Ожидание в течение нескольких недель появления адреса в результатах поиска — естественный процесс. Как пользователи интернета, мы привыкли к мгновенному получению ответов на запросы, но с другой стороны, веб-мастера, это происходит не так быстро, как хотелось бы. Чтобы повысить вероятность быстрого сканирования страницы, выполните действия, описанные в разделе «Как ускорить индексацию страницы в Google?».

4.3. Медленная индексация измененных страниц.

Стоит понимать, что регулярное и частое обновление контента ускоряет индексацию и, следовательно, повышает шанс подняться в рейтинге поисковой системы. Чем чаще что-то происходит на сайте, тем больше вероятность того, что Google сочтет его активным и будет чаще отправлять свой сканер для анализа изменений.

Как запретить сайту выполнять индексацию страниц

Существует несколько способов сделать это:

  1. Используйте в html-коде страницы атрибут noindex. Таким образом поисковая система «поймет», что эту страницу необходимо исключить из результатов поиска.
  2. Ограничьте индексацию через файл конфигурации .htaccess с помощью пароля.
  3. Используйте файл robots.txt. С помощью этого документа можно запретить индексацию ресурса целиком или же заблокировать доступ к выбранным страницам.
  4. Удалите URL через специальные плагины.

Каждый из методов подходит под отдельную ситуацию. Поэтому выбирать, как закрыть сайт или страницы от индексирования, нужно в индивидуальном порядке.

FAQ

Что такое индексация сайта?

Индексация страниц сайта — это процесс, который чем-то похож на внесение информации в каталог библиотеки. Только в этом случае сведения о ресурсе или его отдельных страницах добавляются в базы данных поисковиков. Индексация выполняется в автоматическом режиме специальными алгоритмами — роботами.

Как индексировать сайт?

Если вас интересует индексация сайта в Google, то для этого нужно выполнить следующие действия:

  • найти инструмент проверки URL в Google Search Console;
  • указать URL-адрес страницы или сайта, дождаться, пока будет выполнена его проверка;
  • после этого нажать на кнопку «Запросить индексирование».

Такой способ бесплатный и подходит для индексации новых страниц.

Какие страницы не нужно индексировать?

В индексации не нуждаются копии сайта, страницы в процессе разработки, пользовательские элементы и формы, технические страницы, а также страницы пагинации, сортировки, печати. Кроме этого, нельзя индексировать страницы, на которых содержится персональная информация о клиентах.

Что такое индексирование в поисковых системах и как оно работает?

Сэм Марсден

SEO и контент-менеджер

Давайте поделимся

Что происходит, когда поисковая система завершает сканирование страницы? Давайте рассмотрим процесс индексации, который поисковые системы используют для хранения информации о веб-страницах, что позволяет им быстро выдавать релевантные высококачественные результаты.

 

Зачем нужна индексация поисковыми системами?

Помните дни до Интернета, когда вам приходилось обращаться к энциклопедии, чтобы узнать о мире и копаться в Желтых страницах, чтобы найти сантехника? Даже на заре Интернета, до появления поисковых систем, нам приходилось искать информацию в каталогах. Какой трудоемкий процесс. Откуда у нас хватило терпения?

Поисковые системы произвели революцию в поиске информации, поскольку пользователи ожидают почти мгновенных ответов на свои поисковые запросы.

 

Что такое индексирование поисковыми системами?

Индексирование — это процесс, с помощью которого поисковые системы упорядочивают информацию перед поиском, чтобы обеспечить сверхбыстрые ответы на запросы.

Поиск на отдельных страницах по ключевым словам и темам будет очень медленным процессом для поисковых систем, чтобы определить релевантную информацию. Вместо этого поисковые системы (включая Google) используют инвертированный индекс, также известный как обратный индекс.

Просмотрите дополнительные ресурсы по индексации поисковыми системами в Академии веб-разведки Lumar

 

Что такое инвертированный индекс?

Инвертированный индекс — это система, в которой база данных текстовых элементов составляется вместе с указателями на документы, содержащие эти элементы. Затем поисковые системы используют процесс, называемый токенизацией, чтобы сократить слова до их основного значения, тем самым уменьшая количество ресурсов, необходимых для хранения и извлечения данных. Это гораздо более быстрый подход, чем перечисление всех известных документов по всем релевантным ключевым словам и символам.

Пример инвертированной индексации

Ниже приведен очень простой пример, иллюстрирующий концепцию инвертированной индексации. В примере видно, что каждое ключевое слово (или токен) связано со строкой документов, в которых этот элемент был идентифицирован.

Keyword Document Path 1 Document Path 2 Document Path 3
SEO example. com/seo-tipsmoz.com
https DeepCrawl.co.uk/https-Speed ​​ Пример. Вместо этого идентификаторы зависят от того, как устроена поисковая система.

 

Кэшированная версия страницы

Помимо индексации страниц, поисковые системы также могут хранить сильно сжатую текстовую версию документа, включая все HTML и метаданные.

Кэшированный документ — это последний снимок страницы, просмотренный поисковой системой.

Доступ к кэшированной версии страницы можно получить (в Google), щелкнув маленькую зеленую стрелку рядом с URL-адресом каждого результата поиска и выбрав вариант кэширования. Кроме того, вы можете использовать оператор поиска Google «cache:» для просмотра кешированной версии страницы.

Bing предлагает те же возможности для просмотра кешированной версии страницы с помощью зеленой стрелки вниз рядом с каждым результатом поиска, но в настоящее время не поддерживает оператор поиска «кэш:».

 

Что такое PageRank?

«PageRank» — это алгоритм Google, названный в честь соучредителя Google Ларри Пейджа (да, действительно!) Это значение для каждой страницы, рассчитанное путем подсчета количества ссылок, указывающих на страницу, чтобы определить ее значение относительно любой другой страницы в Интернете. Значение, передаваемое каждой отдельной ссылкой, основано на количестве и значении ссылок, указывающих на страницу со ссылкой.

PageRank — это лишь один из многих сигналов, используемых в большом алгоритме ранжирования Google.
Приблизительные значения PageRank изначально были предоставлены Google, но они больше не являются общедоступными.

Хотя PageRank является термином Google, все коммерческие поисковые системы рассчитывают и используют эквивалентную метрику ссылочного веса. Некоторые SEO-инструменты пытаются дать оценку PageRank, используя собственную логику и расчеты. Например, Page Authority в инструментах Moz, TrustFlow в Majestic или рейтинг URL в Ahrefs. У Lumar есть метрика под названием DeepRank для измерения ценности страниц на основе внутренних ссылок на веб-сайте.

 

Как PageRank перемещается по страницам

Страницы передают PageRank или ссылочный капитал другим страницам посредством ссылок. Когда страница ссылается на контент в другом месте, это рассматривается как вотум уверенности и доверия, поскольку контент, на который ссылаются, рекомендуется как актуальный и полезный для пользователей. Количество этих ссылок — и мера того, насколько авторитетным является ссылающийся веб-сайт — определяет относительный PageRank страницы, на которую ссылаются.

PageRank поровну распределяется между всеми обнаруженными ссылками на странице. Например, если на вашей странице пять ссылок, каждая ссылка будет передавать 20% PageRank страницы через каждую ссылку на целевые страницы. Ссылки с атрибутом rel=»nofollow» не проходят PageRank.

 

Обратные ссылки являются краеугольным камнем того, как поисковые системы понимают важность страницы. Было проведено множество исследований и тестов, чтобы определить корреляцию между обратными ссылками и рейтингом.

Исследование обратных ссылок, проведенное Moz, показывает, что в результатах 50 самых популярных поисковых запросов Google (около 15 000 результатов поиска) 99,2% из них содержали как минимум 1 внешнюю обратную ссылку. Кроме того, SEO-специалисты постоянно оценивают обратные ссылки как один из наиболее важных факторов ранжирования в опросах.

Следующая глава: Отличия поисковых систем


 

Полное руководство по работе поисковых систем:

Как работают поисковые системы?

Как поисковые системы сканируют веб-сайты

Как работает индексирование в поисковых системах?

Каковы различия между поисковыми системами?

Что такое краулинговый бюджет?

Что такое Robots. txt? Как robots.txt используется поисковыми системами?

Руководство по директивам Robots.txt

 


Дополнительные учебные ресурсы:

Рекомендации по индексации (Академия аналитики веб-сайтов Lumar)

Узнайте больше об индексации в поисковых системах и поисковой оптимизации

Электронная книга: Полное руководство по SEO для предприятий

Как следует подходить к SEO для корпоративных веб-сайтов? Какие уникальные соображения и проблемы существуют для поисковой оптимизации в масштабе предприятия по сравнению с внедрением SEO в небольших организациях?

Электронная книга
: Digital Ops & Demand Generation

Узнайте, как сделать свой веб-сайт мультипликатором производительности для формирования спроса, из этого руководства для специалистов по цифровому маркетингу и SEO-специалистов.

Начните улучшать онлайн-опыт уже сегодня

Lumar — это интеллектуальная и автоматизирующая платформа для прибыльных веб-сайтов

Начните с Lumar

Сэм Марсден

SEO и контент-менеджер

Сэм Марсден — бывший менеджер Lumar по поисковой оптимизации и контенту, а в настоящее время — руководитель отдела SEO в Busuu. Сэм регулярно выступает на маркетинговых конференциях, таких как SMX и BrightonSEO, и является автором отраслевых изданий, таких как Search Engine Journal и State of Digital.

Индексирование веб-сайтов для поисковых систем: как это работает?

Индексирование веб-сайтов является одним из первых шагов (после сканирования) в сложном процессе понимания того, что представляют собой веб-страницы, чтобы они были ранжированы и обслуживались поисковыми системами в качестве результатов поиска.

Поисковые системы постоянно совершенствуют методы сканирования и индексации веб-сайтов.

Понимание того, как Google и Bing подходят к сканированию и индексированию веб-сайтов, важно для технического SEO и полезно при разработке стратегий улучшения видимости в поиске.

Индексирование: как работают поисковые системы сегодня

Давайте рассмотрим основные принципы работы поисковых систем.

Эта статья посвящена индексации. Итак, приступим.

Веб-индексирование

Индексация — это начало процесса ранжирования после сканирования веб-сайта.

Индексирование, по сути, означает добавление содержимого веб-страницы в Google для рассмотрения при ранжировании.

Когда вы создаете новую страницу на своем сайте, ее можно проиндексировать несколькими способами.

Самый простой способ проиндексировать страницу — ничего не делать.

Поисковые роботы Google переходят по ссылкам, и, таким образом, при условии, что ваш сайт уже находится в индексе и на новый контент есть ссылка с вашего сайта, Google в конечном итоге обнаружит его и добавит в свой индекс. Подробнее об этом позже.

Как быстрее проиндексировать страницу

Но что, если вы хотите, чтобы робот Googlebot быстрее попадал на вашу страницу?

Это может быть важно, если у вас своевременный контент или если вы внесли важное изменение на страницу, о которой нужно знать Google.

Я использую более быстрые методы, когда оптимизирую важную страницу или корректирую заголовок и описание, чтобы повысить число кликов.

Я хочу точно знать, когда они были обнаружены и отображены в поисковой выдаче, чтобы знать, с чего начинается измерение улучшения.

В таких случаях можно использовать несколько дополнительных методов.

1. XML-карты сайта

XML-карты сайта — это самый старый и в целом надежный способ привлечь внимание поисковых систем к контенту.

XML-карта сайта предоставляет поисковым системам список всех страниц вашего сайта, а также дополнительную информацию о нем, например дату последнего изменения.

Карта сайта может быть отправлена ​​в Bing через Bing Webmaster Tools, а также в Google через Search Console.

Однозначно рекомендуется!

Но когда вам нужна немедленная индексация страницы, это не особо надежно.

2. Запросить индексирование с помощью Google Search Console

В Search Console вы можете «Запросить индексирование».

Вы начинаете с нажатия на верхнее поле поиска, которое по умолчанию гласит: «Проверить и URL-адрес в домене.com».

Введите URL-адрес, который вы хотите проиндексировать, затем нажмите Enter.

Если страница уже известна Google, вам будет представлена ​​куча информации. Мы не будем вдаваться в подробности здесь, но я рекомендую войти в систему и посмотреть, что там есть, если вы еще этого не сделали.

Для наших целей важная кнопка появляется независимо от того, была ли страница проиндексирована или нет — это означает, что она подходит для обнаружения контента или просто для запроса Google, чтобы понять недавнее изменение.

Вы найдете кнопку, показанную ниже.

Скриншот из Google Search Console, декабрь 2022 г.

В течение от нескольких секунд до нескольких минут вы можете выполнить поиск нового контента или URL-адреса в Google и найти измененный или новый контент.

3. Примите участие в Bing IndexNow

В Bing используется открытый протокол, основанный на методе принудительного оповещения поисковых систем о новом или обновленном содержимом.

Этот новый протокол индексации поисковой системы называется IndexNow.

Он называется push-протоколом, потому что идея состоит в том, чтобы предупреждать поисковые системы с помощью IndexNow о новом или обновленном контенте, что заставит их прийти и проиндексировать его.

Примером протокола извлечения является старый способ XML-карты сайта, который зависит от решения поискового робота о посещении и индексации (или извлечении с помощью Search Console).

Преимущество IndexNow заключается в том, что он тратит меньше ресурсов веб-хостинга и центра обработки данных, что не только более экологично, но и экономит ресурсы полосы пропускания.

Однако самым большим преимуществом является более быстрая индексация содержимого.

IndexNow в настоящее время используется только Bing и Яндекс.

Внедрить IndexNow очень просто:

  • Существует плагин IndexNow для WordPress.
  • Модуль Drupal IndexNow.
  • IndexNow поддерживается Cloudflare.
  • IndexNow поддерживается Akamai.

4. Инструменты Bing для веб-мастеров

Помимо участия в IndexNow рассмотрите возможность создания учетной записи Bing для веб-мастеров.

Если у вас нет учетной записи Bing Webmaster Tools, я не могу ее рекомендовать.

Предоставленная информация является существенной и поможет вам лучше оценить проблемные области и улучшить свой рейтинг в Bing, Google и где-либо еще — и, возможно, обеспечит лучший пользовательский интерфейс.

Но чтобы ваш контент проиндексировался, вам просто нужно нажать: Настройка личного сайта > Отправить URL-адреса.

Введите URL-адреса, которые вы хотите проиндексировать, и нажмите «Отправить».

Снимок экрана из Bing Webmaster Tools, январь 2023 г.

Итак, это большая часть того, что вам нужно знать об индексировании и о том, как это делают поисковые системы (с прицелом на то, куда идут дела).

Дополнительные сведения см. на странице справки Инструментов для веб-мастеров Bing.

Существует также Bing Webmaster Tools Indexing API, который также может сократить время появления контента в результатах поиска Bing в течение нескольких часов.

Дополнительные сведения об API индексирования Bing см. здесь.

Бюджет сканирования

Мы не можем говорить об индексации, не говоря о бюджете сканирования.

По сути, краулинговый бюджет — это термин, используемый для описания количества ресурсов, которые Google затрачивает на сканирование веб-сайта.

Назначенный бюджет основан на сочетании факторов, два основных из которых:

  • Насколько быстро работает ваш сервер (т.
  • Насколько важен ваш сайт?

Если вы управляете крупным новостным сайтом с постоянно обновляемым контентом, о котором пользователи поисковых систем захотят знать, ваш сайт будет часто сканироваться (осмелюсь сказать — постоянно).

Если у вас небольшая парикмахерская, у вас есть пара десятков ссылок, и вы по праву не считаетесь важным в этом контексте (вы можете быть важным парикмахером в этом районе, но вы не важны, когда речь идет о краулинговом бюджете) , то бюджет будет низким.

Подробнее о краулинговых бюджетах и ​​их определении можно прочитать в объяснении Google.

У Google есть два вида сканирования

Индексирование Google начинается со сканирования, которое бывает двух видов:

  • Первый вид сканирования — это обнаружение, когда Google обнаруживает новые веб-страницы для добавления в индекс.
  • Второй тип сканирования – это обновление, при котором Google находит изменения на уже проиндексированных веб-страницах.

Узнайте, как работают поисковые системы

Оптимизация веб-сайтов для поисковых систем начинается с хорошего контента и заканчивается его отправкой на индексацию.

Независимо от того, делаете ли вы это с помощью XML-карты сайта, инструмента отправки URL-адресов в Google Search Console, инструментов Bing для веб-мастеров или IndexNow, индексирование этого контента происходит, когда ваша веб-страница начинает свой путь к вершине результатов поиска (если все работает!) .

Вот почему важно понимать, как работает поисковая индексация.

Узнайте больше о ключевых факторах, влияющих на страницы результатов поиска в Как работают поисковые системы.


Рекомендуемое изображение: Overearth/Shutterstock

Категория SEO Техническое SEO

Как работают поисковые системы? (Сканирование, индексирование и ранжирование в поисковой выдаче Google)

Попробуйте представить мир с Интернетом, но без поисковых систем.
Это сложно.

Даже если вы жили задолго до того, как появились поисковые системы, вы, вероятно, теперь настолько полагаетесь на эту полезную технологию, что даже один день без ввода запроса в Google будет казаться совершенно чуждым.

Однако, несмотря на то, что Google выполняет 63 000 поисковых запросов в секунду, что соответствует 5,6 миллиарда поисковых запросов в день, как вы думаете, сколько из этих искателей знают, как работает поисковая система?

Если вы в тупике, когда дело доходит до поисковых систем, но хотели бы узнать больше о том, как работают эти современные чудеса, в приведенном ниже руководстве вы узнаете:

  • Что такое поисковая система?
  • Как работают поисковые системы?
  • Что такое сканирование поисковыми системами?
  • Как увеличить вероятность того, что вас просканируют?
  • Что такое индексирование и как оно работает?
  • Как поисковые системы ранжируют веб-сайты?
  • Как работают алгоритмы поиска Google?

Что такое поисковая система?

Как кратко упоминалось выше, поисковая система — это инструмент, который вы можете использовать для поиска в Интернете. Однако на более техническом уровне поисковая система состоит из двух ключевых элементов:

  • База данных информации
  • Сборник алгоритмов

Возьмем, к примеру, Google. Эта поисковая система имеет базу данных из триллионов веб-страниц, а ее алгоритмы работают, исследуя сотни факторов, чтобы определить наиболее релевантный результат для каждого запроса, введенного в поле поиска.

Как работают поисковые системы?

На простейшем уровне поисковые системы выполняют три основные функции:

  • Сканирование Интернета в поисках новых страниц, контента и документов
  • Помещение этого содержимого в индекс
  • Рейтинг этого контента

Теперь, когда вы знаете основы, давайте подробнее рассмотрим каждую из вышеперечисленных функций, чтобы лучше понять, как именно работает поисковая система.

1. Сканирование

«Сканер», также известный как поисковый робот, представляет собой компьютерную программу, загружающую веб-страницы. Поисковые системы используют поисковые роботы для обнаружения нового контента, регулярно повторно сканируя известные страницы, на которые со временем добавляются новые ссылки.

Например, когда вы публикуете новую запись в блоге на своем веб-сайте, она будет перемещена в верхнюю часть вашей домашней страницы, где будет ссылка. Затем сканеры Google повторно просканируют эту страницу, загрузив контент по вашей недавно добавленной ссылке.

Контент, который они находят, переходя по ссылкам на веб-страницах, может включать:

  • Другие веб-страницы
  • PDF-файлы
  • Видео Изображения

Как увеличить шансы на сканирование

Теперь, когда вы знаете, что такое сканирование и почему оно важно, следующим шагом будет выяснить, как вы можете увеличить свои шансы на сканирование.

Как правило, поисковые роботы чаще посещают популярные веб-сайты. Хотя это может показаться несправедливым, особенно если вы новый бизнес, причина этого проста. Популярные веб-сайты, как правило, публикуют больше нового контента, чем небольшие относительно неизвестные веб-сайты. Вот почему построение ссылок так важно, поскольку, получив ссылку с более авторитетного сайта, ваш контент может быть обнаружен большим количеством людей.

Другие способы увеличить вероятность сканирования включают:

  • Связывание любого нового контента с существующей страницей на вашем веб-сайте. Добавляя внутренние ссылки, поисковые роботы могут легче находить любой новый контент, который вы публикуете.
  • Создайте карту сайта. Карта сайта имеет неоценимое значение для поисковых роботов, позволяя им легче сканировать ваш сайт и находить новые страницы. Однако карта сайта должна быть четкой, хорошо структурированной и лишенной ненужных страниц, чтобы карта сайта была эффективной.
  • Зарегистрируйтесь в консоли Google. Если вы еще этого не сделали, зарегистрировавшись в Google Console, вы сможете узнать обо всех ошибках сканирования, которые мешают правильно индексировать ваши страницы.

2. Индексирование

После обхода сайта и обнаружения новых веб-страниц или контента эта информация будет сохранена в индексе. Представьте себе поисковый индекс с огромной цифровой библиотекой, содержащей триллионы различных веб-страниц.

Если вас нет в этом индексе с точки зрения вашего бизнеса, вы невидимы в Интернете. Затерянный в море из триллиона страниц, с нулевым органическим трафиком из поисковых систем, направленным на ваш сайт.

Индексирование веб-сайта для поисковых систем означает, что когда пользователь вводит поисковый запрос, поисковая система затем анализирует базу данных и выводит наиболее релевантное содержимое. Однако в индексе будут миллионы веб-сайтов, так как же Google выбирает, какой из них лучше всего ответит на запрос пользователя?

Ответ заключается в их ранжировании.

3. Ранжирование

Поисковые системы используют алгоритмы для определения ранжирования веб-сайтов по каждому поисковому запросу, который они получают. В своей простейшей форме алгоритмы будут оценивать веб-сайты в зависимости от того, насколько эффективно они соответствуют их конкретным поисковым требованиям.

Это может показаться довольно простым. Все, что вам нужно сделать, это узнать, как работают алгоритмы, и соответствующим образом создать свой контент. К сожалению, это не так просто реализовать. Поисковые системы постоянно меняют свои алгоритмы, чтобы улучшить свои услуги и обеспечить наилучшие результаты поиска для своих пользователей.

Это означает, что если вы хотите и дальше получать органический трафик от поисковых систем, вам нужно быть в курсе последних обновлений алгоритмов. Кроме того, вы всегда можете нанять специалиста по SEO, который сделает всю тяжелую работу за вас.

Как работают алгоритмы поиска Google?

Хотя никто точно не знает, на какие факторы Google обращает внимание при поиске и ранжировании релевантного контента (они просто любят, когда их окутывают тайной), есть несколько ключевых факторов, на которые следует обратить внимание, если вы хотите, чтобы они ранжировали вас.

  • Актуальность. Google заявляет, что когда веб-страница содержит те же ключевые слова, что и поисковый запрос, особенно когда они находятся на видном месте, например в заголовке, они считают это признаком релевантности. При этом вам также необходимо включать связанные слова и фразы, чтобы повысить уверенность Google в том, что ваша страница соответствует тому, о чем вы говорите.
  • Цель поиска. Google гордится тем, что понимает, почему пользователи выполняют определенный результат поиска, что позволяет им предоставлять более качественные результаты поиска. Есть четыре ключевых компонента цели поиска, на которых вам нужно сосредоточиться: стиль контента, тип контента, формат контента и угол обзора контента.
  • Свежесть. Google отдает приоритет результатам поиска, которые были недавно опубликованы или обновлены, поскольку они знают, что пользователям нужна самая свежая и актуальная информация. При этом для некоторого контента свежесть не имеет значения, и Google это понимает.
  • Удобство использования. Google отдает предпочтение доступному и простому в использовании контенту. Убедитесь, что вы обращаете внимание на скорость страницы и удобство вашего сайта для мобильных устройств.
  • Качество контента. Google отдает предпочтение высококачественному контенту, руководствуясь тремя основными принципами качественного контента: компетентность, авторитетность и доверие.

Узнайте больше о факторах ранжирования Google и о том, как их можно использовать в своих интересах, из этого удобного руководства.

Заключение

Вы можете потратить несколько месяцев, пытаясь выяснить, как именно работают поисковые системы в попытке попасть на первую страницу поисковой выдачи, и все равно не найти лучшего ответа. Вместо этого сосредоточьте свои усилия на создании отличного контента, который предоставляет наилучшую информацию для целевого слова и, что наиболее важно, обеспечивает наилучший пользовательский опыт.

Помните, что конечной целью поисковой системы является предоставление наилучших возможных результатов поиска по каждому запросу. Поэтому, если вы отдаете предпочтение пользователю, вам гарантированы положительные результаты, а не сама поисковая система.

Как запретить поисковым системам индексировать этот сайт в WordPress

Вордпресс Расширенный

01 марта 2023 г.

Домантас Г.

4 минуты Чтение

Владельцы сайтов WordPress сделают все, чтобы их сайты были проиндексированы. Однако вы можете не захотеть, чтобы поисковые системы сканировали ваш веб-сайт, если он все еще находится в разработке. В таком случае рекомендуется запретить поисковым системам индексировать ваш сайт. Оставайтесь с нами, если хотите узнать больше об этой теме!

Почему вы хотите, чтобы поисковые системы не индексировали ваш сайт?

В некоторых случаях люди хотят запретить поисковым системам индексировать их сайты:

  • Незавершенные сайты — на этом этапе ошибок и испытаний лучше не показывать свой сайт в открытом доступе. Мы рекомендуем использовать промежуточную среду WordPress при выполнении тестов на вашем сайте.
  • Запрещенные веб-сайты — если вы планируете иметь веб-сайт только для приглашений, вы не хотите, чтобы он отображался в поисковой выдаче.
  • Тестовые учетные записи — владельцы веб-сайтов создают дубликат сайта для целей тестирования и тестирования. Поскольку эти сайты не предназначены для широкой публики, не позволяйте поисковым системам индексировать их.

Так как же запретить поисковым системам индексировать ваш сайт? Что ж, взгляните на несколько вариантов ниже и попробуйте сами.

1. Запрещение поисковым системам индексировать сайты WordPress

Самый простой способ запретить поисковым системам индексировать ваш веб-сайт — запретить им его сканирование. Для этого вам нужно отредактировать файл robots.txt . Вот несколько способов добиться этого:

Использование встроенной функции WordPress

Редактировать файл robots. txt WordPress довольно просто, так как вам нужно использовать только встроенную функцию WordPress. Вот как:

  1. Войдите в админку WordPress и перейдите в Настройки -> Чтение .
  2. Прокрутите вниз и найдите параметр Видимость в поисковых системах .
  3. Отметьте опцию Запретить поисковым системам индексировать этот сайт.
  4. Сохранить изменения, и все! WordPress автоматически отредактирует для вас файл robots.txt .

Редактирование файла robots.txt вручную

Если вы предпочитаете ручной вариант, вы можете использовать File Manager или FTP-клиент для редактирования файла robots.txt .

В этой статье мы покажем вам, как это сделать через файловый менеджер hPanel:

  1. Войдите в hPanel и найдите Файловый менеджер в личном кабинете.
  1. Перейдите в папку корневого каталога WordPress (в большинстве случаев это public_html) и найдите файл robots. txt . Если вы не можете его найти, создайте новый пустой файл.
  2. Щелкните файл правой кнопкой мыши и выберите Редактировать .

Введите следующий синтаксис:

 Агент пользователя: *
Disallow: / 

Приведенный выше код не позволит поисковым системам индексировать весь ваш сайт . Если вы хотите применить правило запрета к определенной странице, напишите подкаталог страницы и ярлык. Например: Запретить /blog/food-review-2019.

Pro Tip

Синтаксис в файлах robots.txt чувствителен к регистру, поэтому будьте осторожны при редактировании.

2. Защита паролем вашего веб-сайта WordPress

Поисковые системы и поисковые роботы не имеют доступа к файлам, защищенным паролем. Вот несколько способов защитить паролем ваш сайт WordPress:

Использование панели управления хостингом

Если вы являетесь клиентом Hostinger, вы можете защитить паролем свой веб-сайт с помощью hPanel Защита папок паролем инструмент:

  1. Откройте hPanel и перейдите к Защита папок паролем .
  2. Введите корневой каталог в первое поле.
  3. После выбора каталога введите имя пользователя и пароль и нажмите Защитить .
Pro Tip

Если ваш корневой каталог public_html , оставьте столбец каталога пустым.

Процесс в cPanel тоже очень похож:

  1. Войдите в свою учетную запись cPanel и перейдите на страницу Конфиденциальность каталога .
  2. Выберите корневой каталог. В нашем случае это  public_html .
  3. Установите флажок Пароль для защиты этого каталога и укажите имя защищенного каталога. Нажмите Сохранить .
  4. Создайте нового пользователя для входа на защищенный сайт и все!

Использование плагинов WordPress

Существует множество плагинов, которые могут помочь защитить ваш сайт паролем. Тем не менее, 9Плагин 0122 Password Protected может быть просто лучшим из существующих. Он был протестирован с новым обновлением WordPress и довольно прост в использовании.

После установки плагина и его активации перейдите в Настройки -> Защищено паролем и настройте параметры в соответствии с вашими потребностями.

3. Удаление проиндексированной страницы из Google

Не беспокойтесь, если Google проиндексировал ваш сайт. Вы можете удалить его из поисковой выдачи, выполнив следующие действия:

  1. Настройте Google Search Console для своего веб-сайта.
  2. Войдите в консоль поиска Google вашего недавно добавленного веб-сайта и прокрутите вниз до Устаревшие инструменты и отчеты -> Удаление.
  3. Нажмите кнопку Временно скрыть и введите URL-адрес, который вы хотите удалить из Google.
  4. В новом окне выберите Очистить URL из кеша и временно удалить из поиска, затем Отправить запрос .

Вот и все! Google временно удалит ваш сайт из результатов поиска. Обязательно примените предыдущие методы, чтобы запретить Google снова индексировать ваш сайт.

Заключение

Вот оно! Быстрые и простые способы запретить поисковым системам индексировать ваши сайты. Вот краткий обзор методов, которые мы сегодня изучили:

  • Редактирование файла robots.txt , которое может быть выполнено автоматически или вручную.
  • Защитите свой сайт паролем с помощью плагина или панели управления хостингом.
  • Удалить проиндексированные страницы из Google через консоль поиска Google.

Если у вас есть какие-либо другие методы или у вас есть какие-либо вопросы, сообщите нам об этом в комментариях. Удачи!

Узнайте больше о WordPress SEO

Советы по SEO для WordPress
Как создать карту сайта в WordPress
Как добавить разметку схемы WordPress
Как добавить мета-описание и мета-заголовок в WordPress
Как настроить AMP (ускоренные мобильные страницы) в WordPress
Как добавить хлебные крошки в WordPress

Домантас возглавляет группы по контенту и SEO, предлагая свежие идеи и нестандартные подходы. Обладая обширными знаниями в области SEO и маркетинга, он стремится распространить информацию о Hostinger во всех уголках мира. В свободное время Домантас любит оттачивать навыки веб-разработки и путешествовать по экзотическим местам.

Подробнее от Домантаса Г.

10 шагов, чтобы ваш сайт был проиндексирован в Google

Если это еще не сделано, органический поисковый трафик должен стать приоритетом вашего плана цифрового маркетинга. Более половины трафика в Интернете приходится на поисковые системы (оно может достигать 60%). Органический поисковый трафик также очень важен для онлайн-продаж. Итак, вы, конечно, понимаете, что ваше SEO является приоритетом. Но с чего начать? Все SEO начинается с того, чтобы ваш сайт был найден, просканирован и проиндексирован роботами поисковых систем.

В этой статье вы узнаете о технических аспектах SEO и аспектах страницы, а также о том, как их можно использовать для привлечения внимания Google, Bing и других поисковых систем.

Есть три основных шага к успеху SEO в Google, а именно:

а) Просканируйте ваш сайт ботами Google.

б) Проиндексируйте свой сайт.

в) Получить высокие позиции в поиске.

В этой статье мы поговорим о двух важных начальных процессах: сканировании и индексации веб-страниц, которые приводят к отображению сайтов в результатах поиска. Быть замеченным Google очень важно, поскольку до сих пор ни одна другая поисковая система не превзошла Google по высокой популярности и предпочтениям пользователей.

Что такое ползание?

Сканирование поисковыми системами относится к ботам, просматривающим определенные страницы в Интернете. Если у вас есть только что запущенный сайт, боту Google придется найти (просканировать) веб-страницы вашего сайта, чтобы узнать о его существовании в Интернете. При этом работа бота не заканчивается сканированием. Он также должен индексировать страницы.

Что такое индексация?

После того как бот нашел страницу путем ее сканирования, он должен добавить эту страницу в список других просканированных страниц, принадлежащих к той же категории. Этот процесс известен как индексация. В книге вы обнаружите, что содержание систематически упорядочено по категориям, словам, ссылкам и т. д. в указателе. Это облегчает читателям поиск именно того, что они ищут в книге. Точно так же поисковые системы имеют индекс страниц, классифицированных различными способами. Эти страницы не являются именно страницами вашего веб-сайта, а являются скриншотами страниц, которые были видны при последнем сканировании. Эти скриншоты являются кешированными версиями страниц.

Когда пользователь вводит поисковый запрос в поиске Google, Google быстро просматривает эти индексы, чтобы определить, какие страницы подходят для возврата в результатах. С помощью сложных математических алгоритмов Google может решить, где в результатах поиска должна быть возвращена каждая страница. Точность Google в возвращении соответствующих страниц на запросы пользователей — вот что делает его таким огромным поисковым гигантом.

ПРИМЕЧАНИЕ. Возвращаемая кешированная страница может не совпадать со страницей, которая была недавно изменена на вашем веб-сайте, однако, когда вы добавляете новый контент и предоставляете легкий доступ поисковым системам, они будут сканировать и индексировать ваши страницы еще раз, чтобы вернуться последние версии ваших веб-страниц в результатах поиска.

Все это вызывает вопрос: как сделать так, чтобы мой сайт проиндексировал Google? (Здесь слово «индексированный» означает, что роботы Google просканировали и проиндексировали вместе.) Существует множество способов, позволяющих просканировать и проиндексировать ваш веб-сайт ботами Google. См. шаги ниже (которые не упорядочены по
):

1. Учетная запись Google Search Console

Получите учетную запись Google Search Console и учетную запись Google Analytics. Разместите здесь свой сайт. Вы можете проверить статистику сканирования в Google Search Console, чтобы узнать, как часто Google сканирует ваши страницы.

Google Search Console также позволяет точно узнать, сколько страниц было проиндексировано Google.

2. Получить как Google

Консоль поиска Google предоставляет возможность попросить Google сканировать новые страницы или страницы с обновленным содержанием. Эта опция находится в разделе «Сканирование» и называется «Просмотреть как Google».

Введите URL-адрес в текстовом поле и нажмите «Выбрать». Как только статус выборки изменится на «Успешно», нажмите «Отправить в индекс». Вы можете отправлять отдельные URL-адреса или URL-адреса, содержащие ссылки на весь обновленный контент. С первым вы можете отправлять до 500 запросов URL в неделю, со вторым вы можете делать 10 запросов в месяц.

3. XML-карты сайта

Карты сайта действуют как карты для поисковых роботов, направляя их на внутренние страницы вашего веб-сайта. Вы не можете позволить себе пренебречь этим важным шагом на пути к индексации вашего сайта Google. Создайте XML-карту сайта и отправьте ее в Google в своей учетной записи Google Search Console.

4. Входящие ссылки

Боты поисковых систем с большей вероятностью найдут и проиндексируют ваш сайт, если веб-сайты, которые часто просматриваются и индексируются, ссылаются на него. Для этого вам необходимо создать качественные ссылки на ваш сайт с других популярных сайтов. Вы можете узнать больше о получении качественных ссылок из поста блога 10 Link Building Strategies от
Вуранг.

5. Просканируйте свой веб-сайт

Чтобы понять, как поисковые системы сканируют ваш контент, вам необходимо просканировать свой веб-сайт. Woorank’s Site Crawl делает это за вас, выделяя любые проблемы, которые могут препятствовать доступу поисковых систем к вашим страницам, а также выделяя любые оптимизации, которые можно выполнить для улучшения вашего SEO.

6. Чистый код

Упростите работу робота Google по сканированию и индексированию вашего сайта, очистив серверную часть вашего сайта и убедившись, что ваш код соответствует требованиям W3C. Кроме того, никогда не раздувайте свой код. Убедитесь, что на вашем сайте хорошее соотношение текста и html
содержание.

7. Более быстрый сайт, более быстрое индексирование

Сайты, которые созданы для быстрой загрузки, также оптимизированы для более быстрого индексирования Google.

8. Хорошая внутренняя структура ссылок

Убедитесь, что все страницы вашего веб-сайта связаны друг с другом. Особенно, если домашняя страница вашего сайта была проиндексирована, убедитесь, что все остальные страницы связаны с ней, чтобы они тоже были проиндексированы, но убедитесь, что на каждой странице не более 200 ссылок.

9. Хорошая навигация

Хорошая навигация будет способствовать структуре ссылок, описанной выше. Как бы ни была важна структура навигации для ваших пользователей, она не менее важна для быстрой индексации вашего сайта. Совет: используйте навигацию по цепочкам.

10. Добавляйте новый контент

Часто добавляйте качественный контент на свой сайт. Ценный контент привлекает ботов. Даже если ваш сайт был проиндексирован только один раз, добавляя все больше и больше ценного контента, вы побуждаете робота Google повторно индексировать ваш сайт. Этот ценный контент не ограничивается видимым контентом на странице, но также метаданными и другими важными компонентами SEO на веб-сайте. Помните об этих советах по SEO для контента веб-сайта.

Это основные действия, которые необходимо выполнить для ускорения сканирования и индексирования ботами Google, но могут быть и другие проблемы, препятствующие индексации вашего сайта. Знание этих потенциальных проблем пригодится, если вы обнаружите, что ваш сайт не индексируется.

Что еще нужно учитывать

  • Проблемы с сервером: Иногда это не вина вашего веб-сайта, что он не индексируется, а вина сервера, то есть сервер может не разрешать боту Google доступ к вашему контенту. В этом случае либо делегирование DNS блокирует доступ к вашему сайту, либо ваш сервер находится на обслуживании. Проверьте наличие проблем с сервером, если на вашем новом сайте не было проиндексировано ни одной страницы.
  • Домен деиндексирован: Возможно, вы купили бывший в употреблении домен, и если да, то этот домен может быть деиндексирован по неизвестным причинам (скорее всего, из-за спама). В таких случаях отправьте запрос на повторное рассмотрение в Google.
  • Robots.txt: Крайне важно, чтобы у вас был файл robots.txt, но вам нужно перепроверить его, чтобы увидеть, есть ли какие-либо страницы, на которые «запрещен» доступ робота Google (подробнее об этом ниже). Это основная причина того, что некоторые веб-страницы не индексируются.
  • Мета-роботы: Следующий метатег используется для обеспечения того, чтобы сайт не индексировался поисковыми системами. Если конкретная веб-страница не индексируется, проверьте наличие этого кода.
  • Параметры URL: Иногда некоторые параметры URL могут быть запрещены для индексации, чтобы избежать дублирования контента. Будьте очень осторожны при использовании этой функции (ее можно найти в консоли поиска Google в разделе «Конфигурация»), поскольку там четко указано, что «Неправильная настройка параметров может привести к тому, что страницы вашего сайта будут удалены из нашего индекса, поэтому мы не рекомендуем вам использовать эту функцию. инструмент, если в этом нет необходимости. Очистите URL-адреса, чтобы избежать ошибок сканирования.
  • Проверьте файл .htaccess: Файл .htaccess, который находится в корневой папке, обычно используется для исправления ошибок сканирования и перенаправлений. Неправильная настройка этого файла может привести к образованию бесконечных циклов, мешающих загрузке и индексации сайта.
  • Другие ошибки: Проверьте наличие неработающих ссылок, ошибок 404 и неправильных перенаправлений на ваших страницах, которые могут блокировать сканирование и индексацию вашего сайта роботом Google.
  • Вы можете использовать Google Search Console, чтобы узнать статус индексации вашего сайта. Этот бесплатный инструмент собирает обширные данные о статусе индекса вашего сайта в Google. Щелкните параметр Health в Google Search Console, чтобы проверить график состояния индекса, как показано ниже:
  • meta name=»robots» content=»noindex, nofollow»
  • Вы можете использовать Google Search Console чтобы узнать статус индекса вашего сайта. Этот бесплатный инструмент собирает обширные данные о статусе индекса вашего сайта в Google. Щелкните параметр «Здоровье» в Google Search Console, чтобы проверить график состояния индекса, как показано на снимке экрана ниже:

    Если вы хотите проверить, какие URL-адреса не проиндексированы, вы можете сделать это вручную, загрузив расширение SEOquake.

    Поисковая оптимизация страниц

    Первый шаг к тому, чтобы вас нашли поисковые системы, — создать свои страницы таким образом, чтобы им было легко. Для начала выясните, на кого ориентирован ваш веб-сайт, и решите, какие ключевые слова использует ваша аудитория, чтобы найти вас. Это определит, по каким ключевым словам вы хотите ранжироваться. Лучшей практикой является таргетинг на ключевые слова с длинным хвостом, поскольку на них приходится подавляющее большинство поискового трафика, они имеют меньшую конкуренцию (упрощая ранжирование) и могут указывать на то, что искатель находится на рынке. У них также есть дополнительный бонус в виде получения большего количества кликов, более высокого рейтинга кликов (CTR) и большего количества конверсий.

    В сети доступно довольно много бесплатных инструментов для исследования ключевых слов.

    Когда у вас есть целевые ключевые слова, используйте их для создания оптимизированной основы для ваших страниц. Поместите ключевые слова в следующие элементы страницы:

    • Тег заголовка: Тег заголовка — один из самых важных факторов, на которые поисковые системы обращают внимание при принятии решения о релевантности страницы. Ключевые слова в тегах title сообщают поисковым системам, что они найдут на странице. Держите теги заголовков не более 60 символов и используйте самое важное ключевое слово в начале. Правильно используемый тег title выглядит так:
    • Заголовок страницы
    • Мета-описание: Мета-описание само по себе не оказывает большого влияния на то, как поисковые системы видят вашу страницу. На что они действительно влияют, так это на то, как люди видят ваш поисковый фрагмент — заголовок, URL-адрес и описание, отображаемые в результатах поиска. Хорошее мета-описание заставит пользователей кликнуть на ваш сайт, повысив его CTR, который оказывает большое влияние на ваш рейтинг. Ключевые слова, используемые в описаниях, выделены во фрагментах жирным шрифтом, поэтому снова используйте здесь свои.
    • Содержание страницы: Очевидно, что вам нужно поместить ключевые слова в содержание страницы. Не перегружайте свой контент, просто используйте ключевое слово 3-5 раз на странице. Включите также некоторые синонимы и ключевые слова скрытого семантического индексирования (LSI).
    • Добавить блог: Помимо более стереотипных преимуществ SEO, блоги сканируют и индексируют ваш сайт. Сайты, на которых есть блоги, получают в среднем:
    • 9На 7% больше проиндексированных ссылок
    • На 55% больше посетителей
    • На 434% больше проиндексированных страниц

    Добавление и обновление страниц или контента на вашем сайте стимулирует более частое сканирование поисковыми системами.

    Техническое SEO

    Robots.txt

    После того, как вы оптимизировали SEO-факторы на странице для целевых ключевых слов, займитесь техническими аспектами привлечения Google к посещению вашей страницы. Используйте файл robots.txt, чтобы помочь сканерам поисковых систем перемещаться по вашему сайту. Проще говоря, файл robots.txt — это обычный текстовый файл в корневом каталоге вашего веб-сайта. Он содержит некоторый код, определяющий, какие пользовательские агенты имеют доступ к каким файлам. Обычно это выглядит примерно так:

    User-agent:* Disallow:

    Первая строка, как вы, наверное, догадались, определяет пользовательский агент. В этом случае * обозначает всех ботов. Если оставить строку «Запретить» пустой, боты получат доступ ко всему сайту. Вы можете добавить несколько строк запрета в одну строку пользовательского агента, но вы должны создать отдельную строку запрета для каждого URL-адреса. Поэтому, если вы хотите запретить Googlebot доступ к нескольким страницам, вам нужно добавить несколько запретов:

    User-agent: Googlebot Disallow: /tmp/ Disallow: /junk/ Disallow: /private/

    Сделайте это для каждого бота, которого хотите заблокировать на этих страницах. Вы также можете использовать файл robots.txt, чтобы запретить ботам сканировать определенные типы файлов, такие как PowerPoint или PDF:

    User-agent:* Disallow: *.ppt$ Disallow: *.pdf$

    весь сайт, добавьте косую черту:

    User-agent:* Disallow: /

    Хорошей практикой является блокирование доступа всех роботов ко всему сайту на время его создания или изменения дизайна. Восстановите доступ к поисковым роботам, когда ваш сайт будет запущен или его нельзя будет проиндексировать. Также убедитесь, что вы не заблокировали доступ к разметке Schema.org, иначе она не будет отображаться в расширенных результатах поиска Google.

    Если у вас есть учетная запись Google Search Console, вы можете отправить и протестировать свой файл в тестере robots.txt в разделе «Сканирование».

    XML-карты сайта

    XML-карты сайта, как и файлы robots.txt, представляют собой текстовые файлы, хранящиеся в каталоге вашего сайта. Этот файл содержит список всех URL-адресов вашего сайта и небольшую дополнительную информацию о важности каждого URL-адреса, последнем обновлении, частоте обновления и наличии других версий страницы на другом языке. Карта сайта побуждает поисковые системы более эффективно сканировать ваши страницы. Файлы Sitemap включают следующие элементы:

    • — Открывающая и закрывающая строка карты сайта. Это текущий стандарт протокола.
    • — родительский тег для каждого URL-адреса на вашем сайте. Закройте его с помощью
    • — это абсолютный URL-адрес, по которому находится страница. Крайне важно последовательно использовать абсолютные URL-адреса (http или https, wwww.example.com или example.com и т. д.).
    • — дата последнего обновления страницы. Используйте формат ГГГГ-ММ-ДД.
    • — частота внесения изменений в файл. Чем чаще вы обновляете страницу, тем чаще она будет сканироваться. Однако поисковые системы могут определить, когда вы лжете, поэтому, если вы не будете менять его так часто, как вы установили здесь, они проигнорируют его.
    • <приоритет> — важность страницы на сайте в диапазоне от 0,1 до 1,0.
    • — предоставляет информацию об альтернативных версиях страницы.

    При правильной реализации ваша карта сайта должна выглядеть так:

    Если у вас большой или сложный сайт или вы не хотите создавать карту сайта самостоятельно, существует множество инструментов, которые помогут вам создать карту сайта в формате XML.

    Файлы Sitemap на самом деле не помогут вам повысить ранжирование, по крайней мере, напрямую. Но они помогают поисковым системам найти ваш сайт и все ваши URL-адреса, что облегчает вам продвижение в рейтинге. Ускорьте этот процесс еще больше, отправив карту сайта непосредственно через Google Search Console. Перейдите в Sitemaps в разделе Crawl и нажмите Add/Test Sitemap. Вы можете сделать то же самое с инструментами Bing для веб-мастеров. Используйте эти инструменты, чтобы проверить наличие ошибок в карте сайта, которые могут помешать индексации вашего сайта.

    После того, как вы отправили свою карту сайта в Google Search Console, инструмент предупредит вас о любых ошибках карты сайта. Google перечислил некоторые из этих ошибок и объяснил, как исправить каждую из них здесь.

    Off Page SEO

    Вы всегда можете выбрать прямой маршрут и отправить URL вашего сайта непосредственно в поисковые системы. Отправить свой сайт в Google очень просто: посетите их страницу, введите свой URL-адрес, заполните код проверки, чтобы доказать, что вы человек, и нажмите «Отправить запрос». Вы также можете пройти через консоль поиска, если у вас есть учетная запись. Вы можете отправить свой сайт в Bing с помощью их инструментов для веб-мастеров, для чего требуется учетная запись. Используйте ошибки сканирования, чтобы найти проблемы, которые могут блокировать поисковые роботы.

    Облегчите поисковым роботам поиск вашего сайта, разместив там ваш URL. Разместите ссылку на свой сайт на своих страницах в социальных сетях. На самом деле это не поможет вам лучше ранжироваться в результатах поиска, но Google сканирует и индексирует страницы социальных сетей, поэтому он все равно увидит ваши ссылки. Очень важно, чтобы у вас была учетная запись Google+, чтобы вы могли использовать тег rel=»publisher», чтобы информация о вашей компании отображалась в расширенных сниппетах Google. Если у вас есть учетная запись YouTube, разместите короткое видео, объясняющее возможности вашего нового сайта, и добавьте ссылку в описание видео. Если вы находитесь на Pinterest, прикрепите снимок экрана в высоком разрешении со своим URL-адресом и описанием (не забудьте использовать ключевые слова в описании).

    Эта последняя часть SEO вне страницы может быть немного сложной: отправка вашего URL в веб-каталог. Веб-каталоги когда-то были обычным способом для SEO-специалистов создавать простые обратные ссылки для своих сайтов. Проблема, однако, в том, что многие из этих сайтов содержали много спама и не представляли особой ценности для пользователей. Таким образом, отправка вашего URL-адреса в каталог низкого качества может принести больше вреда, чем пользы.

    Выполните небольшую домашнюю работу по каталогам, чтобы найти каталоги с высоким авторитетом. Также ознакомьтесь с надежными онлайн-ресурсами, чтобы ознакомиться с кураторскими списками заслуживающих доверия каталогов.

    В заключение

    Получение информации в Интернете является конечной целью вашего SEO. Но прежде чем люди смогут вас найти, это должны сделать поисковые системы. Вы всегда можете опубликовать свой сайт, сидеть сложа руки, расслабиться и ждать, пока они придут к вам, но это не даст вам наилучших результатов. Используйте перечисленные выше методы, чтобы улучшить сканирование и индексацию ваших страниц, чтобы вы могли быстрее ранжироваться и наращивать свою аудиторию.

    Какие шаги вы предприняли, чтобы ваши страницы сканировались и индексировались поисковыми системами? С какими проблемами на странице и за ее пределами вы столкнулись?

    Категория: Техническое SEO

    Теги: Google Search Console, Поисковые системы, SEO на странице, SEO вне страницы

    Тег заголовка: Как заставить Google быстро индексировать ваш сайт

    Мета-описание: Если вы хотите, чтобы ваш сайт был в рейтинге, вам нужно, чтобы ваш сайт был проиндексирован. Следуйте им на странице, технической и внешней оптимизации, чтобы привлечь индексирующих ботов.

    Опубликовано

    Категория

    Подписаться на регулярные обновления

    Спасибо! Мы отправили вам электронное письмо для подтверждения подписки.

    К сожалению, что-то пошло не так. Пожалуйста, попробуйте еще раз

    Отключить индексирование поисковыми системами | Webflow University

    Домашняя страница урока

    Отключить индексирование поисковыми системами

    Домашняя страница урока

    Все уроки

    Запретить поисковым системам индексировать страницы, папки, весь ваш сайт или только субдомен webflow.io.

    site-settings

    У этого видео старый пользовательский интерфейс. Скоро будет обновленная версия!

    Вы можете указать поисковым системам, какие страницы сканировать, написав файл robots.txt. Вы также можете запретить поисковым системам сканировать и индексировать определенные страницы, папки, весь ваш сайт или субдомен webflow. io. Это полезно для того, чтобы скрыть такие страницы, как страница 404 вашего сайта, от индексации и отображения в результатах поиска.

    В этом уроке: 

    1. Как отключить индексацию поддомена Webflow
    2. Как создать файл robots.txt
    3. Рекомендации по обеспечению конфиденциальности
    4. Часто задаваемые вопросы и советы по устранению неполадок

    Как отключить индексирование субдомена Webflow 

    Вы можете запретить Google и другим поисковым системам индексировать субдомен вашего сайта webflow.io, отключив индексирование в настройках сайта .

    1. Перейдите к Настройки сайта > SEO вкладка > Индексирование раздела
    2. Установите Отключить индексирование поддоменов Webflow в «Да» 
    3. Нажмите Сохранить изменения и опубликуйте свой сайт

    Это позволит опубликовать уникальный файл robots. txt только на поддомене, указывая поисковым системам игнорировать этот домен.

    Как создать файл robots.txt 

    Файл robots.txt обычно используется для перечисления URL-адресов сайта, которые вы не хотите сканировать поисковыми системами. Вы также можете включить карту сайта своего сайта в файл robots.txt, чтобы указать роботам поисковых систем, какой контент им следует сканировать.

    Как и карта сайта, файл robots.txt находится в каталоге верхнего уровня вашего домена. Webflow сгенерирует файл /robots.txt для вашего сайта, как только вы создадите его в своем Настройки сайта .

    Чтобы создать файл robots.txt:

    1. Перейдите на Настройки сайта > SEO вкладка > Индексирование раздел
    2. Добавьте нужные изменения в robots.txt

    3. Нажмите Сохранить опубликовать свой сайт
    Важно: Контент с вашего сайта может быть проиндексирован, даже если он не был просканирован. Это происходит, когда поисковая система знает о вашем контенте либо потому, что он был опубликован ранее, либо есть ссылка на этот контент из другого контента в Интернете. Чтобы убедиться, что ранее проиндексированная страница не проиндексирована, не добавляйте ее в robots.txt. Вместо этого используйте метакод noindex, чтобы удалить этот контент из индекса Google.

    Правила robots.txt

    Любое из этих правил можно использовать для заполнения файла robots.txt.

    • User-agent: * означает, что этот раздел относится ко всем роботам.
    • Запретить:   предписывает роботу не посещать сайт, страницу или папку.
    Чтобы скрыть весь сайт

    User-agent: *

    Disallow: /

    Чтобы скрыть отдельные страницы

    User-agent: *

    Disallow: /page-name

    Чтобы скрыть всю папку страниц

    User-agent: *

    Disallow: /folder-name/

    Включить карту сайта

    Карта сайта: https://your-site. com/sitemap.xml

    Полезные ресурсы

    Ознакомьтесь с другими полезными роботами .txt правила.

    Примечание: Любой может получить доступ к файлу robots.txt вашего сайта, поэтому он может идентифицировать и получить доступ к вашему личному контенту.

    Рекомендации по обеспечению конфиденциальности 

    Если вы хотите предотвратить обнаружение определенной страницы или URL-адреса на вашем сайте, не используйте файл robots.txt, чтобы запретить сканирование URL-адреса. Вместо этого используйте любой из следующих вариантов: 

    • Используйте метакод noindex, чтобы запретить поисковым системам индексировать ваш контент и удалить контент из индекса поисковых систем.
    • Сохраняйте страницы с конфиденциальным содержимым как черновики и не публикуйте их. Защитите паролем страницы, которые вам нужно опубликовать.

    Часто задаваемые вопросы и советы по устранению неполадок

    Могу ли я использовать файл robots. txt для предотвращения индексации ресурсов сайта Webflow?

    Невозможно использовать файл robots.txt для предотвращения индексации ресурсов сайта Webflow, поскольку файл robots.txt должен находиться в том же домене, что и контент, к которому он применяется (в данном случае там, где обслуживаются ресурсы) . Webflow обслуживает ресурсы из нашей глобальной CDN, а не из пользовательского домена, в котором находится файл robots.txt.

    Я удалил файл robots.txt из настроек своего сайта, но он по-прежнему отображается на моем опубликованном сайте. Как я могу это исправить?

    Созданный файл robots.txt нельзя удалить полностью. Однако вы можете заменить его новыми правилами, чтобы разрешить сканирование сайта, например: 

    User-agent: * 

    Disallow:

    Обязательно сохраните изменения и повторно опубликуйте свой сайт. Если проблема не устранена и вы по-прежнему видите старые правила robots.txt на своем опубликованном сайте, обратитесь в службу поддержки.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *