Разное

Директива хост в роботс: Хост в robots.txt – директива для указания основного зеркала сайта.

16.06.2023

Что такое директива Host в файле robots.txt SEO словарь, понятное разъяснение как прописать команду

Автор:Александр Милютин Опубликовано: Обновлено:

Оглавление

  • 1 С www или без www
  • 2 Когда писать https?
  • 3 Опасности изменения адреса
  • 4 Где и как прописать Host?

Директива Host — это команда в файле robots.txt, указывающая ботам поисковых систем, какой адрес сайта необходимо ставить приоритетным для индексации. Два варианта адреса: с www или без него, с протоколом http или https.

Варианты адреса сайта которые указываются в команде:

  • адрес сайта с www или без
  • адрес сайта с http или https

С www или без www

Как ваш сайт будет выглядеть в поиске и как его будет индексировать ПС.

Почему это важно?

  1. ставя ссылки на страницы своего сайта вам необходимо знать какой адрес указывать, с www или без.
  2. Страница может индексироваться по двум адресам, но только один из них будет в выдаче, второй попадает в supplimental index (и нужно понимать какую страницу продвигать)
  3. Часть страниц в выдаче может быть с www, часть без www. Тем самым ПС тратит ресурсы на определение какой-же адрес основной. Когда вы указываете основной адрес (так-же это называется основным зеркалом) ПС индексирует адреса страниц только по указанному адресу, тратит меньше ресурсов и Trust сайта получает +1

Как определить сайт с www или без?

Если сайт уже индексируется, необходимо в поиске с помощью команды site: проверить индексацию сайта с www и без

Google индексирует 1 110 страниц сайта по адресу без wwww, значит что основные страницы сайта имеют адрес без wwwВсего 8 страниц индексируются с www, такой адрес будет второстепенным. Необходимо прописать директиву host: imt-academy.com

Когда писать https?

Если сайт работает по протоколу http, в директиве его не указывают

Host: imt-academy.com

Если сайт имеет SSL сертификат и работает на протоколе https, его необходимо указывать

Host: https://imt-academy.com

Опасности изменения адреса

Если прописать директиву на работающем (проиндексированном) сайте, часть страниц может выпасть из поиска и в дальнейшем из индекса.

Аккуратно принимайте решение.

  1. Если в индексе равное количество страниц с www и без www
    Проверьте какие страницы есть в выдаче — в Google Search Console
    Проверьте позиции сайта сервисами проверки позиций, внеся адреса проверяемых страниц с www и без www
  2. Будьте готовы к тому, что трафик может просесть
  3. Используйте 301 редирект с второстепенного на основной адрес
    В этом случае, указав основной адрес, страницы начнут выпадать из индекса, но пользователи и ПС все-равно будут попадать на нужные страницы

Где и как прописать Host?

Директива прописывается в файле robots. txt, обычно в конце

Метки записи: #Директива

Александр Милютин

Founder & CEO в Академии IMT, 13 лет в маркетинге из них 10 в Digital Marketing. Автор курсовSEO, SMM, интернет-маркетинг. Спикер конференций. Организатор ежегодной конференции Digital Marketing Trends

Энциклопедия

https

АвторАлександр Милютин

Оглавление1 Зачем нужен https на сайте?2 Шум вокруг https3 Как перевести сайт на https?4 Какие есть сертификаты для перевода на https5 Влияет ли https на позиции сайта? Зачем нужен https на сайте? Способ защиты передаваемых данных при обмене информации между клиентом и сервером. Используются на сайтах, где передаются персональные данные пользователей: контакты, телефон данные кредитных…

Читать далее httpsПродолжить

Энциклопедия

Телега, telega

АвторАлександр Милютин

Сленговое (или сокращенное) название мессенджера Telegram. Активно используется SMM специалистами, маркетологами и просто продвинутыми пользователями соц. сетей. Больше информации о социальных сетях и продвижении в онлайн университете — https://imt-academy.com/smm

Читать далее Телега, telegaПродолжить

Яндекс отменил директиву host в файле robots.txt

В файле robots.txt содержится информация о сайте для поисковых роботов. Раньше Яндекс требовал размещения в этом файле директивы host, которая указывала на главное зеркало сайта. В 2018 году от нее решили отказаться полностью, чтобы вебмастерам было легче работать. В Google эта директива не учитывалась никогда. Чтобы изменить протокол на безопасный или переехать на другой домен, теперь используют более простой способ.

Какая команда появилась после директивы host

Раньше длительность переезда сайта на новый домен в Яндексе доходила до месяца, так как связь главного и второстепенного зеркал оказывала большое влияние на позиции в выдаче. Сейчас переезд проходит всего за несколько дней, что благоприятно сказывается на продвижении. Такое стало возможным благодаря редиректу 301, который заменил директиву хост. Теперь алгоритм смены протокола и домена ничем не отличается. Google изначально работал по такому принципу.

Для продолжения работы в обязательном порядке настраивают 301 редирект (переадресацию), директива host при переезде значение утратила полностью. Нововведения помогли ускорить и облегчить процесс перехода. Однако при переезде на новый домен или смене протокола нередко возникают непредвиденные ситуации, индивидуальные для каждого случая, поэтому алгоритм действий может отличаться. Иногда процесс затягивается, но в большинстве случаев переехать удается гораздо быстрее, чем раньше.

Как проходит смена протокола или переезд на другой домен

Чтобы сменить протокол на безопасный или переехать на другой домен, убедитесь в том, что права собственности на обе версии сайта подтверждены. Затем выполните несколько простых действий:

  • настройте редирект 301;
  • перейдите в панель Вебмастера;
  • в разделе «Переезд сайта» пропишите адрес зеркала — выберите в чек-боксе «добавить https» или «добавить www», если это необходимо.

Сразу проверять корректность переиндексации ресурса не стоит, так как для обновления требуется несколько дней. Зато команду host можно удалять, ведь она стала бесполезной как для Гугла, так и для Яндекса. Обе версии сайта должны быть доступны для поисковых роботов.

Можно ли переехать без настройки редиректа 301

Переезд без настройки 301 редиректа возможен, однако это сопряжено с рядом проблем:

  1. Например, вы переезжаете с домена на домен, и у вас нет технической возможности настроить 301 редирект. В этом случае старый домен должен быть удален или скрыт от индексации. Если оставить старый домен после переезда, индексация нового будет невероятно долгой — займет даже не недели, а месяцы. Когда она будет завершена, есть вероятность, что оба домена будут признаны аффилиатами в Яндексе и приняты за дубли в Google.
    То есть, после того, как сайт переедет с домена на домен, индексироваться поисковиками должен только один — новый. Также учитывайте, что без настройки 301 редиректа произойдет неизбежная и длительная просадка трафика.
    Гарантия, что трафик вернется к уровню старого домена, когда работала директива host, отсутствует.
    Напоминаем, что оставлять открытыми для индексации старый и новый домены можно было до 2018 года, а далее директиву host отменили.
  2. Если вы меняете протокол http на https, но не настраиваете 301 редирект, хорошего результата ждать не стоит. Да, в панели вебмастера вы укажете Яндексу, какое зеркало — главное. Однако в индексе появятся дубли каждой страницы — одновременно на двух протоколах, и поисковые роботы сочтут их разными. Таким образом, вы задублируете весь сайт.
    Настоятельно рекомендуем настраивать редиректы с http на https, все современные CMS без проблем позволяют это сделать.
  3. Переезд на новое зеркало с www или без www в этом смысле схож со сменой протокола на https. Нужна настройка 301 редиректа, иначе вы также задублируете весь сайт.

Отметим, что переадресацию желательно было настраивать и до 2018 года, когда директива host еще учитывалась, поскольку редирект передает вес страниц, и Google никогда не «понимал» host.

Можно ли поставить редиректы, но не переезжать

Такое тоже возможно. Главное, чтобы все редиректы вели на основное зеркало. Если раньше для распознавания Яндекс изучал директиву host, то теперь поисковик определяет главный домен самостоятельно.

Если вы выполнили настройку редиректа, Яндекс «поймет» факт переезда. Раньше на это указывала директива host и соответствующие настройки в Вебмастере. Теперь достаточно заполнить соответствующие поля в Вебмастере. Даже если вы этого не сделаете — некритично, на возможность переезда это не повлияет. Просто переезд займет больше времени.

Что будет, если не ставить редиректы и никуда не переезжать

Если не провести процедуру переезда правильно, поисковые системы либо сочтут новый сайт дублем (либо имеющим много внутренних дублирующихся страниц), либо решат, что вы просто создали несколько одинаковых сайтов. И то и другое может повлечь негативные последствия, вплоть до наложения санкций.

Позиция «я что-то такое сделал (например переехал на https), но не выяснил, как посмотрят на это Яндекс и Google» — губительна для ранжирования нового или обновленного ресурса в рейтинге поисковых систем. Переезд должен быть обоснован, продуман, выполнен технически грамотно. Так было и когда работала директива host, и после того, как ее упразднили, с той лишь разницей, что до 2018 года старый сайт мог оставаться в выдаче, а в директиве host мог быть прописан новый. При этом трафик в любом случае приносил только один ресурс.

Если поисковик не обращает внимания на редиректы

Обычно такая ситуация возникает, когда редиректы установили с ошибками, поэтому в первую очередь проверьте корректность выполнения настроек. Остальные действия будут такими же, как и в случае со стандартным переездом или сменой протокола.

Редиректы на мобильных версиях

Директива host не требовала настройки отдельных редиректов для мобильных версий, хотя иногда поисковых роботов перенаправляли на основное зеркало. Сейчас ситуация практически не изменилась. Роботы без проблем могут исследовать любую версию сайта.

Заключение

Директиву host теперь можно смело удалять из robots.txt, ведь Яндекс тоже стал ее игнорировать. В принципе, если ее оставить, она никак не повлияет на SEO, так как стала бесполезным атрибутом. Подобные изменения Яндекс проводит для того, чтобы повысить скорость индексации и сделать процессы переезда на новый домен и смены протокола более удобными и быстрыми.

seo — Могу ли я использовать директиву «Хост» в robots.txt?

спросил

Изменено 1 год, 6 месяцев назад

Просмотрено 9к раз

В поисках конкретной информации по robots.txt я наткнулся на справочную страницу Яндекса по этой теме. Это предполагает, что я мог бы использовать Директива хоста , сообщающая поисковым роботам мой предпочтительный зеркальный домен:

 User-Agent: *
Запретить: /директор/
Хост: www.
example.com

Также в статье Википедии говорится, что Google тоже понимает директиву Host , но информации было немного (т.е. никакой).

На robotstxt.org я ничего не нашел по адресу Host (или Crawl-delay , как указано в Википедии).

  1. Рекомендуется ли вообще использовать директиву Host ?
  2. Есть ли в Google какие-либо ресурсы по этому robots.txt ?
  3. Как совместимость с другими поисковыми роботами?

По крайней мере, с начала 2021 года связанная запись больше не касается рассматриваемой директивы.

  • SEO
  • robots.txt

3

Оригинальная спецификация robots.txt гласит:

Нераспознанные заголовки игнорируются.

Они называют это «заголовки», но этот термин нигде не определен. Но, как упоминается в разделе о формате и в том же абзаце, что и User-agent и Disallow , кажется безопасным предположить, что «заголовки» означают «имена полей».

Так что да, вы можете использовать Хост

или любое другое имя поля .

  • Парсеры robots.txt, которые поддерживают такие поля, ну и поддерживают.
  • Парсеры robots.txt, которые не поддерживают такие поля, должны игнорировать их.

Но имейте в виду: поскольку они не указаны в проекте robots.txt, вы не можете быть уверены, что разные парсеры одинаково поддерживают это поле. Поэтому вам придется вручную проверять каждый поддерживающий парсер.

2

Зарегистрируйтесь или войдите в систему

Зарегистрируйтесь с помощью Google

Зарегистрироваться через Facebook

Зарегистрируйтесь, используя электронную почту и пароль

Опубликовать как гость

Электронная почта

Требуется, но никогда не отображается

Опубликовать как гость

Электронная почта

Требуется, но не отображается

Можно ли использовать домены в robots.

txt?

спросил

Изменено 1 год, 2 месяца назад

Просмотрено 1к раз

У нас есть сервер разработки по адресу dev.example.com, который индексируется Google. Мы используем AWS Lightsail для полного дублирования сервера разработки в нашу производственную среду — один и тот же файл robots.txt используется как на dev.example.com, так и на example.com.

В документации Google robots.txt явно не указано, можно ли определять корневые домены. Могу ли я внедрить специфичные для домена правила в файл robots.txt? Допустимо ли это, например:

 User-agent: *
Запретить: https://dev.example.com/
Пользовательский агент: *
Разрешить: https://example.com/
Карта сайта: https://example.com/sitemap.xml
 

Чтобы добавить, это можно решить с помощью механизма перезаписи . htaccess — мой вопрос конкретно о robots.txt.

  • robots.txt

Нет, вы не можете указать домен в robots.txt . Запретить: https://dev.example.com/ недействителен. На странице 6 стандарта исключения robots.txt говорится, что строка запрета должна содержать «путь», а не полный URL-адрес, включая домен.

Каждое имя хоста (домен или поддомен) имеет свой собственный файл robots.txt . Таким образом, чтобы Googlebot не сканировал http://dev.example.com/ , вам нужно будет обслуживать https://dev.example.com/robots.txt с содержимым:

 User-agent: *
Запретить: /
 

В то же время вам нужно будет обслуживать файл, отличный от http://example.com/ , возможно, с содержимым:

 User-agent: *
Запретить:
Карта сайта: https://example.com/sitemap.xml
 

Если одна и та же кодовая база используется как на ваших серверах разработки, так и на рабочих серверах, вам потребуется обусловить содержание файла robots.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *